News Sonntagsfrage: Wohin geht die Reise beim Stromverbrauch?

Pfff ich hatte vor 10 Jahren schon ein 1500W Netzteil verbaut.
Aber nur Zur Sicherheit weil ich mir nicht sicher war ob ich nun noch eine dritte 6970 kaufe oder nicht :D
Aber auch nur weil es im tiefen Lastbereich auch eine extrem gute effizienz hatte.

Aber hei... als dann ein 3930K dazu kam mit OC bin ich sicher der hat auch schon 100W gefressen ^^

Ehrlich gesagt ist es ja auch kein ding wenn man ein 850W anstatt 650W Netzteil kauft. Ausser das ein wenig mehr Ressourcen dafür gebraucht werden. Effizienzmässig sind die guten 850W Netzteile eh ca auf dem gleichen niveau wie die guten 650W. Also von daher "spart" man nicht mehr nur mit einem kleineren Netzteil. Man schont nur Ressourcen. Sobald man dann vor ablauf der Lebenszeit ein neues Netzteil kauft hat man diesen "vorteil" schon wieder versaut.



BTW zum Thema Stromverbrauch:
1641128830914.png

Das ist der PC (5900X+6800XT) mit nem 25W LED zur Zimmerbeleuchtung und WaKü+Lüfter. (Ohne die 3 Monitore und AVR)
1641129023480.png

Netzteil hat 170W mit 91.6% Effizient. GPU mit 35W + 60W CPU was rund 100W entsprächen.
Sind also ohne die 25W LED Streifen und ca 20W für alle Lüfter + Pumpe noch bissel was Blindleistung versteckt.
 
  • Gefällt mir
Reaktionen: Yesman9277
ich habe meine RDNA2 bewusst undervoltet und die TDP zusätzlich auf 160W begrenzt. reicht vollkommen aus, hab weiterhin mehr Leistung als mit meiner 1070 :)

mich stört bei der Zen3 Platform eher der Idle Verbrauch. sobald nämlich XMP aktiv ist verharrt der Infinity Fabric fest auf 1900MHz und taktet sich nicht mehr runter. das resultiert bei mir mit einer Leistungsaufnahme von deutlich über 50W idle. mein Haswell war sogar sparsamer ..

hab hier einen Skylake (Thinkcentre) der braucht (gesamtes system mit iGPU) keine 10W idle.

dass natürlich deutlich mehr drin ist hat uns ja @Freiheraus gezeigt:

https://www.computerbase.de/forum/threads/renoir-und-b550-die-idle-kuenstler.1967755/

allerdings müsste ich den RAM dann ohne XMP nach JEDEC mit 3200 CL22 betreiben, soweit ich das verstanden habe.

hätte ich doch lieber auf den 5700G warten sollen (Monolith). der wäre sicherlich deutlich besser zu kühlen und hätte ähnliche Leistung bringen können wie der 5800X, der auf 65W sparflamme rennen muss, weil der sonst zu warm wird :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zitterrochen und Pankrat
Problem ist doch eher, dass unsere Halbleiter den aufgenommenen Strom fast 1:1 als Abwärme wieder abgeben. Will man in Zukunft beim Zocken wirklich den Raum mit 600-700W heizen? Das ist ohne Klimaanlage nicht mehr auszuhalten.

Und ja, bei mir gibt es sehr lange Sessions. 6-7h in VR sind keine Seltenheit.
 
AlphaKaninchen schrieb:
muss man halt eine Ordentliche Leitung zum Rechner legen, statt Klingeldraht.

Denkbar.

Der Elektroherd, kann ja auch round about 10 KW. Wenn man das jetzt aber an jeder Steckdose haben will und im Zweifel man 3-4 davon in seiner Wohnung anschließen will, sollten die Kabel einen großen Querschnitt haben.

Irgend wann, sind die Wände aus Kabeln und Isolierung. :evillol:

Der Hausanstich für ein Mietshaus und die dahinter liegende Leitung zum Stromversorger, ist dann Armdick.

mfg

Mit so einem kleinen AKW im Keller, geht das natürlich. Da ist die Abwärme eher unbedeutend und Strom kostet auch nix.

Das werden wir aber wohl niemals erleben. Technisch möglich, wäre es aber. :heilig:
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Mit Undervolt bei CPU und vor allem bei GPU ist ein sehr großes Einsparpotenzial vorhanden.

Grade die RTX GPUs bekommen zu viel Vcore vom Werk.

Ein optimierten System ist schneller und braucht trotzdem weniger Strom.
Im Schnitt braucht meine RTX3090 mit Undervolt 70-90Watt weniger bei gleicher FPS Leistung
Bei der CPU sind es zwischen 15-50Watt

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Col. Jessep und Klassikfan
Philste schrieb:
Der Sprung von Ampere auf Lovelace/ RDNA2 auf RDNA3 ist nicht ohne mehr Energie möglich.
Es wird mit Sicherheit Grafikkarten geben, die so schnell / schneller sind wie die vorige Generation und trotzdem weniger / genauso viel Strom benötigen.

Dass die Topmodelle nochmal deutlich mehr Strom verbrauchen bei doppelter Leistung ist klar. Meine 6900XT liefert für mich genug Leistung. Ich würde mir sofort nen Nachfolger zulegen, der diese Leistung bei weniger Stromverbrauch liefert. OK, die Raytracing Performance sollte höher sein und auch die Preise und die Verfügbarkeit sollten passen. Aber technisch halte ich das durchaus für realistisch.
 
ich glaube bei den Minern wird sich nie eine Sättigung einstellen, die Hashes werden glaube immer schwerer zu berechnen, der Bitcoin wird weiterhin ins unermässliche steigen genauso wie die Graka Preise und die Strompreise. Später werden ganze Gebäude nur noch minen bis wir nur noch bitcoin kotzen
 
Zuletzt bearbeitet:
Also ich habe sogar reduziert von 850W Nt auf nur noch 750Nt dafür Platin, aber benötigen tu ich diese Leistung nicht, früher mit CF war es mehr.

Ich finde eigentlich sollte der Stromverbrauch egal sein, da die Erzeugung nicht viel kostet aber die lieben Steuern etz.
Und wenn endlich Speicher für Solar/Wind gebaut würden zb. Gravitationsspeicher (Schweiz mit den Kränen 100Mw/h) könnte der Preis endlich fallen, mehr wie 15-20Cent sollte das KW/h nicht kosten, und es wäre Umweltfreunlich aber das wird nicht gewollt, da kann man ja den Bürger nicht gängeln und zum Sparen nötigen.
 
Berserkervmax schrieb:
Ein optimierten System ist schneller und braucht trotzdem weniger Strom.
Dazu noch Framceaps nutzen, Upscaling rein und schon hat man ein sparsames System mit max. Grafik.
 
  • Gefällt mir
Reaktionen: Czk666
Rickmer schrieb:
Was ein Monster!

Gufur schrieb:
Ja richtig, deswegen kann ich die Aussage von über 80ct/kwh nicht verstehen.
Wo gibts diese Preise denn?
Hat mir ein Bekannter übermittelt, er is ja auch bei Stromio rausgeflogen.
-> "Grundversorgung der REWAG (Regensburger Energie und Wasser)"

DagdaMor schrieb:
Heißt konkret, das STROMIO pleite ist, oder wo bekommen die noch Kunden her?
Ist eh ein komischer Laden. War auch mal für 2 oder 3 Jahre bei denen,
bis Sie exorbitant erhöht haben und nur Neukunden mit Billigtarifen gelockt und eingesackt haben,
aber die Bestandkunden zum kündigen genötigt haben, da man nicht mit denen reden konnte.
Na, was solls?
Die Gründe kennt wohl noch keiner, aber gas.de hat auch soin Ding gebracht als sich der Gaspreis verdreifacht hat.
Gekündigt zum 21.12., aber die Mail kam am 27.12., äähm ja kann man machen...
Aber hey, das 1 Jahr Säft für 24cent/kwh nimmt man doch mit und mir war klar, dass das nicht lange so anhält und nach 1 Jahr was kommt.
Danach wurd ich auf 30 erhöht, war immernoch günstiger als andere Anbieter.
Nur eben die Kündigung ist ... doof.
Jetz guck ich mal ob ich bei berlinstrom reinkomme, nachm Onlineanmelden gabs keine Bestätigungsmail.
Also am Montag mal Fax (danke Fritzbox) und dann Einschreiben.

foo_1337 schrieb:
Das ist regional abhängig. Ich habe hier mit 31ct beim Grundversorger auch Glück, aber in diversen e.on Regionen ist man z.B. bei 60ct.
Ja, in Berlin hatte ich das auch check24 auch gesehen.
Das war kein Grundversorgungstarif, sondern ein Jahresvertrag.
Da machste schon große Augen.

CptBabossa schrieb:
Bei meinem Gehalt ist das ab sofort gestrichen.
Das könnte dieses Jahr leider noch für viele Leute unangenehm werden.
 
  • Gefällt mir
Reaktionen: foo_1337
Einfach nur noch grafisch anspruchslose Spiele mit 60fps Limiter Spielen :D
Dann brauchts keine großen neuen Kartenm und die vorhandenen brauchen auch weniger. Meine 5700XT lief schon ab Tag 1 im Silent-BIOS.

Ich hab zwar kein PV auf dem Dach (Mehrfamilienhaus, mir gehört nur die Wohnung), aber ich konnte meinen Verbrauch von etwas über 1200kWh in 2020 auf ca. 1150kWh in 2021 drücken (ich mache kein Homeoffice).

Bei 10€ Grundpreis + 26ct/kWh beim lokalen Versorger LEW kommt man damit ganz gut klar.
Aber die haben auch aktuell keine Tarife auf der Homepage, weil die gerade "optimiert" werden. Bin ich ja mal gespannt....
 
  • Gefällt mir
Reaktionen: Col. Jessep und MilchKuh Trude
TIMOTOX schrieb:
Der Verbrauch beim Surfen oder Idle ist mir Wichtiger als bei Volllast.
Dank ungefragter Windows-Updates, Klicki-Bunti-Animatimierte Webseiten, nutzlose Hintergrundprozesse, Steam-Aktualisierungen, usw. hat der Rechner leider immer häufiger etwas zu tun, obwohl der Anwender eigentlich gar nichts macht.
 
.Sentinel. schrieb:
Dazu noch Framceaps nutzen, Upscaling rein und schon hat man ein sparsames System mit max. Grafik.
Framecaps und Upscaling - genau das, was ein RTX 3080/3090 Käufer will! 😂
 
  • Gefällt mir
Reaktionen: _Snaker_ und bondage game
Atma schrieb:
Problem ist doch eher, dass unsere Halbleiter den aufgenommenen Strom fast 1:1 als Abwärme wieder abgeben. Will man in Zukunft beim Zocken wirklich den Raum mit 600-700W heizen? Das ist ohne Klimaanlage nicht mehr auszuhalten.
Deshalb wird ja auch an Computern die mit Licht rechnen gearbeitet...
https://www.mdr.de/wissen/faszination-technik/computer-rechnet-mit-licht-100.html
Aktueller aber Paywall:
https://www.heise.de/hintergrund/De...mit-Licht-schnell-rechnen-laesst-6165686.html

Also wenn man etwas über den Tellerrand schaut... es gibt genug wege um die nächst vermillionenfachung der Rechenleistung zu erreichen, die Frage ist nur was wirds?
 
FPS/Watt ist schön und gut, aber ich bin mit dem Zocken ja nicht schneller fertig wenn ich 50% mehr FPS habe. Aber wie schon viele anmerkten, ist die Spitzenlast nicht unbedingt entscheidend.

Ich nutze meinen Rechner für Arbeit und Freizeit und da ist der Verbrauch bei geringer Last wichtiger (trotz 760W Netzteil). Daher habe ich auch eher Bedenken, dass der Idleverbrauch am Desktop seit Jahren eher steigt bzw stagniert.
 
  • Gefällt mir
Reaktionen: Fritzler
Pc Gaming schafft sich meiner Meinung nach ab. Viele die eine RTX 3080 im September 2020 erworben haben, haben sie später wieder auf eBay verscherbelt mit Aufpreis. Der Trend geht nach wie vor weiter. Hohe Preise, hoher Stromverbrauch und für 4K braucht es Upscaling Techniken, damit sich das Zocken überhaupt in der Auflösung lohnt, trotz 3000-4000€ Gaming PC. Dann kommt noch die Peripherie dazu, 100-200€ für eine gute Tastatur, bis zu 100€ für eine Gaming Maus, Headset ab 130-300€, bis zu 600€ für einen guten Monitor mit HDR und hohen Hz, hoher ppi, guter Farbraumabdeckung, andernfalls sieht das Bild mau aus. Wenn man dann alles hat und endlich genießen will, werden meist schon neue Modelle für GPUs und Refresh für CPUs angekündigt. Ach, hatte ich schon von dem Hype erzählt, dass Spielemacher mittlerweile Spiele aufn Markt werfen die schlecht optimiert sind ? Dann bringt auch eine RTX 3090 gepaart mit einem 12900K wenig in BF2042. Oder dass schon nach Ankündigung der RTX 30er Serie sich herausstellte, dass der Vram knapp sein könnte? Death Loop, Horizon Zero Dawn... ein paar Spiele mal in den Raum geworfen.
= wieder aufrüsten. Wieder mehr Geld ausgeben...

Da lohnt sich der Griff AKTUELL zu einer PS5 oder XSX. 4K 60Fps langt mit Gsync oder Freesync, ohne Tearing, und der Support der Hersteller ist immer garantiert.
 
  • Gefällt mir
Reaktionen: Mark3Dfx und danyundsahne
Ich bin kein Freund von einem hohen Stromverbrauch, aber wenn ich damals an meine GTX 480 und deren Abwärme denke, hat sich doch auch schon einiges getan. Und 12 oder 16 Kern-CPUs braucht auch nicht jeder, gerade nicht zum Spielen. Schauen wir Mal wie sich das noch entwickelt, aber falls die Strompreise weiter steigen sollten, werden auch mehr Leute sparsamere Komponenten kaufen und die Hersteller ggf umdenken. Hoffentlich.
 
PusteBlume0815 schrieb:
Eigentlich habe ich so einen Strommesser noch rumliegen. Warum eigentlich nicht. Nur wie Aussagekräftig wäre das. Gibt ja praktisch keine zwei identischen Systeme und ein Rechner besteht ja nicht nur aus CPU und GPU.
Ist ja auch nur ein Anhaltspunkt.

Ist immer noch besser, als nur die Wattzahl der Netzteile zu vergleichen.
Die werden wegen den Lastspitzen der modernen GPU´s mittlerweile doch eher 2-3 Nummern größer dimensioniert wie noch vor einigen Jahren. Und oftmals lässt man auch noch Spielraum für zukünftige GPU´s.

Das ein Multimonitorsetup mit viel Peripherie und HDD´s vorallem im Idle deutlich mehr braucht dürfte klar sein. Aber vll. fällt dem einem oder anderen auf, dass er bei gleichem Setup deutlich mehr braucht, weil z.b. ineffizienteres Netzteil (Idle Last/Effizienz bei den >750W NT?) oder VRAM-Takt/Undervolting, etc.


Ich hab bei mir grad dank GPU-Krise richtig zum Stromsparen angefangen.
Mit der RX6600 komm ich mit Undervolting im Idle sogar auf 65-70W (vorher >100W) und beim Zocken auf ~215W. Da lag ich auch schon bei >300W
 
Zurück
Oben