News Nachhaltigkeit: Ist der Stromverbrauch neuer Hardware noch zeitgemäß?

träum weiter, wenn eine 4080 für €800.- über die ladentheke geht hast du die Preise was das zeugs eigentlich kosten sollte.

alles was darüber ist, tjoa, da hat nvidia ganze Marketing Arbeit geleistet.

Sinnlos...absolut sinnlos sich über Strom und Preise zu unterhalten....
 
Mehr Maximalleistung wird letztendlich auch eine höhere maximale Leistungsaufnahme bedingen, auch wenn das "im Kleinen" oder kurzfristig nicht immer der Fall sein muss. Von daher geht da kaum ein weg dran vorbei. Gut finde ich, dass der Verbrauch im Idle oder bei geringer Auslastung ja (soweit ich weiß) immer weiter abgesunken ist. Ein PC im Idle verbraucht heute so viel wie 3-5 LED Birnen (so um die 30-50 Watt), vor 15 Jahren bevor LEDs groß rausgekommen sind hat jede Glühbirne locker 30 Watt verbraucht. Zu meinen Kinderzeiten hatten meine Eltern eine Standlampe die nach oben indirektes Licht abgegeben hat, die hat locker 100 Watt (evtl. sogar 300 Watt) verbraucht wenn die voll aufgedreht wurde.

Man muss solche Themen halt im Kontext betrachten.

EU Label o.ä. als Anreiz wie bei Lampen, Kühlschränken u.ä. fände ich aber sehr lobenswert und angebracht. Für mich persönlich ist z.B. der Stromverbrauch im Idle definitiv ein interessanter Faktor.
 
Ist es nicht aktuell eher so, dass Software so schlampig programmiert ist, dass der Mangel an Optimierung durch Hardware ausgeglichen wird?
Weil Softwareunternehmen sich nicht mehr die Zeit zum optimieren nehmen um die Time-to-Market gering zu halten?

Und bei der Betrachtung vom Energiebedarf würde mich natürlich insgesamt die Effizienz der Hardware interessieren. Und wie die zeitliche Entwicklung der Effizienz in den letzten Jahren bis heute aussieht.
 
cyberware schrieb:
Ist es nicht aktuell eher so, dass Software so schlampig programmiert ist, dass der Mangel an Optimierung durch Hardware ausgeglichen wird?
Weil Softwareunternehmen sich nicht mehr die Zeit zum optimieren nehmen um die Time-to-Market gering zu halten?
Kann ich mir für Software im Allgemeinen eher weniger vorstellen. Gemeint ist vielleicht fehlende Unterstützung von Threading?

cyberware schrieb:
Und wie die zeitliche Entwicklung der Effizienz in den letzten Jahren bis heute aussieht.
Wäre interessant, wie man die Effizient messen will. Gerechnet als "Watt pro Mhz" ist die Effizienz sicherlich stark gestiegen über die letzten 25 Jahren. Aber auch die Leistung "Watt im Idle" ist afaik stark gestiegen. Das ändert aber natürlich nichts daran, dass heutige Computer unter Last ein vielfaches von dem Verbrauchen was Computer damals verbraucht haben. Und das Menschen heute 2-5 Computer (Tablet, Smartphone, Laptop, ..) besitzen statt 0-1 Computer.
 
cyberware schrieb:
Ist es nicht aktuell eher so, dass Software so schlampig programmiert ist, dass der Mangel an Optimierung durch Hardware ausgeglichen wird?
Weil Softwareunternehmen sich nicht mehr die Zeit zum optimieren nehmen um die Time-to-Market gering zu halten?

Und bei der Betrachtung vom Energiebedarf würde mich natürlich insgesamt die Effizienz der Hardware interessieren. Und wie die zeitliche Entwicklung der Effizienz in den letzten Jahren bis heute aussieht.
Wenn die Software Hersteller die Rechnungen zahlen würden, wäre ihre Software wesentlich effizienter.

Kannst der Politik ja eine dynamische Besteuerung für Software vorschlagen, wer schlampt zahlt drauf :D Dann noch ein System wo die Kosten nicht einfach durchgereicht werden können...kannst vergessen.

Diese ganze Diskussion erübrigt sich wenn die Fusion kommt. Da wird Energie kein Maß mehr sein.
 
Da ich eh schon alles mit Wasser kühle, wäre es mir im Prinzip egal. Aber ich nutze für die normalen Aufgaben ein 35-Watt-System und nur für gamen wird "der Große" angeworfen. Aber schon ne Nummer wenn man mal alles zusammenrechnet:
Office PC: ca 20 Watt (24/7)
GamePC: ca 500Watt (2-3h)
Drucker: 5 Watt (24/7)
Switch: 5 Watt (24/7)
NAS: 80 Watt (24/7)
Monitor: 60 Watt (8-10h)
Lautsprecher: 50 Watt(?) (24/7)
 
Was traurig ist; sowohl Alder Lake sowie Zen4 und vermutlich auch Raptor Lake sind super performant, wenn man sich im üblichen Rahmen rund um 65W bis 125W TDP austobt - egal ob 4, 6 oder 32 Threads.

Also eigentlich könnte die PC-Landschaft in Teilen bereits heute deutlich genügsamer unterwegs sein.

Blieben allerdings noch die Grafikkarten - die in meinen Augen viel viel größere Baustelle. Ich hoffe inständig, da kommt zeitnah ein umschwenken. :/
 
Naja es geht ja nicht unbedingt um den absoluten Verbrauch sondern dass man sich halt fragen muss ist das in einer Region in der - siehe Spiegel heute (https://www.spiegel.de/wirtschaft/e...europa-a-eee9ce8a-a11c-45de-9ddb-e47e16dbb684) - Blackouts eine immer höhere Wahrscheinlichkeit haben noch zeitgemäß.

Also die Frage kauft man in einem 3. Welt Land mit Ernährungsmangel eine 10er Packung Milchschnitte setzt sich auf den Marktplatz isst zwei und wirft 8 Stück weg - auch wenn man damit nicht das Land ernähren könnte es ist halt naja ... einfach keine gute Sache - und an dem Punkt ist man halt langsam, dass die RTX 40x0 einfach zu dekadent sind in Europa.

Es sind sicher Super Karten vor allem für 4k Gaming aber der Verbrauch passt halt nicht in eine "Mangelregion"

Spätestens nachdem es mal >= 1 Woche in einem grösseren Bereich "zwangsdunkel" war kommt doch eh alles auf den Prüfstand >= GTX 1030 xD

Waaaas du kaufst eine Graka MIT PCIE Stromstecker..... das ja noch schlimmer als mit einem Euro-1 Diesel ans Meer zu fahren um Babyrobben zu kloppen,,,
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AppLeYArD
DANKE für diese Meldung und diese Diskussion. Hab es erst jetzt gesehen, muss auch noch meinen Senf dazugeben. Ich glaube dieses Watt-Wettrennen ist überhaupt nicht mehr zeitgemäß, in Sachen Klimakrise, Teuerung... Mann! Man liest das ja auch überall in allen Berichten zur neuen Generation. Bloß immer im Nebensatz. Ich finde es gehört wirklich in den Hauptsatz, im Sinne von: Schluss damit.

Es ist völlig sinnlos wegen +5% Leistung +50% Stromverbrauch hinzunehmen. Und das bei jeder neuen Generation noch stärker? Das ist tatsächlich zum Schämen, hat doch keiner irgendwas davon. Eine herkömmliche Haushalts-Steckdose erreicht übrigens irgendwo jenseits der 1200 Watt (oder 1500, weiß ich nicht genau) die zulässige Belastungsgrenze, spätestens dort muss es aufhören. Oder Nvidia verlangt dann Starkstrom-Anschlüsse direkt aus der Wand für ihre Graka ?

Also Schluss damit, ich wäre für eine gesetzliche Grenze, Energieverbrauchs-Label oder so. Nur damit man mich richtig versteht: Ich bin absolut FÜR laufend stärkere CPUs und GPUs. Das Beispiel Zen 4 zeigt ja dass es geht: Einfach auf die letzten 5% Leistungsplus verzichten, es ist trotzdem noch ein schöner Zugewinn. Und keiner braucht dafür das eigene Kraftwerk im Keller.
 
Jerry123 schrieb:
Eine herkömmliche Haushalts-Steckdose erreicht übrigens irgendwo jenseits der 1200 Watt (oder 1500, weiß ich nicht genau) die zulässige Belastungsgrenze, spätestens dort muss es aufhören.
Es kommt auf die Absicherung und den Leitungsquerschnitt/Leitungslänge an. 2300W sind in D aber meist Standard und je nach Dose sind auch 3,6kW ok. Letzteres ist aber tatsächlich selten, weil Schuko ursprünglich nicht darauf ausgelegt war.
Mit deinen 1200-1500W hättest du je nach Gerät (z.B. Wasserkocher oder Fön) schon Probleme.
 
Würde auch immer undervolten, selbst wenn es eine rx 6900 (bei 0,8 Volt gibt es 10 % Leistungsverlust und >40 % Energieeinsparung). Wenn die Preise Stimmen kaufe ich mir auch eine 450 Watt Karte, welche ich dann auf 250 Watt undervolte. Weiß man halt vorher. Nur wenn es die Möglichkeit nicht gibt, würde ich die Karten nicht mehr kaufen.

Werde zumindest jetzt erstmal das vollständige lineup der neuen Karten abwarten.
Meine 1070 würde ich gerne ersetzten muss aber schon Faktor drei sein, die Leistung einer 3080 12 GB oder rx 6800XT brauch ich schon. Ich will aber nur max. 500 € ausgeben (lieber 400 €). Die 1070 hält auch noch ein bisschen. Die 4080 kann sich Nvidia in den Allerwertesten schieben. Ja die 12 GB Variante würde ich sofort kaufen für 599 €, mehr aber auch nicht ^_^. Mal sehen was AMD und Intel (Xe2) so nächstes Jahr auf den Tisch bringt.
Die ARC 770 ist interessant lohnt sich aber für nicht. (aber da sieht man mal 8 GB Videospeicher / 16 GB Videospeicher 30 $ unterschied.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BornBad
RobZ- schrieb:
Diese ganze Diskussion erübrigt sich wenn die Fusion kommt. Da wird Energie kein Maß mehr sein.
Ja wenn sie kommt. Und zwar auch bezahlbar. Bis jetzt ist außer versuchen weiter nichts zu sehen. Mal angenommen wir rechnen ganz optimistisch dass die ersten Kraftwerke in 15-20 Jahren AMD Netz gehen. Können wir ja nicht so lange untätig herumsitzen. Und selbst bei der Fusion fallen radioaktive Abfälle an auch wenn es deutlich weniger als im Atomkraftwerk ist.

Zum Thema, ich finde die Entwicklung verkehrt immer mehr TDP bei CPUs und GPUs zu forcieren.
Für mich ist es auch kein Argument das man sagt "ja aber die Hardware wird trotzdem effizienter". Es wird trotzdem mehr Strom verbraucht und mehr Abwärme produziert.
Ich finde den Vorschlag gut das die Hardware als Standardeinstellungen den Ecomodus fährt. Und so bei 30-50% weniger Leistungsaufnahme vielleicht 10% Leistung verliert. Der Rest der die Maximale Leistung braucht weiß wo er zu klicken hat.
Ich mache das jetzt schon seit etlichen Jahren das ich ein Cap von 60-90FPS fahre je nach Game. Das reicht mir im Singleplayer dicke. Und ich spare mir so einiges an Strom selbst wenn ich nicht mehr soviel Spiele. Aber es ist leiser und kühler vorm PC zu sitzen.
 
  • Gefällt mir
Reaktionen: Chaosbreed, BeBur, Teckler und eine weitere Person
the_pi_man schrieb:
Da ich eh schon alles mit Wasser kühle, wäre es mir im Prinzip egal. Aber ich nutze für die normalen Aufgaben ein 35-Watt-System und nur für gamen wird "der Große" angeworfen. Aber schon ne Nummer wenn man mal alles zusammenrechnet:
Office PC: ca 20 Watt (24/7)
GamePC: ca 500Watt (2-3h)
Drucker: 5 Watt (24/7)
Switch: 5 Watt (24/7)
NAS: 80 Watt (24/7)
Monitor: 60 Watt (8-10h)
Lautsprecher: 50 Watt(?) (24/7)
Wobei man eigentlich sagen muß, dass der Verbrauch noch nie so individuell war, wie zur Zeit.
Selbst die große Hardware braucht im IDLE/Minimallast so wenig wie noch nie zuvor.
Auf die 20W wird man nicht runterkommen, aber vielleicht auf 50W. Dem steht halt gegenüber das man kein zweites System Produzieren (Ökologische Betrachtung) und Kaufen (Ökonomische Betrachtung) muß.

Wenn man 5/10/15 Jahre zurück geht und sieht, dass die Hardware zwar unter Volllast absolut weniger verbraucht hat, aber im Idle und Teillast wieder absolut deutlich mehr gebraucht hat und schaut sich mal an, wie die PC Nutzung ist, kommt unter dem Strich gar nicht so der krasse Mehrverbrauch raus.

Was auch gerne übersehen wird, ist die total graphics power beim Spielen selten voll ausgeschöpft wird.
Takt, Spannung und resultierender Verbrauch variiert teilweise im Millisekunden Bereich. Das heißt, wenn Peaks als Anforderungen kommen, werden diese deutlich besser von der GPU abgefedert, weil sie mehr Luft nach oben hat. Das heißt nicht, dass eine 350W Karte kontinuierlich und stur 350W verbraucht, nur weil man ein Spiel gestartet hat.

Diese Peaks, sind allerdings Stress pur für das Netzteil, weswegen sehr große Netzteile empfohlen werden, deren Leistung man eigentlich nur als Puffer für diese Peaks benötigt, nicht weil man dauerhaft diese Leistung benötigt. Das täuscht beim Eindruck, man bräuchte heute soviel mehr Strom als früher.
Mit ATX 3.0 Netzteilen kann man wieder 1-2 Nummern kleiner kaufen, weil in deren Spezifikationen genau diese Peaks geleistet werden müssen.
Da wird es kein Problem mehr sein, eine 3090 an ein 500W Netzteil anzuschließen.
 
  • Gefällt mir
Reaktionen: Chaosbreed
Die Umfrage ist aber auch wieder sehr manipulativ gestaltet. Man könnte meinen man möchte ein gewisses Ergebnis erhalten.

Ich kann nicht mal meine ehrliche Antwort angeben da die Antwortmöglichkeit nicht besteht. Ich kann mich höchstens enthalten weil nichts anderes passt.

Planst du ein Upgrade deines Systems? JA

  • Ja, ich werde einen AMD Ryzen 7000 kaufen NEIN
  • Ja, ich werde einen Intel Core i-13000 kaufen NEIN
  • Ja, ich werde eine GeForce RTX 4000 kaufen NEIN
  • Ja, ich werde eine Radeon RX 7000 kaufen NEIN
  • Ja, ich werde ein neues Netzteil kaufen NEIN
  • Nein, ich plane kein Upgrade Doch plane ich
  • Enthaltung (Ergebnis anzeigen)
 
  • Gefällt mir
Reaktionen: nciht, Bonanca, romeon und 2 andere
Jerry123 schrieb:
Es ist völlig sinnlos wegen +5% Leistung +50% Stromverbrauch hinzunehmen. Und das bei jeder neuen Generation noch stärker?
Es sind 50% mehr Performance pro Watt. Also gleiche Leistung gäbe es bedeutend sparsamer, was man als User auch selbst einstellen kann. Stichworte Powerlimit und Undervolting.

Jerry123 schrieb:
Eine herkömmliche Haushalts-Steckdose erreicht übrigens irgendwo jenseits der 1200 Watt (oder 1500, weiß ich nicht genau) die zulässige Belastungsgrenze,
2500W. Sonst würde kein einziger Heizlüfter daran funktionieren.
 
  • Gefällt mir
Reaktionen: Chaosbreed
Danke für die Info! 2500W ist das Powerlimit der Steckdose. Alles klar... dann bin ich jetzt beruhigt. Reicht noch für ca. 2 weitere Generationen Nvidia. Also alles gut, RTX 6090 kann kommen :)
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
Der Trend ist absolut schrecklich. Bis zu 600W ist einfach viel zu übertrieben. Ich dachte mir bei meiner RTX 3080Ti WTF. Aber 600W bei einer RTX 4090???? Das läuft in eine komplett falsche Richtung. Vorallem wenn man bedenkt, wie es aktuell mit den Strompreisen so aussieht.
 
  • Gefällt mir
Reaktionen: B.XP
Neronomicon schrieb:
Das ist richtig. Nur werden viele oder müssen dann auf Wasserkühlung/AIO umsteigen.
Das ändert aber nichts am grundsätzlichen Problem, sondern verlagert erstmal nur die Wärmeabgabe an die Umgebungsluft an eine andere Stelle. Besser kühlt eine Wasserkühlung/AiO auch nur, wenn dessen Kühlerfläche und Luftdurchsatz höher ist als ein reiner Luftkühler im Luftstrom der Gehäusebelüftung. Eine 240er AiO kühlt da im Endeffekt auch nicht wirklich besser als ein hochwertiger Luftkühler mit gescheitem Luftstrom im Gehäuse.

Und dann geht die Wärme auch immer noch im die Umgebungsluft, heizt den Raum also genauso auf wie eine Luftkühlung. Das Problem ist nicht unbedingt, die Wärme von CPU & GPU wegzubekommen, sondern dass dass PC mit High-End Hardware, unabhängig von der Art der Kühlung den 30-40°C warmen Raum noch zusätzlich mit 500+ Watt heizen kann bei entsprechender Auslastung. Da ändert auch eine Wasserkühlung nichts dran.
 
  • Gefällt mir
Reaktionen: OJK, chaopanda und foo_1337
Man könnte mal einen CB-Test machen in dem die Generationen auf 250W gesetzt werden und dann schon schauen wie die Effizienz steigt.

Solange Käufer vorhanden sind wird sich das nicht regeln.

Desweiteren muss eine Karte nicht 600W ziehen nur weil sie es kann.

Die Strompreise sind aktuell halt doof wegen politischer Fehlentscheidungen der letzten 17 Jahre. Wenn wir bei 100% Erneuerbaren oder Fusion angekommen sind wird Strom fast umsonst sein. Dann kann die RTX 13090 auch ihre 2kw ziehen. Die Wärmepumpe die wir 2040 in jedem Raum haben werden kann ja auch kühlen.
 
  • Gefällt mir
Reaktionen: foo_1337
Nur gut das ihr euch darüber so viele Gedanken macht und schon fast 50 Seiten darüber diskutiert das man gegen diese Methoden langsam mal vorgehen muss. Immerhin macht sich eine Hand voll Deutscher Gedanken über das aktuelle Thema das die ganze Welt betrifft.

Nur macht sich in anderen Ländern darüber kaum einer Gedanken. In Amerika würde sowas nie zur Debatte stehen. DIe produzieren einfach mehr Strom und fertig.
 
Zurück
Oben