Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNachhaltigkeit: Ist der Stromverbrauch neuer Hardware noch zeitgemäß?
Es ist völlig egal, ob du mit Wasser, Öl oder Luft kühlst. Die Erwärmung des Raums ist immer gleich (vorausgesetzt der Radiator befindet sich auch in diesem Raum).
Mit nem neuen Ryzen System und ner RTX 4000 sind wir hier nicht mehr 350W TDP sondern bei locker 1000W unter Last, mit wahrscheinlicemh Realverbrauch von 850W.
Warum sollte die TDP unter Last derart von den Herstellerangaben abweichen? Nvidia gibt für die 4090 450 W TDP an, AMD für seine großen CPUs 170 W. Das heißt aber nicht, dass die Hardware auch dies in jeder Situation an Strom verbraucht. Das hängt von der eingesetzten Software ab. Spiele gehören nicht zu der Software, die eine CPU unter Volllast bringen können. Je nach Spiel kann die CPU auch deutlich weniger verbrauchen, wenn z.B. nur ein Kern genutzt wird.
Man kann heutige Hardware auch so konfigurieren, dass eben nicht auf Teufel komm raus einfach Energie verbraten wird. Das haben ja auch die letzten Tests über Ryzen 7000 wieder gezeigt. Genauso kann auch eine GPU im Verbrauch gedrosselt werden.
Nur mal als Beispiel:
Ich kann PL1/PL2 eines 12900K auf 125 W fixieren. Damit reduziere ich die maximale Leistungsaufnahme fast un 50 % (241 W). In Spielen (nicht Multithread-Anwendungen) reduziert sich die Leistung aber gerade einmal um 2 %.
Das senkt die Temperaturen, aber nicht die Abwärme. Wichtiger Unterschied. Ja eine CPU frisst weniger Strom wenn sie kälter ist, bei 10-20K ist das aber fast vernachlässigbar.
Es macht zum Beispiel auch keinen Unterschied ob du deinen Backofen offen oder geschlossen abkühlen lässt. Die Menge an Energie ist gleich, es ändert sich lediglich der Zeitraum für die Abkühlung.
SKu schrieb:
Ich kann PL1/PL2 eines 12900K auf 125 W fixieren. Damit reduziere ich die maximale Leistungsaufnahme fast un 50 % (241 W). In Spielen (nicht Multithread-Anwendungen) reduziert sich die Leistung aber gerade einmal um 2 %
Ja, absolut. Trotzdem ein Witz, das Intel und amd jenes nicht ab Werk machen. Hat man ja in den Tests zu Alder Lake und Zen4 geschehen. Nimmt man beiden CPUs 50W vom maximalverbrauch weg, sind das wenige Prozent Leistungsverluste. Die Effizienz geht aber regelrecht durch die Decke.
Beim spielen ist es eh nicht relevant, weil eher 100W Anliegen, aber im Multicore lässt sich enorm Energie sparen ohne wirklich spürbare Nachteile zu haben.
Wohl eher nicht, da mit der hohen Verlustleistung längst auch thermische Probleme einher gehen. Das bringt auch das Thema mit Haltbarkeit und Raumwärme auf sich.
Ergänzung ()
anappleaday schrieb:
Was ich nicht ganz verstehe bei diesem Wahn zum Strom sparen:
Sag mal du hast die Ansage der Moderation auch nicht verstanden, oder?
Dir verbietet niemand dein 4090 SLI, aber der Unterschied im Verbrauch zwischen Einstieg, Mittelklasse und Highend ist mittlerweile beim Faktor 5.
Und damit sind keine exotischen Hardwarelösungen wie Dual-CPU, SLI und Konsorten gemeint sondern Single-CPU und Single-GPU-Lösungen, wobei es nicht mal einen echten Mehrwert gibt. Die 3000er-Serie kann alles aktuelle in 4K darstellen, für was braucht man zwingend eine 4090?!
BTW. Der Mehrverbrauch an Strom durch Elektroautos (100TWh) und die dadurch resultierende Einsparung an Energie (400-500TWh) sind gut quantifizierbar. Das wird bei IT schwierig.
Wir haben 34 Millionen „Gamer“ in Deutschland. Wie viele davon sind „PCMR“ und wie viele spielen davon auf entsprechend leistungsstarken Rechnern? Wie viele auf Smartphones/Tablets? Das ist schwierig zu quantifizieren.
Ich hatte als Student das Vergnügen, bei einem PC-Hersteller im Testing zu jobben und im Ernst: Der Verbrauch und die Lautstärke war schon mal ein entscheidender Faktor bei der Anschaffung von IT-Equipment. Gerade mit Pentium 4 und D gab es schon Probleme, bessere Kühler und Energiesparmaßnahmen haben in den folgenden Generationen das BTX-Format wieder obsolet gemacht. Das kann gut passieren, dass hier aufgrund der Leistungsaufnahme echte Absatzprobleme auf die Hersteller von Hardware zukommen.
Für Gamer, die sich für den Energieverbrauch nicht interessieren kann es schnell zu Situationen kommen, in denen die Stromverbräuche ihrer „Stations“ die eine oder andere Überlast-Sicherung fliegen lassen wenn weitere Großverbraucher im Haushalt angeschaltet werden.
Diese Frage ist extrem müßig, Gaming braucht nämlich niemand, genau wie alle anderen Hobbys auch nicht gebraucht werden.
Aber um deine Frage ernsthaft zu beantworten:
Habe einen 4K120hz Bildschirm hier stehen und meine 3090 packt 4k120 bei so gut wie keinem Spiel.
Also wozu eine 4090?
Weil es leider geil ist Games mit 4K120 Raytracing Max zu zocken.
(Ehrlicher wird’s hier nicht im Thread 😏)
Werde mir vermutlich aus der RX Reihe die Karte schnappen welche mit um die 200-250 Watt schneller ist als meine RX6800 zu nem vernünftigen Preis (oder sogar weniger braucht). CPU seitig wird es wenn überhaupt ein Sidegrade auf den 5800X3D. Der ist flott genug und ich muss dann nicht noch Board und Speicher kaufen.
Was ich nicht ganz verstehe bei diesem Wahn zum Strom sparen:
Am besten sollen wir doch Alle 82 Millionen Einwohner! elektrisch fahren (was unvorstellbare Unmengen an elektrischer Energie verbraucht), aber bei allen anderen Sachen soll ums verrecken elektrische Energie gespart werden?? Oxymoron?
Eben sehe ich daß die EU Stromausfälle für möglich hält.
Dagegen hilft nur Energie sparen.
Und jeder einzelne zählt... so seh ich das
Hab gestern irgendwo gestern daß durch minimale Begrenzung der Framerate locker über 100W bei einer 3080 gespart werden können
Die letzten paar Prozente Leistung brauchen anscheinend überdurchschnittlich viel Energie
So dachte ich als Schüler auch mal. Aber dem bin ich schon lange entwachsen.
Mittlerweile nutze ich meine Zeit sinnvoll(er) und mein einziger privater Rechner ist ein MacBook Air. Soweit ich weiß brauche ich für eine Akkuladung inkl. Verluste ca. 70 Wh (kostet mich gerundet 2 ct) und komme damit ein paar Tage hin.
Das würde ich auch nicht als Wahn bezeichnen sondern als intrinsische Tendenz zur Suffizienz.
Würde ich mir einen Gaming-Rechner zusammenstellen wollen, würde ich nach einem guten Energieverbrauch-/Leistungsverhältnis streben, aber nicht nach bester Leistung.
Teckler schrieb:
Hab gestern irgendwo gestern daß durch minimale Begrenzung der Framerate locker über 100W bei einer 3080 gespart werden können
Bezogen auf die Energiegewinnung ja, man kann sie nur ein mal verbrennen und dabei in ihre Bestandteile zersetzen, aber "verwenden" kann man die eigentlich beliebig oft, eben bis man sie verbrennt - dann ist nix mehr mit recycling. Gerade mit Öl lässt sich eigentlich viel machen, was nicht gleich zur zersetzung des Rohstoffes führt.
Tzk schrieb:
Trotzdem ein Witz, das Intel und amd jenes nicht ab Werk machen.
Haben die früher - und da haben halt viele das Potential nach Oben ausgenutzt und übertaktet (ohne Rücksicht auf Leistungsverluste). Ggf. haben mit dem Verhalten die Kunden auch danach gefragt, warum man das nicht frisch ab Werk so macht? Und jetzt wird halt Undervolted - mal schauen, vielleicht ist es ein Pendel...
Das ist ein sehr kontroverses Thema. Auf der einen Seite ist es ein Hobby auf der anderen Seite steigt der Energiebedarf immer weiter an für diese Hobby. Und die Hersteller bedienen den Trend auch noch, meist nur für die letzten 5% Leistung. Ich verstehe AMD, dass Sie als Underdog in den Benchmarks alles zeigen müssen. Dennoch ist in Anbetracht dessen, was Zen4 im ECO Modus noch leistet traurig. Gut als Gamer sind mir die Verbräuche der CPU egal, da im Gaming eigentlich alle CPU recht sparsam sind - ob es dann 50W oder 60W sind ist nicht so wichtig. Aber bei Grafikkarten geht es vor allem seit Ampere in die falsche Richtung.
Wir waren jetzt Jahrelange bei ca 250W für die High End Karten im Ref. Design. Das war auch ein guter Wert, die Energieaufnahme ist händelbar und die Abwärme ebenso. Weiterhin gibt es für OC noch genug Potential ohne das o.g. Parameter zu weit aus dem Ruder laufen. Aber Ampere mit 350W Stock und 450W für die Customs und jetzt 450W Stock und 600W(?) für die Customs. Finde ich den falschen Weg. Lieber die Karten 10% langsamer laufen lassen, die Chips evtl. kleiner und fertig. Nebeneffekt, die Karten könnten so auch günstiger werden weil, die Chips etwas kleiner sind, die Platinen weniger aufwändig und somit spürbar weniger/kostengünstiger Bauteile verlötet werden müssen.
Der Stromverbrauch von allem steigt, dass ist die Zukunft. Nur unsere Regierung hat den Schuss nicht gehört, die Preise sind überzogen und nur deshalb ist das hier ein Thema. Atomstrom kostet keine 5 Cent pro kwh in der Herstellung, aber abgerechnet wird die teuerste Art der Produktion. Jetzt mit den Gaspreisen...
In Frankreich kostet es ca. 17cent, anderswo noch weniger. Die interessieren sich nicht für deutschen Schwachsinn
Gaming ist mein Hobby (habe zum Glück eins das mir viel Freude bereitet), sinnvoller kann seine Zeit gar nicht verbringen als dem eigenen Hobby viel Zeit und Liebe zu widmen.
Bin übrigens 40 und sehe das inzwischen sogar deutlich verstärkter so an als ich noch Schüler war, da habe ich meinen Tag meist mit irgendwas verschwendet, Alkohol war meistens gut dabei 😏
PS:
Und wenn ich meinen Bruder mit dem Hobby Auto betrachte ist mein Hobby von den Kosten her dagegen absoluter Kindergeburtstag 😎
Dein Irrtum: Wenn du nur die gleiche Grafikleistung abfordest wie bei einer 3000er , braucht eine 4000er weniger Strom. Erst dann wenn man mehr Grafikleistung abfordert ( z.B 4k@120Hz statt 4K@60Hz ) verbrät die 4000er mehr wie eine 3000er.
Und man kann den maximalen Stromverbrauch durch passende Einstellung der Karten deutlich drosseln wenn man bereit ist auf das letzte Quentchen Grafikleistung zu verzichten
Gaming ist mein Hobby (habe zum Glück eins das mir viel Freude bereitet), sinnvoller kann seine Zeit gar nicht verbringen als dem eigenen Hobby viel Zeit und Liebe zu widmen.
Ich habe vor etwas über einen Jahr aufgerüstet. Oder ist es schon 2Jahre her? Hmm. Warum also was neues.
Wenn ich aktuell in der gleichen Lage wäre, wie damals (8-10J alter PC), dann würde ich vermutlich doch die aktuelle Generation kaufen. Erst noch warten, bis es etwas günstiger wird natürlich. Dann eins der kleineren Modelle holen oder ein "etwas" dickeres und dann auf niedrige Leistung knebeln.
Warum die Hersteller allesamt ihre mitunter ja eigentlich ganz gute Effizienz mit massivem Auto-OC - und nichts anders ist das ja mittlerweile - völlig zerstören, nur um 2-3% mehr FPS zu haben. Echt schon verrückt.
Da ich mittlerweile aber meine Rechner eh ziemlich lange am Stück nutze, also vermutlich wieder so 8Jahre+, wird eh erst mal nichts nachgekauft. Wozu auch?
Könnte natürlich sein, dass das Boosten die Hardware nun doch schneller zerstört und man früher sich was neues holen muss. Das wird man dann sehen. Bekloppt ist der Trend auf jeden Fall. Mit Anlauf gegen die Temperaturgrenzen.
Von mir aus darf die Industrie noch weiter anziehen, denn es ist ja so:
Nur weil man mehr ziehen darf, heißt es nicht, dass man das auch in der Praxis müsste.
Beispiel hier:
CoD CW MP - UWQHD (DLSS Q) maxed out, RT off - 80 fps Cap auf der 3090 UV (1,3x GHz @ 725-737mV) -> 21-23GB im VRAM (90% Nutzung erlaubt) -> sub 50 Grad GPU -> ca. 150W TGP!
Ich freue mich jedenfalls schon auf meine kommende RTX 4090 FE - auch wenn vermutlich einige Monate Wartezeit notwendig sein werden, leider....evtl. gesellt sich ein 13900KS später hinzu - ansonsten warte ich auf Lunar Lake.
Mein nächstes NT wird jedenfalls 2KW(+) haben und 3x 16 Pol. bieten - falls ich später mal Bock auf so etwas wie eine 6090 Ti HoF hätte....
Bei mir ist immer die Effizienz am wichtigsten. Solange die steigt kann der CPU/GPU gerne mehr verbrauchen. Man kann ja dann selbst Hand anlegen und den CPU/GPU drosseln. Dann bekommt man weiterhin höhere Leistung.