News Sonntagsfrage: Wohin geht die Reise beim Stromverbrauch?

Hab erst vor kurzem auf ein Straight Power 11 750W aufgerüstet, wen die Entwicklung aber so weiter geht, wird auch dieses für eine High End GPU zu schwach sein. Für eine RX 7800 XT wird es aber mit Sicherheit noch reichen.
 
Die Computer von vor 15 Jahren haben nicht so eine große Spanne bzgl Stromverbrauch wie heute.
Damals: ~130W im idle, ~300W beim zocken.
Heute: ~50W im Idle, 300++W beim zocken.

Das haben wir, neben Turing-GPU, auch den Mainboards zu verdanken (Idle-Zustand).
Wer viel surft und streams guckt (Netflix, Dazn, Twitch, YT usw) ist mit dem heutigen PC deutlich günstiger (bzgl Stromverbrauch) unterwegs.
 
  • Gefällt mir
Reaktionen: Tsu
incurable schrieb:
Ich würde das für eine wenig hilfreiche Definition halten, denn so hätte Matrox high-end Grafikkarten und VIA high-end CPUs.
Naja, Matrox z. B. bedient ja auch ganz andere Segmente als Nvidia und AMD. Also ich finds okay, auch die bspw. Vegas damals als AMDs High-End zu bezeichnen. Dass sie da eigentlich nicht mitspielen konnten, ist wieder ein anderes Blatt. Aber das ist auch alles bloße definitorische Erbsenzählerei, am Ende zählt, wie lang der Balken ist.
 
Ich hab für meinen Teil beschlossen nur noch 65W CPUs zu verbauen und GPUs zu verwenden, die sich mit UV bei maximal 200W bewegen.

Früher musste es immer das schnellste sein, heute ist mir ein leises System einfach wichtiger.
Aus Big-Towern wurden bei mir Midi-Tower und mittlerweise ITX. So selten, wie ich Zeit habe die Kisten voll auszulasten und mal ausgiebig zu zocken... hab ich mittlerweile lieber kleine Systeme, die im Maximum 200 bis 300 Watt ziehen und mit ner schönen Custom-Wakü dabei an der Wahrnehmungsgrenze bleiben.

Solange es keine GPU gibt, die bei ~200W meine persönlichen Settings in 4k schafft, kaufe ich auch keinen 4k Monitor. Ganz einfach.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tsu, GokuSS4, ikarusx3 und 3 andere
incurable schrieb:
Es gibt keinen Mangel an Energie,
Es gibt einen Mangel an tatsächlich erzeugter grüner Energie
 
was man nicht vernachlässigen darf: der Vergleich mit 15 Jahre alten Computern hinkt. Die Anforderungen haben sich seit dem auch sehr stark erhöht.
Hatte man vor 15 Jahren eine 720p oder 1080p Auflösung, hat man heute oftmals WQHD oder 4K. Damals hatte man normalerweise 60Hz, heute oftmals 120Hz oder mehr.

Natürlich gibt es heutzutage auch neue Effekte und Spielereien, die einfach mehr Leistung benötigen.

Würde man moderne Systeme mit alten Anforderungen testen, wären sie weitaus sparsamer ins effizienter.

Vor 2 Jahren habe ich meine GTX970 gegen eine RX5700 XT getauscht. Die GTX970 lief bei den meisten Titeln in WQHD und mittlerer Grafik auf anschlag/100%. Die RX5700 XT schafft dann sogar maximale Grafik und weit mehr FPS, als der Monitor darstellen kann (60Hz vs 90-120FPS). Dank vsync oder frame limiter, wird die FPS also auf 60 gedrosselt. Und siehe da, die neue Generation an Grafikkarte schafft schönere Bilder bei gleicher Auflösung, geringerer Auslastung, geringeren Stromverbrauch und niedrigeren Temperaturen.

Die Umfrage am Ende des Beitrags sollte die Entwicklung der Monitore meiner Meinung nach berücksichtigen, da dies ausschlaggebend für die Stromaufnahme ist. FullHD zu 4K sind bereits 4 mal mehr Pixel/Rechenleistung. 60Hz auf 120Hz verdoppelt die nötige Leistung noch einmal. Ob man nun jedes Spiel in 4K mit 120Hz/144Hz spielen muss, muss jeder selber wissen. Nur braucht man sich dann nicht über erhöhte Leistungsaufnahme, lautstarken und Temperaturen wundern. Die Chiphersteller können ja auch nicht zaubern :)
 
  • Gefällt mir
Reaktionen: Hawk1980
incurable schrieb:
Warum und warum?

Kauf die Karte halt nicht, wenn sie Dir zu viel Strom verbraucht.
Ein Rechtsstaat funktioniert nur, weil es Regelungen gibt! Es ergibt durchaus sinn, wenn man gewissen sachen strukturiert.
 
Um den Leistungsbedarf für UHD 144Hz mit DXR Ultra decken zu können, braucht man schnelle Grafikkarten und da die Fertigung nicht so schnell besser wird, müssen die großen Leistungssprünge durch mehr Strom erkauft werden. Heutzutage sind bereits viele Tools im Umlauf, womit auch jeder Nichttechniknerd die Leistungsaufnahme seiner Karte auf xx Watt limitieren kann.
Jeder der sein System effizient betreiben will, kann das auf diesen Weg machen, alle anderen erfreuen sich der großen Mehrleistung gegenüber der Vorgängergeneration.
 
Ich würde nicht den höchstenmöglichen Stromverbrauch sehen, sondern die Effizienz.
Wieviel würde denn ein heutiger Rechner für damalige Spiele und deren Einstellungen jetzt verbrauchen?
Also Half Life 2 bei 60Hz und maximalen Einstellungen. Garantiert keine 400W… mittlerweile kann man das ja ganz entspannt auf einer APU spielen. Also alles in allem:
Die Effizenz ist über die Jahre drastisch gestiegen. Dass schlampige Betriebssysteme und Programme das natürlich wieder mehr als auffressen, sollte dabei eigentlich der größte Punkt sein…
Hier wird mit Topmodellen gerechnet. Ich kann mir auch einen EPYC in mein Schreibtischrechner packen und jammern, dass alleine der Prozessor 250W verbraucht…
Die TDP der durchschnittlichen Prozessoren für den normalen Spieler hat sich die letzten zehn bis fünfzehn Jahren doch kaum geändert: die liegt immernoch bei 65-100W. Also alles entspannt, die sind nur eben viel effizienter geworden…
 
  • Gefällt mir
Reaktionen: Tsu, incurable und GokuSS4
Solange sich die Rechenleistung pro Watt erhöht kann der Stromverbrauch einer einzelnen Komponente gerne durch die Decke gehen.

Dass 96 statt 64 Kerne im Server mit einer erheblichen Erhöhung des Stromverbrauchs einhergehen ist glaube ich wenig verwunderlich, spätestens bei hoher Last. Gleiches bei Grafikkarten.

Wem das nicht passt kauft halt ein paar Klassen niedriger oder konfiguriert seine Hardware entsprechend auf geringere Taktraten oder TDPs….

Die paar Stunden im Monat die ich mal Zeit für mein Hobby habe mag ich jedenfalls mit der bestmöglichen Grafikpracht bzw. Leistung verbringen. Oder auch: Mir ist der Stromverbrauch da völlig egal. Abgesehen davon resultiert der hohe Stromverbrauch unter Last ja vorallem durch das relativ zeitgleiche Aufeinandertreffen mehrerer leistungshungriger Technologien… Steigende Auflösungen, Bildwiederholfrequenzen, Raytracing, VR…

Und im Leerlauf sind selbst potenteste PCs so effizient wie nie. Nur die Spitzenverbräuche steigen ja nennenswert… Klar, die damaligen PCs haben in der Spitze weniger verbraucht, dafür im Leerlauf wesentlich mehr und damit dauerhaft. Hätte man damals schon die heutigen Kühllösungen gehabt, wären wir schon damals bei den Verbräuchen gewesen.

Es gibt in meinen Augen größere Probleme wie der steigende Stromverbrauch von ein paar Gaming-PCs. Bei der E-Auto-Flut die uns in den kommenden Jahren bevorstehen wird spielen die paar Gaming-PCs alleine beim Stromverbrauch absolut keine Rolle - von einer 60kWh-Ladung könnte ich als berufstätiger Mensch vermutlich ben ganzes Jahr spielen…

Oder dass man in jeden Furz immer mehr Elektronik stecken muss und sich zum einen dann über eine Chipknappheit beklagt, zum anderen aber über eine zunehmend geringere Produktlebensdauer/Wartbarkeit.

Was die Ökos wohl sagen würde wenn man denen klarmacht, dass deren heißgeliebtes Internet und insbesondere der ganze Social Media- und Streamingkram mittlerweile zum größten Stromverbraucher der Welt mutiert ist.

Man merkt vielleicht: Man sollte es besser tunlichst sein lassen, anderen ihre Lebensweise oder ihre Hobbies über das Umweltargument madig zu reden. Der Schuss dürfte vermutlich bei allen erheblich nach hinten losgehen - auch/vorallem bei unseren Ökos.
 
  • Gefällt mir
Reaktionen: DynamaxX, Hawk1980 und Karl_Heinz
122messi122 schrieb:
Heutzutage sind bereits viele Tools im Umlauf, womit auch jeder Nichttechniknerd die Leistungsaufnahme seiner Karte auf xx Watt limitieren kann.
Jeder der sein System effizient betreiben will, kann das auf diesen Weg machen, alle anderen erfreuen sich der großen Mehrleistung gegenüber der Vorgängergeneration.
Deshalb sind Treiberlayoutlösungen wie der von AMD/Adrenalin sehr zu begrüssen.Keinem bricht ein Zacken aus der Krone wenn er mal den Schalter beim Powerlimit ganz nach links schiebt und schaut ob sein Game immer noch zufriedenstellend läuft.Hier gibt es noch soviel Potential was brach liegt um Energiesparen dem User näher zu bringen.
 
Der Shrink ist langsam am Limit, Mehrleistung wird nur noch über Mehrverbrauch erreicht, neue Konzepte müssen her, Apple macht es bereits vor. Die CPU und GPU-Chiphersteller sollten dringend auch mal nachdenken… Zocken ist in aktueller Generation ein absurder Stromfresser.
 
Atma schrieb:
DLSS ist kein simples Upscaling, nicht mal annähernd. Und wenn du trotz 3090 fast immer mit FPS Cap spielst, solltest du dich fragen ob die Investition wirklich sinnvoll war.


Wenn du trotz so einer Karte immer noch steinzeitliches 1080p nutzt vielleicht. Ich bin nahe 4K und komme vielleicht in 2 von 10 Fällen ans Ende der VRR-Range meines Monitors.
Was verstehts du nicht an G9 32/9 ?

Also 5120x1440 mit 240Hz

Schon mal Signaturen gelesen ?

Heiß also alles über 240Hz macht keinen Sinn.
 
die ganzen Videospielunternehmen oder Entwickler können ja auch mal ihren Beitrag leisten und ein gut optimiertes Spiel raus bringen, ohne das eine 3090/6900xt bedarf. Was zurzeit an schlecht optimierten Müll auf dem Markt geschmissen wird nimmt überhand.
 
  • Gefällt mir
Reaktionen: DynamaxX, Dönerkatze, icetom und 11 andere
Maxminator schrieb:
Über den Stromverbrauch eines Gaming-PCs braucht man fast keine Gedanken machen wenn man 1-3 Stunden am Tag oder gar nur an 3-4 Tagen pro Woche zockt...
Nur rein monetär betrachtet. Ökologisch ist es eigentlich Wahnsinn, für ein dutzend Stunden im Monat eine GraKa vorzuhalten, die reichlich Ressourcen und sehr viel Energie bei der Produktion verbraucht haben.
Besser wäre aber, das Ding lauft mit grünem Strom 24/7 in einem Rechenzentrum.

Die Spiele werden immer generischer (außer die Indie Perlen, die aber ich auf dem Toaster laufen), sind immer schlechter optimiert, sehen nicht besser aus als vor 5 Jahren und Verbraucher Chen dabei immer mehr Energie.

Wahrend ein botw auf der Switch 15w verbraucht. Jaja, da fehlt 4k, Rt und min 244 FPS, ich weiß ;)

Berserkervmax schrieb:
Schon mal Signaturen gelesen ?
Bin nicht gemeint, aber nix ist langweiliger als der viel zu kleine e-penis von jmd anderen ;)
 
  • Gefällt mir
Reaktionen: Rockstar85, Innocience, Tsu und 4 andere
War auch sehr überrascht als mein 650W NT nicht mehr ausreichte nach meinem upgrade auf 3080Ti. R7 5800X + 3080Ti und ein Seasonic Prime 650W macht schlapp, daher denke ich, dass die top modelle der kommenden generation auch 750W NTs in die knie zwingen.
 
Der Stromverbrauch für Komponentensysteme muss weiter steigen, damit sie im Vergleich zu hochintegrierten Systemen, die deutlich effizienter sind, den Abstand der Leistung bewahren können.
 
Der Stromverbrauch wird Zuhause natürlich sinken. Cloud computing wird früher oder später Einzug in die Häuser halten (meines Erachtens völlig berechtigt), sodass man Zuhause nur noch stromsparende clients benötigt.
Natürlich wird dadurch der Stromverbrauch nur zentralisiert, aber das hat den Vorteil, das ganze zu kompensieren (Solar, Fernwärme Erzeugung,...) .
Ich weiß, dass gerade bei Computerbase viele User sind, die das als totalen Quatsch abstempeln, aber das hatten viele damals beim ersten Computer ja auch gedacht (oder wie war das mit einem Weltmarkt von vielleicht 5 Computern ;) ).
 
  • Gefällt mir
Reaktionen: Tsu
Cronos83 schrieb:
Ich hab für meinen Teil beschlossen nur noch 65W CPUs zu verbauen und GPUs zu verwenden, die sich mit UV bei maximal 200W bewegen.

Genau so. 3700x auf 65w begrenzt und 3080 undervoltet. In Spielen zwischen 250 und 300W. Mit einem 500W Netzteil.
 
  • Gefällt mir
Reaktionen: DynamaxX und Cronos83
Zurück
Oben