Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Sonntagsfrage: Wohin geht die Reise beim Stromverbrauch?
- Ersteller SVΞN
- Erstellt am
- Zur News: Sonntagsfrage: Wohin geht die Reise beim Stromverbrauch?
Die Computer von vor 15 Jahren haben nicht so eine große Spanne bzgl Stromverbrauch wie heute.
Damals: ~130W im idle, ~300W beim zocken.
Heute: ~50W im Idle, 300++W beim zocken.
Das haben wir, neben Turing-GPU, auch den Mainboards zu verdanken (Idle-Zustand).
Wer viel surft und streams guckt (Netflix, Dazn, Twitch, YT usw) ist mit dem heutigen PC deutlich günstiger (bzgl Stromverbrauch) unterwegs.
Damals: ~130W im idle, ~300W beim zocken.
Heute: ~50W im Idle, 300++W beim zocken.
Das haben wir, neben Turing-GPU, auch den Mainboards zu verdanken (Idle-Zustand).
Wer viel surft und streams guckt (Netflix, Dazn, Twitch, YT usw) ist mit dem heutigen PC deutlich günstiger (bzgl Stromverbrauch) unterwegs.
HeinMueck
Lt. Commander
- Registriert
- Apr. 2012
- Beiträge
- 1.860
Naja, Matrox z. B. bedient ja auch ganz andere Segmente als Nvidia und AMD. Also ich finds okay, auch die bspw. Vegas damals als AMDs High-End zu bezeichnen. Dass sie da eigentlich nicht mitspielen konnten, ist wieder ein anderes Blatt. Aber das ist auch alles bloße definitorische Erbsenzählerei, am Ende zählt, wie lang der Balken ist.incurable schrieb:Ich würde das für eine wenig hilfreiche Definition halten, denn so hätte Matrox high-end Grafikkarten und VIA high-end CPUs.
Cronos83
Rear Admiral
- Registriert
- Feb. 2017
- Beiträge
- 5.429
Ich hab für meinen Teil beschlossen nur noch 65W CPUs zu verbauen und GPUs zu verwenden, die sich mit UV bei maximal 200W bewegen.
Früher musste es immer das schnellste sein, heute ist mir ein leises System einfach wichtiger.
Aus Big-Towern wurden bei mir Midi-Tower und mittlerweise ITX. So selten, wie ich Zeit habe die Kisten voll auszulasten und mal ausgiebig zu zocken... hab ich mittlerweile lieber kleine Systeme, die im Maximum 200 bis 300 Watt ziehen und mit ner schönen Custom-Wakü dabei an der Wahrnehmungsgrenze bleiben.
Solange es keine GPU gibt, die bei ~200W meine persönlichen Settings in 4k schafft, kaufe ich auch keinen 4k Monitor. Ganz einfach.
Früher musste es immer das schnellste sein, heute ist mir ein leises System einfach wichtiger.
Aus Big-Towern wurden bei mir Midi-Tower und mittlerweise ITX. So selten, wie ich Zeit habe die Kisten voll auszulasten und mal ausgiebig zu zocken... hab ich mittlerweile lieber kleine Systeme, die im Maximum 200 bis 300 Watt ziehen und mit ner schönen Custom-Wakü dabei an der Wahrnehmungsgrenze bleiben.
Solange es keine GPU gibt, die bei ~200W meine persönlichen Settings in 4k schafft, kaufe ich auch keinen 4k Monitor. Ganz einfach.
Zuletzt bearbeitet:
KitKat::new()
Rear Admiral Pro
- Registriert
- Okt. 2020
- Beiträge
- 5.914
Es gibt einen Mangel an tatsächlich erzeugter grüner Energieincurable schrieb:Es gibt keinen Mangel an Energie,
was man nicht vernachlässigen darf: der Vergleich mit 15 Jahre alten Computern hinkt. Die Anforderungen haben sich seit dem auch sehr stark erhöht.
Hatte man vor 15 Jahren eine 720p oder 1080p Auflösung, hat man heute oftmals WQHD oder 4K. Damals hatte man normalerweise 60Hz, heute oftmals 120Hz oder mehr.
Natürlich gibt es heutzutage auch neue Effekte und Spielereien, die einfach mehr Leistung benötigen.
Würde man moderne Systeme mit alten Anforderungen testen, wären sie weitaus sparsamer ins effizienter.
Vor 2 Jahren habe ich meine GTX970 gegen eine RX5700 XT getauscht. Die GTX970 lief bei den meisten Titeln in WQHD und mittlerer Grafik auf anschlag/100%. Die RX5700 XT schafft dann sogar maximale Grafik und weit mehr FPS, als der Monitor darstellen kann (60Hz vs 90-120FPS). Dank vsync oder frame limiter, wird die FPS also auf 60 gedrosselt. Und siehe da, die neue Generation an Grafikkarte schafft schönere Bilder bei gleicher Auflösung, geringerer Auslastung, geringeren Stromverbrauch und niedrigeren Temperaturen.
Die Umfrage am Ende des Beitrags sollte die Entwicklung der Monitore meiner Meinung nach berücksichtigen, da dies ausschlaggebend für die Stromaufnahme ist. FullHD zu 4K sind bereits 4 mal mehr Pixel/Rechenleistung. 60Hz auf 120Hz verdoppelt die nötige Leistung noch einmal. Ob man nun jedes Spiel in 4K mit 120Hz/144Hz spielen muss, muss jeder selber wissen. Nur braucht man sich dann nicht über erhöhte Leistungsaufnahme, lautstarken und Temperaturen wundern. Die Chiphersteller können ja auch nicht zaubern
Hatte man vor 15 Jahren eine 720p oder 1080p Auflösung, hat man heute oftmals WQHD oder 4K. Damals hatte man normalerweise 60Hz, heute oftmals 120Hz oder mehr.
Natürlich gibt es heutzutage auch neue Effekte und Spielereien, die einfach mehr Leistung benötigen.
Würde man moderne Systeme mit alten Anforderungen testen, wären sie weitaus sparsamer ins effizienter.
Vor 2 Jahren habe ich meine GTX970 gegen eine RX5700 XT getauscht. Die GTX970 lief bei den meisten Titeln in WQHD und mittlerer Grafik auf anschlag/100%. Die RX5700 XT schafft dann sogar maximale Grafik und weit mehr FPS, als der Monitor darstellen kann (60Hz vs 90-120FPS). Dank vsync oder frame limiter, wird die FPS also auf 60 gedrosselt. Und siehe da, die neue Generation an Grafikkarte schafft schönere Bilder bei gleicher Auflösung, geringerer Auslastung, geringeren Stromverbrauch und niedrigeren Temperaturen.
Die Umfrage am Ende des Beitrags sollte die Entwicklung der Monitore meiner Meinung nach berücksichtigen, da dies ausschlaggebend für die Stromaufnahme ist. FullHD zu 4K sind bereits 4 mal mehr Pixel/Rechenleistung. 60Hz auf 120Hz verdoppelt die nötige Leistung noch einmal. Ob man nun jedes Spiel in 4K mit 120Hz/144Hz spielen muss, muss jeder selber wissen. Nur braucht man sich dann nicht über erhöhte Leistungsaufnahme, lautstarken und Temperaturen wundern. Die Chiphersteller können ja auch nicht zaubern
Syrato
Rear Admiral
- Registriert
- Juni 2012
- Beiträge
- 5.932
Ein Rechtsstaat funktioniert nur, weil es Regelungen gibt! Es ergibt durchaus sinn, wenn man gewissen sachen strukturiert.incurable schrieb:Warum und warum?
Kauf die Karte halt nicht, wenn sie Dir zu viel Strom verbraucht.
122messi122
Cadet 4th Year
- Registriert
- Juli 2016
- Beiträge
- 115
Um den Leistungsbedarf für UHD 144Hz mit DXR Ultra decken zu können, braucht man schnelle Grafikkarten und da die Fertigung nicht so schnell besser wird, müssen die großen Leistungssprünge durch mehr Strom erkauft werden. Heutzutage sind bereits viele Tools im Umlauf, womit auch jeder Nichttechniknerd die Leistungsaufnahme seiner Karte auf xx Watt limitieren kann.
Jeder der sein System effizient betreiben will, kann das auf diesen Weg machen, alle anderen erfreuen sich der großen Mehrleistung gegenüber der Vorgängergeneration.
Jeder der sein System effizient betreiben will, kann das auf diesen Weg machen, alle anderen erfreuen sich der großen Mehrleistung gegenüber der Vorgängergeneration.
Ich würde nicht den höchstenmöglichen Stromverbrauch sehen, sondern die Effizienz.
Wieviel würde denn ein heutiger Rechner für damalige Spiele und deren Einstellungen jetzt verbrauchen?
Also Half Life 2 bei 60Hz und maximalen Einstellungen. Garantiert keine 400W… mittlerweile kann man das ja ganz entspannt auf einer APU spielen. Also alles in allem:
Die Effizenz ist über die Jahre drastisch gestiegen. Dass schlampige Betriebssysteme und Programme das natürlich wieder mehr als auffressen, sollte dabei eigentlich der größte Punkt sein…
Hier wird mit Topmodellen gerechnet. Ich kann mir auch einen EPYC in mein Schreibtischrechner packen und jammern, dass alleine der Prozessor 250W verbraucht…
Die TDP der durchschnittlichen Prozessoren für den normalen Spieler hat sich die letzten zehn bis fünfzehn Jahren doch kaum geändert: die liegt immernoch bei 65-100W. Also alles entspannt, die sind nur eben viel effizienter geworden…
Wieviel würde denn ein heutiger Rechner für damalige Spiele und deren Einstellungen jetzt verbrauchen?
Also Half Life 2 bei 60Hz und maximalen Einstellungen. Garantiert keine 400W… mittlerweile kann man das ja ganz entspannt auf einer APU spielen. Also alles in allem:
Die Effizenz ist über die Jahre drastisch gestiegen. Dass schlampige Betriebssysteme und Programme das natürlich wieder mehr als auffressen, sollte dabei eigentlich der größte Punkt sein…
Hier wird mit Topmodellen gerechnet. Ich kann mir auch einen EPYC in mein Schreibtischrechner packen und jammern, dass alleine der Prozessor 250W verbraucht…
Die TDP der durchschnittlichen Prozessoren für den normalen Spieler hat sich die letzten zehn bis fünfzehn Jahren doch kaum geändert: die liegt immernoch bei 65-100W. Also alles entspannt, die sind nur eben viel effizienter geworden…
- Registriert
- Aug. 2013
- Beiträge
- 3.495
Solange sich die Rechenleistung pro Watt erhöht kann der Stromverbrauch einer einzelnen Komponente gerne durch die Decke gehen.
Dass 96 statt 64 Kerne im Server mit einer erheblichen Erhöhung des Stromverbrauchs einhergehen ist glaube ich wenig verwunderlich, spätestens bei hoher Last. Gleiches bei Grafikkarten.
Wem das nicht passt kauft halt ein paar Klassen niedriger oder konfiguriert seine Hardware entsprechend auf geringere Taktraten oder TDPs….
Die paar Stunden im Monat die ich mal Zeit für mein Hobby habe mag ich jedenfalls mit der bestmöglichen Grafikpracht bzw. Leistung verbringen. Oder auch: Mir ist der Stromverbrauch da völlig egal. Abgesehen davon resultiert der hohe Stromverbrauch unter Last ja vorallem durch das relativ zeitgleiche Aufeinandertreffen mehrerer leistungshungriger Technologien… Steigende Auflösungen, Bildwiederholfrequenzen, Raytracing, VR…
Und im Leerlauf sind selbst potenteste PCs so effizient wie nie. Nur die Spitzenverbräuche steigen ja nennenswert… Klar, die damaligen PCs haben in der Spitze weniger verbraucht, dafür im Leerlauf wesentlich mehr und damit dauerhaft. Hätte man damals schon die heutigen Kühllösungen gehabt, wären wir schon damals bei den Verbräuchen gewesen.
Es gibt in meinen Augen größere Probleme wie der steigende Stromverbrauch von ein paar Gaming-PCs. Bei der E-Auto-Flut die uns in den kommenden Jahren bevorstehen wird spielen die paar Gaming-PCs alleine beim Stromverbrauch absolut keine Rolle - von einer 60kWh-Ladung könnte ich als berufstätiger Mensch vermutlich ben ganzes Jahr spielen…
Oder dass man in jeden Furz immer mehr Elektronik stecken muss und sich zum einen dann über eine Chipknappheit beklagt, zum anderen aber über eine zunehmend geringere Produktlebensdauer/Wartbarkeit.
Was die Ökos wohl sagen würde wenn man denen klarmacht, dass deren heißgeliebtes Internet und insbesondere der ganze Social Media- und Streamingkram mittlerweile zum größten Stromverbraucher der Welt mutiert ist.
Man merkt vielleicht: Man sollte es besser tunlichst sein lassen, anderen ihre Lebensweise oder ihre Hobbies über das Umweltargument madig zu reden. Der Schuss dürfte vermutlich bei allen erheblich nach hinten losgehen - auch/vorallem bei unseren Ökos.
Dass 96 statt 64 Kerne im Server mit einer erheblichen Erhöhung des Stromverbrauchs einhergehen ist glaube ich wenig verwunderlich, spätestens bei hoher Last. Gleiches bei Grafikkarten.
Wem das nicht passt kauft halt ein paar Klassen niedriger oder konfiguriert seine Hardware entsprechend auf geringere Taktraten oder TDPs….
Die paar Stunden im Monat die ich mal Zeit für mein Hobby habe mag ich jedenfalls mit der bestmöglichen Grafikpracht bzw. Leistung verbringen. Oder auch: Mir ist der Stromverbrauch da völlig egal. Abgesehen davon resultiert der hohe Stromverbrauch unter Last ja vorallem durch das relativ zeitgleiche Aufeinandertreffen mehrerer leistungshungriger Technologien… Steigende Auflösungen, Bildwiederholfrequenzen, Raytracing, VR…
Und im Leerlauf sind selbst potenteste PCs so effizient wie nie. Nur die Spitzenverbräuche steigen ja nennenswert… Klar, die damaligen PCs haben in der Spitze weniger verbraucht, dafür im Leerlauf wesentlich mehr und damit dauerhaft. Hätte man damals schon die heutigen Kühllösungen gehabt, wären wir schon damals bei den Verbräuchen gewesen.
Es gibt in meinen Augen größere Probleme wie der steigende Stromverbrauch von ein paar Gaming-PCs. Bei der E-Auto-Flut die uns in den kommenden Jahren bevorstehen wird spielen die paar Gaming-PCs alleine beim Stromverbrauch absolut keine Rolle - von einer 60kWh-Ladung könnte ich als berufstätiger Mensch vermutlich ben ganzes Jahr spielen…
Oder dass man in jeden Furz immer mehr Elektronik stecken muss und sich zum einen dann über eine Chipknappheit beklagt, zum anderen aber über eine zunehmend geringere Produktlebensdauer/Wartbarkeit.
Was die Ökos wohl sagen würde wenn man denen klarmacht, dass deren heißgeliebtes Internet und insbesondere der ganze Social Media- und Streamingkram mittlerweile zum größten Stromverbraucher der Welt mutiert ist.
Man merkt vielleicht: Man sollte es besser tunlichst sein lassen, anderen ihre Lebensweise oder ihre Hobbies über das Umweltargument madig zu reden. Der Schuss dürfte vermutlich bei allen erheblich nach hinten losgehen - auch/vorallem bei unseren Ökos.
Tornavida
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.439
Deshalb sind Treiberlayoutlösungen wie der von AMD/Adrenalin sehr zu begrüssen.Keinem bricht ein Zacken aus der Krone wenn er mal den Schalter beim Powerlimit ganz nach links schiebt und schaut ob sein Game immer noch zufriedenstellend läuft.Hier gibt es noch soviel Potential was brach liegt um Energiesparen dem User näher zu bringen.122messi122 schrieb:Heutzutage sind bereits viele Tools im Umlauf, womit auch jeder Nichttechniknerd die Leistungsaufnahme seiner Karte auf xx Watt limitieren kann.
Jeder der sein System effizient betreiben will, kann das auf diesen Weg machen, alle anderen erfreuen sich der großen Mehrleistung gegenüber der Vorgängergeneration.
P
poly123
Gast
Der Shrink ist langsam am Limit, Mehrleistung wird nur noch über Mehrverbrauch erreicht, neue Konzepte müssen her, Apple macht es bereits vor. Die CPU und GPU-Chiphersteller sollten dringend auch mal nachdenken… Zocken ist in aktueller Generation ein absurder Stromfresser.
Berserkervmax
Banned
- Registriert
- Apr. 2004
- Beiträge
- 3.118
Was verstehts du nicht an G9 32/9 ?Atma schrieb:DLSS ist kein simples Upscaling, nicht mal annähernd. Und wenn du trotz 3090 fast immer mit FPS Cap spielst, solltest du dich fragen ob die Investition wirklich sinnvoll war.
Wenn du trotz so einer Karte immer noch steinzeitliches 1080p nutzt vielleicht. Ich bin nahe 4K und komme vielleicht in 2 von 10 Fällen ans Ende der VRR-Range meines Monitors.
Also 5120x1440 mit 240Hz
Schon mal Signaturen gelesen ?
Heiß also alles über 240Hz macht keinen Sinn.
-Toad-
Ensign
- Registriert
- Nov. 2011
- Beiträge
- 182
die ganzen Videospielunternehmen oder Entwickler können ja auch mal ihren Beitrag leisten und ein gut optimiertes Spiel raus bringen, ohne das eine 3090/6900xt bedarf. Was zurzeit an schlecht optimierten Müll auf dem Markt geschmissen wird nimmt überhand.
Nur rein monetär betrachtet. Ökologisch ist es eigentlich Wahnsinn, für ein dutzend Stunden im Monat eine GraKa vorzuhalten, die reichlich Ressourcen und sehr viel Energie bei der Produktion verbraucht haben.Maxminator schrieb:Über den Stromverbrauch eines Gaming-PCs braucht man fast keine Gedanken machen wenn man 1-3 Stunden am Tag oder gar nur an 3-4 Tagen pro Woche zockt...
Besser wäre aber, das Ding lauft mit grünem Strom 24/7 in einem Rechenzentrum.
Die Spiele werden immer generischer (außer die Indie Perlen, die aber ich auf dem Toaster laufen), sind immer schlechter optimiert, sehen nicht besser aus als vor 5 Jahren und Verbraucher Chen dabei immer mehr Energie.
Wahrend ein botw auf der Switch 15w verbraucht. Jaja, da fehlt 4k, Rt und min 244 FPS, ich weiß
Bin nicht gemeint, aber nix ist langweiliger als der viel zu kleine e-penis von jmd anderenBerserkervmax schrieb:Schon mal Signaturen gelesen ?
Alienate.Me
Captain
- Registriert
- Aug. 2010
- Beiträge
- 3.176
War auch sehr überrascht als mein 650W NT nicht mehr ausreichte nach meinem upgrade auf 3080Ti. R7 5800X + 3080Ti und ein Seasonic Prime 650W macht schlapp, daher denke ich, dass die top modelle der kommenden generation auch 750W NTs in die knie zwingen.
Scythe1988
Commodore
- Registriert
- Nov. 2009
- Beiträge
- 4.343
Der Stromverbrauch wird Zuhause natürlich sinken. Cloud computing wird früher oder später Einzug in die Häuser halten (meines Erachtens völlig berechtigt), sodass man Zuhause nur noch stromsparende clients benötigt.
Natürlich wird dadurch der Stromverbrauch nur zentralisiert, aber das hat den Vorteil, das ganze zu kompensieren (Solar, Fernwärme Erzeugung,...) .
Ich weiß, dass gerade bei Computerbase viele User sind, die das als totalen Quatsch abstempeln, aber das hatten viele damals beim ersten Computer ja auch gedacht (oder wie war das mit einem Weltmarkt von vielleicht 5 Computern ).
Natürlich wird dadurch der Stromverbrauch nur zentralisiert, aber das hat den Vorteil, das ganze zu kompensieren (Solar, Fernwärme Erzeugung,...) .
Ich weiß, dass gerade bei Computerbase viele User sind, die das als totalen Quatsch abstempeln, aber das hatten viele damals beim ersten Computer ja auch gedacht (oder wie war das mit einem Weltmarkt von vielleicht 5 Computern ).
@Alienate.Me
echt? bei mir siehts kaum anders aus und habe grade ein 630er Netzteil drin. Spielen ist kein Problem
echt? bei mir siehts kaum anders aus und habe grade ein 630er Netzteil drin. Spielen ist kein Problem
ikarusx3
Cadet 4th Year
- Registriert
- März 2009
- Beiträge
- 101
Cronos83 schrieb:Ich hab für meinen Teil beschlossen nur noch 65W CPUs zu verbauen und GPUs zu verwenden, die sich mit UV bei maximal 200W bewegen.
Genau so. 3700x auf 65w begrenzt und 3080 undervoltet. In Spielen zwischen 250 und 300W. Mit einem 500W Netzteil.
Ähnliche Themen
Synology Q&A 2021
Was macht Synology anders/besser als Mitbewerber? Wohin geht die Reise ?
- Antworten
- 1
- Aufrufe
- 1.634
- Antworten
- 38
- Aufrufe
- 3.843
- Gesperrt
- Antworten
- 140
- Aufrufe
- 24.228
- Antworten
- 112
- Aufrufe
- 12.011