News Effizienz & Verbrauch: Wollt ihr mehr über effiziente o. sparsame Hardware lesen?

Auf jeden Fall weiter so testen Effizienz ist wichtig bei mir schon länger auf Platz 1 erst dann kommt Performance. Mein Desktoprechner hat ohne Monitor etc. eine Leistung von knapp 70W im Idle auf dem Manjaro KDE Desktop. Habe jetzt hier einen Intel NUC (Alderlake i5) aufgebaut der hat im Idle eine Leistung von ca. 7W also nur noch ein Zehntel. Die Systemleistung ist super für so einen kleinen SOC bisher waren die mir immer zu langsam. Werde jetzt noch zum Vergleich mit Windows 10 testen.
 
  • Gefällt mir
Reaktionen: Hornblower und Tenferenzu
Was die Leistung angeht, haben wir längst einen Punkt erreicht, an dem für mich selbst Einsteigerhardware schlicht gut genug ist. Erst neulich hatte ich das Steam Deck probeweise zu einem stationären Rechner umfunktioniert. Ich hab nichts vermisst.

Von daher spielt bei mir niedriger Energieverbrauch tatsächlich auch eine größere Rolle als die Leistung. Klein, sparsam und unhörbar muss mein Rechner sein. Was die aktuelle Kiste soweit auch erfüllt. :)

An dieser Stelle auch eine lobende Erwähnung des 5600X, der mit mickrigen 65W TDP für jede erdenkliche Anwendung im Alltag mehr als ausreicht.
 
  • Gefällt mir
Reaktionen: Tsu, phoenixtr, Tzk und 2 andere
Effizenz ist immer gut, aber was immer außen vor gelassen wird sind andere Geräte als Graka oder CPU.
Bringt mir nichts wenn Ich 20 Watt bei der CPU spare aber meine Externe Hardware dafür 300W extra zieht^^
 
Ich beführworte auch das die Tests beleuchten, wie die Hardware performt wenn sie nicht die Steckdose leer saugt.
 
  • Gefällt mir
Reaktionen: Tzk
iNFECTED_pHILZ schrieb:
Also demnach ist ein kleiner Sprung in Effizienz es nicht wert zu wechseln, aber ein kleiner Sprung in der Performance schon?
klein..
Ich würde nicht bei weniger 50% Performance Boost wechseln.
Ich bin aber auch vom i7 920 auf 3570K gewechselt, nur weil der Idle von >100W auf ~50W gefallen ist.

Würdest du von einer 350W 3080 12G auf eine 200W 7700(XT) wechseln (Annahme selbe Leistung)? 3080 verkauft und für nur 400€ Aufpreis die 7700 nehmen? Ich nicht
 
ShiftC schrieb:
Auch eine 5 kW Maschine kann mit hoher Effizienz strahlen. Sparsamkeit alleine als Auswahl ist aber auch nicht zielführend, daher würde ich mir immer eine Betrachtung von beiden Aspekten wünschen.
Sparsamkeit ist von der Effizienz auch abgedeckt, wenn man den Betriebspunkt entsprechend wählt. Aber klar, ein ausschließlich sparsames System kann auch leistungsarm sein, das steht außer Frage. Wünschenswert wäre gute Effizienz über einen weiten Arbeitsbereich.
Nighteye schrieb:
Und zu seiner CPU sagt Google: "The Core i9-11900K in our test peaks up to 296 W, showing temperatures of 104ºC, before coming back down to ~230 W and dropping to 4.5 GHz."
Intel liegt beim Spielen meist grob bei 100W Verbrauch auf der Cpu, sofern ein Cpu Limit vorliegt. 230W wird der 11900K eher nicht erreichen. Die 3090 dagegen saugt in 4K mit 120fps Lock wohl alles was geht.
 
Natürlich wäre 4K, Full Details, Raytracing, 144FPS ein Schmankerl. Aber die negativen Seiten treten immer mehr zum Vorschein. Schwitzen im Sommer weil man in die Nacht reinzockt war immer schon ein Zwangskompromiss. Am besten noch mit Ventilator im Rücken. Mit dem Strom könnte ich vielleicht noch Leben weil meine Nachtspeicheröfen mit Nachtstrom sowieso Kostenmäsig alles überbieten. Aber Stromkosten werden in der Regel nicht wehniger wenn man mehr verbraucht. Und ich hab mir selbst mein Graka Preis Limit bei 599 Euro gesetzt. Also eigentlich 500+ eingenbeschiss. Und das hab ich für die 6750XT mit 639 Euro schon selbst verraten.
Solange es mit 599 Euro eine Graka gibt, mit der sich aktuelle Spiele für mich Gut ( 1440p, Details High, 60Fps) Spiele kann und unter schlechten Bedingungen noch erträglich ist (1080p, Details High, 35 Fps),
werde ich noch Hardware für Spiele kaufen. Sollte für "Gut Spielbar" irgendwann 1000 Euro Grakas mit 500 Watt fällig sein müssen, war es das. Dann wird nur noch bei Ausfällen im Preislimit nachgekauft. Egal wie gut Spiele drauf laufen.
 
Zuletzt bearbeitet:
Das Thema ist auf jeden Fall sehr wichtig. Gerne mehr Berichterstattung dazu!

Bei der Frage nach Sparsamkeit vs. Effizienz denke ich, dass man das vom Betriebszustand im Kontext typischer Nutzungsszenarien abhängig machen sollte. Z.B. sollte bei Smart-Home, Netzwerktechnik und anderen Dingen, die üblicherweise 24/7 im Dauerbetrieb laufen, der Fokus ganz klar auf Sparsamkeit liegen. Ebenso sollte das allgemein bei Messungen im Standby und/oder IDLE der Fall sein. Wenn ein System aber aktiv gefordert wird und man (vorübergehend) hohe Leistung braucht (z.B. PC während Gaming oder TV bei HDR) kann sich der Fokus gerne in Richtung Effizienz verschieben. Am besten wäre wohl ein Mix aus beiden. Also Hardware, die im IDLE konsequent auf Sparsamkeit optimiert ist, indem z.B. CPU-Kerne abgeschaltet werden, wo aber bei höherer Belastung auch gerne vergleichsweise viel Strom effizient in maximale Leistung umgesetzt wird.
 
Mir wäre es wichtig das, wenn Tools oder Einstellungen bei der Hardware gemacht werden im Test, für Effizienz. Das es leicht nachgemacht werden kann. Es muss nicht das maximalste rausgeholt werden.
 
Ich denke der Fokus liegt hier teilweise falsch.
Ob ne Grafikkarte unter Last 150 oder 200W zieht ist aufs Jahr gesehen bei den meisten Usern kaum relevant. Man sein, dass es eine Hand voll Dauerzocker gibt, aber die meisten dürften kaum auf mehr als ein paar Stunden die Woche kommen.
Viel interessanter ist imho der Verbrauch im Idle und der Verbrauch von 24/7 Equipment, sei es das NAS, die Fritzbox, Switches, DLAN/WLAN Geräte, Home Automation usw.

Ich hätte da 2 Anregungen:
1. Messt konsequent bei jeder Hardware den Verbrauch.
2. Testet hin und wieder auch mal Alltagsequipment. Ich sehe da einfach ne "Versorgungslücke". Nirgendwo findet man brauchbare Reviews von so unpopulären Dingen wie z.B. so 20 Euro Switches oder Alltagszubehör wie USB Hubs, externen NICs oder z.B. Dockingstations.
 
  • Gefällt mir
Reaktionen: Kenshin_01, incurable, Haxor und eine weitere Person
OdinHades schrieb:
Was die Leistung angeht, haben wir längst einen Punkt erreicht, an dem für mich selbst Einsteigerhardware schlicht gut genug ist.

Solange man mit ner 300€ GPU nicht auf 4K mit über 120FPS zocken kann, haben wir diesen Punkt noch nicht erreicht.
 
Schön wäre auch einen durchschnittlichen Verbrauch in Euro zu sehen.

FPS/Watt und sowas ist doch sehr abstrakt, aber wenn man sehen kann, was einen 2 Stunden zocken am Abend wirklich am Ende kosten, ist das schon etwas ganz anderes und viel eingängiger.
 
Oh ja, bitte!
Ich habe zwar gerne meine Leistung, diese aber mit so niedrigem Verbrauch wie nur irgend möglich.
Mein r5 3600 läuft bei 4Ghz auf maximalem UV, der Chipsatz hat eine Portion UV abbekommen und ist von 12W auf 7W runter gegangen, Grafikkarte wurde auf 6W Idle gedrückt.
Dazu alles an unnötigen Festplatten, Blinkezeug abgeklemmt.
Ich habe nichts, dass eine 4090 350-400W schluckt wenn ich dafür ein sehr gutes Spielerlebnis bekomme.
Dies macht bei 1-3h Nutzung am Tag nicht viel aus.
Wenn jedoch die Karte mit 40W Idle Leistungsaufnahme daherkommt habe ich ein Problem, ist mir schlicht zuviel für simples nichts tun.

Es ist für mich immernoch ein Graus wie sich AMD GPU's beim Thema Dual-Monitor verhält, der Chipsatz fröhlich mit gut 0,2V zuviel läuft und immernoch viele mit unlimitierten Frames auf einem 60Hz Monitor zocken.

Leider findet man abseits von CPU und GPU UV wenig zu der Thematik, wobei ich mich sehr freue dass dies nun angekommen ist. Früher hieß es ja immer nur: "Einmal bitte 1,4V damit der 2600k die 4,5GHz packt"
Ein paar FPS/W Diagramme und Sweetspots / UV Tests wären mir sehr willkommen.

Das die neuen Intels sehr Effizient sein können, hat z.B der Bauer letztens sehr gut gezeigt. Ein auf 70W limitierter 13900k ging richtig ab.
 
Zuletzt bearbeitet:
Ich lese relativ häufig dinge, die ich nicht nachvollziehen kann.
Zb das sich jemand eine 2te RX 6900XT kaufen will, um sie auf Seite zu legen, einfach weil sie jetzt so günstig geworden sind.

Ich frage mich dann immer, wird die Hardware dann überhaupt nachhaltig ausgenutzt ?
Damit die ganzen Rohstoffe und die Energie die für die Produktion einer Karte sich auch irgendwie bezahlt machen, sollte so eine Karte nicht eine gewisse Anzahl an Stunden laufen ehe sie verschrottet wird ?
Gerade bei so Stromhungrigen Karten die in 2 Gens (Also 3 Jahren) total Ineffizient sind weil dann irgend eine 120W Mittelklasse Karte genau so viel Rechenleistung hat.
Siehe RX6600XT (155 W) welche schon sparsamer und schneller ist ist als eine RX 5700XT (225 W) und doppelt so schnell wie eine Vega 64 (295 W) und das zum Bruchteil des Kaufpreises.

Ich habe meine Karte im Sommer 2016 neu für 199€ gekauft.
Also meine Karte wird nächsten Sommer 7 Jahre alt.
Das wären 28€ pro Jahr die sie mich gekostet hätte.

Ich habe allein auf der Karte laut Wattman mehr als 10.000 Spielstunden.
Meine Karte verbrauchte auch relativ wenig Strom in all den Jahren.
Laut Wattman 52W (Ohne Speicherinterface wohl).
52W ingame Wot.jpg
Ich kenne niemanden der eine Gebrauchte Karte für 300€ Aufwärts gekauft hat und noch Jahre genutzt hat.
Die frage dabei ist auch immer, wie lange halten die Karten noch ?
Erst letzten Monat hier auf Computerbase gelesen dass eine Karte nach nicht mal 3 Jahren (27 Monate) kaputt ging. (Vram bedingt)
Nvidia gibt an dass ihre Aktuellen GTX Karten nur darauf ausgelegt sind gerade einmal 5 Jahre zu halten.
Viele Karten Sterben auch schon früher.

Die HD4770 im Rechner meiner Mutter ging leider nach 10 Jahren Kaputt.
Meine RX470 bekommt jetzt auf das Jahr 7 zugehend auch langsam Altersbedingte Probleme.

Ich kenne auch viele die eine relativ Potente Grafikkarte zuhause haben, und nicht weiter verkauft haben als sie eine neue und bessere erhalten haben.
Viele sind sich halt zu gemütlich oder wollen eine Ersatzkarte haben, bis die Karten irgendwann Stein Alt sind und quasi nie wirklich ausgenutzt wurden.

Ich habe gelesen, mehr als eine Million Tonnen Elektroschrott werden durchschnittlich in einem Jahr nicht recycelt.
Auch die Herstellung einer Karte benötigt ja nicht nur Rohstoffe, sondern viele Arbeitsvorgänge die wiederum Energie und Chemikalien benötigen.
Es würde aus Umwelttechnischer Sicht, am meisten Sinn machen, wenn wir alles was wir erwerben, auch wirklich benutzen, und das am besten nicht nur 2-3 Jahre.
Auf das wir weniger Elektroschrott herstellen, weniger Böden verseuchen, Ozeane belasten, Co2 erzeugen, Fossile Energieträger benötigen.
Die Regierung in England bittet ihre Bevölkerung, nur noch Nachts Wäsche zu Waschen und belohnt Bürger die das tun mit Extra Geld.
(Der Tipp ist übrigens auch für Deutschland gut weil zwischen 18 und 22 Uhr Reserven verbraucht werden und diese Stunden daher die schlechteste Zeit ist, um Wäsche zu Waschen oder die Spülmaschine an zu machen)
In Deutschland gilt ja die zweite Stufe des Notfallplans Gas.
Alles ist wichtig. Und jede Entscheidung von jedem einzelnen von uns ist Relevant.

Es ist aber auch logisch das viele Menschen bei diesem Thema mit Reaktanz reagieren, weil sie denken man möchte Ihnen ihre Freiheit einschränken.

Und dieses Karten nach 2 Jahren gebraucht verkaufen ist auch meist nicht Sinnvoll.
Eine Vega 64 hat Januar 2018, 900€ gekostet.
Sommer 2022 nach 3,5 Jahren will die Person die Vega 64 verkaufen, und sich wieder eine High End Karte kaufen. Für die Vega gabs auf Ebay im Schnitt 350€
Selbst wenn die Person für die Vega 64 beim verkauf noch 350€ bekommen würde, welcher Depp kauft die für 350€ wenn eine RX6600 günstiger, und schneller und 200% Effizienter ist ?
Also im Prinzip kann der Käufer einer High End Karte, nur ein schlechtes Geschäft machen, es sei denn er erwirbt eine 3 Jahre alte high End Karte für unter 250€, was wohl die wenigsten tun.

Kurzer Blick in den Hardwareluxx Marktplatz. Da will jemand für eine gebrauchte RTX 2080 noch Satte 400€.
Keiner kauft dem Verkäufer bislang die Karte ab. Wieso auch, wenn es für das Geld schon eine Neue RX6700 mit Garantie gibt, die besser, stärker und sparsamer ist ?
Sehe im Marktplatz das die günstigsten 2080er die letzten Wochen für 350€ raus gingen.
Ob die Käufer sinnvoll gehandelt haben ?
Selbst bei 350€ würde ich es mir doppelt überlegen ob ich nicht lieber eine neue RX6600 mit paar Jahren Garantie kaufe, als eine 4 Jahre Alte Karte die evtl in 1-2 Jahren Stirbt (Weil Nvidia eh nur eine Lebensdauer von 5 Jahren kalkuliert), und die RX6600 verbraucht auch nur die hälfte an Strom und ist dadurch angenehm leiser. Hat zwar etwas weniger Leistung, aber die Vorteile würden überwiegen.
In DX12 Spielen kommt eine 6600 (Ohne XT) sogar gefährlich nahe an eine RTX 2080ti ran. 103 fps vs 133 fps in Forza zb.

Also hätte man entweder für 280€ eine neue RX6600
  • Eine neue Karte (Lebensdauer ist keine sorge)
  • Garantie
  • Leiser
  • Kühler
  • Kleinere Stromrechnung (Tut auch was gutes für die Energiekrise durch den Ukraine Krieg)
- Geringfügig weniger Leistung

Für 350€ Gebraucht eine RTX 2080 bekommt man.
+ Geringfügig mehr Leistung
  • Am ende der Lebensdauer (Kann jederzeit Kaputt gehen, evtl auch schon durch den Transport weil die Lötstellen durch die Jahre schon angeschlagen sind)
  • Keine Garantie
  • Unbekanntes Benutzerprofil was OC und Belastung angeht
  • Lauter
  • Deutlich mehr Verbrauch
  • Gibt 70€ mehr aus
Ist so ein Kauf wirklich Rational für evtl 12 fps mehr ?
115fps vs 103fps ? (Da eine ti ja nur 133fps macht schätze ich macht die non ti 115fps)
RX6600 bench forza 4.jpg

Ich war als Junger Mensch auch so. Immer das neuste haben wollen, spätestens nach 2 Jahren.
Aber eines tages hat es bei mir auch Klick gemacht:
Es braucht nicht immer das neuste, und man kann auch mal Details runterschrauben.
Heute zocke auf 2560x1440 bei 144fps World of Tanks.
Und das wie gesagt mit meiner fast 7 Jahre alten Grafikkarte. (Details nur auf Medium aber reicht mir)
 
  • Gefällt mir
Reaktionen: Tsu und Aliosy
FR3DI schrieb:
Dazu koennte unser Linux Experte @SVΞN sicher mal einen Test zu Veroeffentlichen. Ich glaube zwar erstmal nicht an Wunder, aber lasse mich diesbezueglich gerne eines besseren belehren!

Gruss Fred.
Wunder erwarte ich auch nicht, aber interessant wäre es dennoch.
incurable schrieb:
Wieso? Wenn Dir 60 fps reichen machst Du dort eine Bremse rein und die GPU taktet sich automatisch erheblich niedriger, mitsamt niedrigerer Leistungsaufnahme.
Wenn denn die Frametimes entsprechend stimmen. Leider weiß ich hier nicht wie es sich bei diesen verhält. Bei 30fps Limits gibt's ja immer wieder Games wo die Frametimes nicht stimmen.

Aber generell sind 60fps als Target schon gar nicht schlecht für die meisten eher langsameren Games. Hin und wieder gibt es dann Ausnahmen wie Ori wo ich 120fps bevorzuge, aber das Target zu erreichen....
Ich habe wenig Hoffnung das man auch sowas wie Witcher in 120fps zocken kann wenn meine RX 480 bei Ori and the Will of the Wisps schon struggelt die 120 zu erreichen geschweige denn locked zu halten. ^^

Hier wäre es aber bestimmt interessant zu untersuchen, wie sich die einzelnen GPUs bei 60fps, 120fps etc. verhalten, von der Effizienz, Sparsamkeit sowie Preis/Leistungsverhältnis.

incurable schrieb:
Niemand kann der 4090 Stand heute vorwerfen, nicht effizient zu sein.
Effizient mag diese Karte vielleicht sein. Aber Stromsparend und günstig nicht und die Stromkosten will ich nicht bezahlen müssen, nur für eine GPU. (Geschweige denn Anschaffungskosten von mehr Geld als mein PC gekostet hat :O)
 
  • Gefällt mir
Reaktionen: FR3DI
ShadowDragon schrieb:
Effizient mag diese Karte vielleicht sein. Aber Stromsparend und günstig nicht und die Stromkosten will ich nicht bezahlen müssen, nur für eine GPU. (Geschweige denn Anschaffungskosten von mehr Geld als mein PC gekostet hat :O)
Die frisst halt tatsächlich knapp 30% weniger Watt bei gleicher Auflösung und FPS-Begrenzung wie meine alte 2080. Allerdings bei dem Anschaffungspreis muss ich jetzt 10 Jahre spielen, um das wieder raus zu kriegen. :)
 
  • Gefällt mir
Reaktionen: incurable und ShadowDragon
Im Prinzip ist Effizienz gut ABER muss es das immer sein? Nein. Wenn eine 4090 und co. 500-600 Watt brauchen dann ist es halt so. Man bekommt ja auch Leistung dafür. Wenn man das mit 200 Watt bekommen könnte gerne aber das ist realitätsfremd.

Wenn ich überlege was wir heute an Leistung bekommen für immer noch weniger Verbrauch als Rechner aus z.B. 1995 ist das schon alles sehr sehr sehr Effizient. Wegen mir kann darüber berichtet werden aber es sollte nicht so stark ausgebaut werden und wenn dann in Bereichen in denen es wichtig ist. Wearables, Server usw. beim PC sehe ich das Problem eher nicht so groß weil dicke Karten im PC eher eine Seltenheit sind. Nicht vergessen wir sind hier in einer dicken Blase. Die Realität bei dem Durchschnitts-User sieht deutlich anders aus.
 
  • Gefällt mir
Reaktionen: incurable
bad_sign schrieb:
Es macht fast nie sinn neue Hardware zu kaufen, nur wegen der Effizienz.
bad_sign schrieb:
Der Grund warum man neu anschafft ist Leistung oder Defekt
Hier ein Beispiel für das "fast nie" in der Aussage. Beides schließt sich ja nicht aus. Meine RX 6600 ist 88% schneller als die RX 580 davor, und verbraucht dabei trotzdem bei voller Auslastung 25% weniger. Das macht dann 2,5x so viel FPS pro Watt.

Und der Witz ist, dass vielfach eben nicht mehr Leistung abgerufen wird, sondern die gleiche Leistung für viel weniger Watt. Wichtig sind mir vielfach nur stabile 60fps, da der Monitor nicht mehr schafft. Und das liefert die neue Karte mit viel weniger Watt als die alte, in Forza Horizon 4 nimmt der Chip zum Beispiel weniger als 30W auf. Der komplette Rechner braucht dann nur noch 110W, weniger als die Hälfte zu früher.
 
  • Gefällt mir
Reaktionen: bad_sign und MortyMcFly
die Umfrage(n) sind ja mehr so auf "die Gamer" bezogen, jedenfalls habe ich den Eindruck.

ich finde solche Konstrukte "komisch":
Ich betreibe meine Hardware...mittels Undervolting und anderen Maßnahmen auf Effizienz optimiert.

wenn ich mir Hardware kaufe, die nicht von Haus aus schon effizient ist, dann habe ich meiner Meinung nach die falsche Hardware gekauft!

ich finde, die Leute sind da auch einfach viel zu anspruchslos und nehmen alles hin, was ihnen vorgesetzt wird.
nehmen wir als Beispiel die Intel EVO Ultrabooks. Da muss man in der Regel manuell(!) mit einem Hot-Key zwischen drei verschiedenen Einstellungen wählen: leise&langsam, ausgewogen, schnell&laut
im Jahr 2022! Autos können teilweise autonom fahren aber ein >1000€ Laptop schafft es nicht, die aktuelle App Situation selber zu beurteilen und seine CPU auf die erforderliche Leistung einzustellen, automatisch?!?

und unabhängig von der ganzen Effizienz Diskussion halte ich die Angabe des Idle/Standby Verbrauchs für ein absolutes MUSS in jedem Test, offensichtlich im Fazit.

ich sage es mal so: wenn ich einen Gaming Rechner am Wochenende für 2 Stunden anwerfe, dann ist es (nahezu) egal ob der jetzt in Spitzen 500 oder 600W saugt, darüber lohnt es sich doch gar nicht zu diskutieren.
MICH interessiert, wie viel Performance (hier stand: Leistung) ich für einen kleinen Homeserver (NAS, Hausautomatisierung usw.) benötige und was der "im Schnitt" dafür an Leistung benötigt! Auch da ist wieder völlig egal, ob der mal während eines Backups für eine halbe Stunde doppelt so viel Leistung zieht, interessant sind die 23,5 Stunden des restlichen Tages (so lange keine Backups wegen Timeouts ( = zu geringe Performance) abbrechen oder nicht rechtzeitig fertig werden).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tidus1979 und Tsu
Während ich bei anderen Sachen weniger Probleme habe was zu finden oder anzupassen, suche ich schon länger sparsam-, trotzdem brauchbar- und bezahlbare Monitor und TV. Bei so gut wie 24/7h kommt da was rum. ;)
Da fiel zuletzt beim 2.Monitor die Wahl zum Dell S2722QC. Beim Hauptmonitor kann ich das wohl einfach vergessen weil die Anforderungen die er haben soll und dabei sparsam nicht funktionieren.

Es ist aber schön zu sehen, dass man die Oberklasse bändigen kann ohne wirkliche Einbußen. Deswegen bin ich jetzt auch am sparen. ;P Der Leistungssprung der 4090 ist etwas worauf man wirklich sehr lange gewartet hat und mich endlich aus WQHD holt.
 
Zurück
Oben