News Effizienz & Verbrauch: Wollt ihr mehr über effiziente o. sparsame Hardware lesen?

Hammer nur 12% wollen OC, der Großteil UV oder so wie gekauft. Ich denke das sollte starke Beachtung finden.

Es sollte auch der Fokus auf die 3-20 MHz übertakteten Grafikkarten gelegt werden, die dann als Gaming OC verkauft werden und ob es einen Mehrwert bringt, Vor allem in Relation zum Stromverbrauch. Viel zu oft werden die Karten fraglos im Herstellermodus betrieben bei Tests. Da sich dann die OC Variante den längsten Balken sichert, haben die Hersteller Ansporn halt alle sinnlos übertaktete Modelle rauszubringen, wenn dem nicht Einhalt geboten wird. Die sollten alle normiert getestet werden.

Ich hoffe die Umfrage wird nicht so ignoriert wie die RGB Umfrage, wo sich 2/3 dagegen ausgesprochen haben und ihr RGB immer noch positiv wertet.
 
  • Gefällt mir
Reaktionen: Alex1966
Das Thema hat in den letzten Jahren massiv an Relevanz für mich gewonnen, sowohl bei GPUs als auch bei CPUs. Für mich steht hier die tatsächlich möglichst geringe Leistungsaufnahme im Vordergrund, nicht Effizienz im Sinne von "die Leistungsaufnahme ist um 40% gewachsen, die Performance aber um 55% gestiegen, deswegen ist das Produkt unterm Strich effizienter". Das mag dann zwar im Kern stimmen, ist in meinen Augen aber dennoch nicht zielführend und eine Entwicklung in die falsche Richtung. Es geht hier neben den (extrem relevanten!) ökologischen und finanziellen Aspekten ja auch um das Problem der Abwärme und damit einhergehend auch der Lautstärke. Sparsame Hardware ist auf wirklich vielen Ebenen erstrebenswert.

Möglichen Stromsparmechanismen sollte meiner Meinung nach in jedem Test ordentlich Platz eingeräumt werden. An erster Stelle vor allem durch die Limitierung von Power Limits, hier wäre es schön wenn immer ein Sweet-Spot ausgelotet werden könnte. Vor allem aber sollte dies über alle Testszenarien hinweg betrachtet werden, im Ryzen 7000 Anwendungstest zum Beispiel wurde durchgehend auch mit gesenkter PPT getestet, im Spieletest hingegen nicht. Undervolting kann meinetwegen vernachlässigt werden, weil es im Gegensatz zur beschränkten Leistungsaufnahme immer von der Siliziumlotterie abhängig ist. Zuguterletzt finde ich auch Verbräuche im Idle und Niedriglastbereich ziemlich interessant.

Danke an euch alle in der Redaktion, dass ihr euch dafür offen zeigt, das Thema in den Tests weiterhin zu berücksichtigen. Mir ist durchaus bewusst, dass der Testaufwand enorm steigt, da jede Testreihe mehrfach durchgeführt werden muss. Das Thema ist aber auch relevanter denn je, und wenn es nicht in den Tests berücksichtigt wird, verlieren diese leider massiv an Relevanz. Auch in der sonstigen Berichterstattung würde mich ein Fokus auf das Thema erfreuen!
 
  • Gefällt mir
Reaktionen: fairlane24, Epistolarius, Alex1966 und 3 andere
Blutschlumpf schrieb:
Ich denke der Fokus liegt hier teilweise falsch.
Ob ne Grafikkarte unter Last 150 oder 200W zieht ist aufs Jahr gesehen bei den meisten Usern kaum relevant. Man sein, dass es eine Hand voll Dauerzocker gibt, aber die meisten dürften kaum auf mehr als ein paar Stunden die Woche kommen.
Es ist letztlich egal, ob jemand 50 Spielstunden für einen Vollpreistitel wie ein Schulkind in einer Woche absolviert, oder sich mehrere Monate Zeit damit läßt. Bei 200 W hat man dafür deutlich mehr gezahlt als bei 50 W.

Blutschlumpf schrieb:
Viel interessanter ist imho der Verbrauch im Idle und der Verbrauch von 24/7 Equipment, sei es das NAS, die Fritzbox, Switches, DLAN/WLAN Geräte, Home Automation usw.
Deswegen habe ich den ganzen Plunder komplett abgeschafft und damit den Verbrauch von einer Spülmaschine oder von zwei Tiefkühltruhen oder von drei Kühlschränken eingespart. Es ist ziemlich erstaunlich wie sparsam im Vergleich andere Haushaltsgeräte geworden sind.
 
Persönlich würde ich sehr gerne mehr zu diesem Thema hier lesen. Vielleicht entsteht ja dadurch ein "Der ideale Stromsparende (Gaming) PC" Thread.
Schaden kann es nicht sich mehr mit dem Thema in Zeiten von Energiewende, -krise und -kosten auseinanderzusetzen - profitieren können wir alle davon.
 
  • Gefällt mir
Reaktionen: Taro Misaki
Nighteye schrieb:
Ich habe mal jemanden erlebt, der dachte er würde mit seinem Intel i9-11900k und EVGA RTX 3090 FTW 3 Ultra beim Zocken auf einem 4k Monitor mit 120fps target [...]
Sein Rechner dürfte gut 700W + ziehen wenn ich Tests sehe wo seine GPU schon 350W+ verbraucht.
Und zu seiner CPU sagt Google: "The Core i9-11900K in our test peaks up to 296 W, showing temperatures of 104ºC, before coming back down to ~230 W and dropping to 4.5 GHz."
Nein, bei 120 fps ist der 11900K in der Regel erheblich von der vollen Renderauslastung weg, für die die Werte von 250 oder mehr W realistischer sind.

Es hilft nichts, irgendwelche Spitzenwerte zusammenzuzählen und dann zu behaupten Spiel XY bei 120 fps in 4K würde "700W+" ziehen.
 
  • Gefällt mir
Reaktionen: Noegge
@SVΞN gerne noch NAS in die Umfrage "In welchen Bereichen interessiert euch Effizienz oder Sparsamkeit am meisten?" mit aufnehmen, die dinger laufen 24/7 und da gibt es große effizienz unterschiede.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hammerhead, Kenshin_01 und Qyxes
Also jetzt seid doch mal vernünftig. Die meisten wollen weder ULV-Gedönse noch 400 W GPUs. Wenn für eine Mehrleistung von 10-20 % ein Aufpreis von 50 % gezahlt werden soll oder die Leistungsaufnahme ebenso exorbitant steigt ist das halt vorbei am gesunden Menschenverstand.

Und eigentlich testet ihr das ja schon, von daher alles gut..
 
iNFECTED_pHILZ schrieb:
Und ja, da hat ein großer Chip @ gerningen Taktraten Vorteile. So what? Ist dem Hersteller doch überlassen wie er es schafft. Mich interessiert ja auch nicht die Anzahl der Transistoren oder so, am Ende muss halt Verbrauch und Leistung stimmen.
Warum geht Dir hier am Ende wieder der Hinweis aufs Budget flöten?
 
Zenx_ schrieb:
Nur 40% mehr Performance pro Watt bei der RTX 4090 gegenüber der 6900XT. Hmm, wenn AMDs Aussagen stimmen, dass sie mindestens 50% mehr Performance pro Watt bei RDNA 3 hinbekommen, dann könnte AMD in dieser Generation den Kampf um die höchste Leistung gewinnen. Günstig wird der Spaß leider aber nicht.
Wenn... es kein Marketing gäbe. Das ist wie mit den 2 Liter pro 100Km für nen SUV, in einem luftleeren Raum... Viel Bla Bla.
Nvidia hat von Samsung auf TSMC gewechselt, da ist viel bei rum gekommen, da AMD schon bei TSMC war... evtl. machte die Monolithstruktur Nvidia "nur" 40% effekiver und AMD holt da mehr raus.
Sehen wir im Dezember, denn der 3. November wird ein Marketing Folien Tag werden (auch wenn AMD "näher" an den Folien ist, als Intel oder Nvidia)
 
Find ich total super, dass es einen so großen Wunsch nach effizienter Hardware gibt.

Hoffentlich lesen die Hersteller mit und Performance/Watt lösen bald FPS als oberste Metrik im PC-Hardware-Marketing ab.
Würde so viel besser in die Zeit passen.
 
  • Gefällt mir
Reaktionen: call303
incurable schrieb:
Nein, bei 120 fps ist der 11900K in der Regel erheblich von der vollen Renderauslastung weg, für die die Werte von 250 oder mehr W realistischer sind.

Es hilft nichts, irgendwelche Spitzenwerte zusammenzuzählen und dann zu behaupten Spiel XY bei 120 fps in 4K würde "700W+" ziehen.

Okay aber selbst wenn sein 11900K mit der 3090 zusammen beim Zocken "nur" 400W zieht ist es immer noch deutlich mehr als mein System. Locker das Doppelte, da bin ich mir sicher.
Ich müsste mein System mal an der Steckdose messen.
 
Wahrscheinlich wären nur die wenigsten bereit, für Nachhaltigkeit zB eine DDR Speicher-Generation zu überspringen. So liest man das aus den meisten Hardware Threads heraus.
 
  • Gefällt mir
Reaktionen: Nighteye
Danke für diese Umfrage.
Ich versuche immer mit fixen 60 fps beim spielen meine Grafikkarte ruhig zu halten... Außer bei cs und valorant aber die sind absolut unspektakulär beim Verbrauch auch bei 300+ fps
 
Cool Master schrieb:
Im Prinzip ist Effizienz gut ABER muss es das immer sein? Nein. Wenn eine 4090 und co. 500-600 Watt brauchen dann ist es halt so. Man bekommt ja auch Leistung dafür. Wenn man das mit 200 Watt bekommen könnte gerne aber das ist realitätsfremd.
Die Frage muss trotzdem immer sein, wie viel Leistung man für wie viel Watt bekommt.
  • Von 300W zu 350W gibt es +7% Leistung für +17% Verbrauch.
  • Von 350W zu 450W bekommt man nur noch +3% Leistung für nun +29% Verbrauch.
  • Man kann sich wohl schon denken, wie das dann beim Schritt zu 600W aussieht.
Letztendlich muss jeder für sich selbst entscheiden, wie flach die Kurve werden darf, bevor es keinen Sinn mehr ergibt. Für mich persönlich sind die 350W noch sinnvoll, aber die 450W sind bereits Quatsch. Und letztendlich hätte nVidia die Karte auch liebend gerne mit 350W geliefert und ein kompakteres Kühlerdesign verwendet. Aber der Wahn, im Review den längsten Balken haben zu müssen, erzwingt solche Produkte.

Im Übrigen sind die 200W eben nicht realitätsfremd. Natürlich wird man die Leistung mit 200W bekommen, nur halt nicht jetzt. In einigen Jahren wird genau das aber völlig normal sein. Man vergleiche dazu, wie bei den CPUs der 13900K bei 88W mehr Performance liefert als der 12900K vor einem Jahr bei 241W.

Die Branche hat sich ganz einfach selbst in diese Lage gebracht. Hätte es irgendeinen externen Zwang gegeben, bestimmte Grenzen einzuhalten, dann hätten wir halt immer noch jedes Jahr schnellere GPUs, aber halt mit zum Beispiel exakt 200W Verbrauch. Denkbar wären hier als begrenzender Faktor zum Beispiel irgendwelche gesetzlichen Regelungen zum Klimaschutz.
 
  • Gefällt mir
Reaktionen: Noegge
Effizenz ist mir definitiv wichtig, eure Tests die zeigen das z.B. Zen4 mit 65/88W nur gering am Leistung verliert aber massiv an Effizienz gewinnt, sind gerade jetzt ein guter Indikator welche Hardware wirklich lohnt.
Kann Hardware ihre Effizienz nur unter hoher/höchster Last ausspielen, bei auch hohem Verbrauch, wie bei der RTX 4090, wirkt die Effizienz zwar, verliert für mich (persönlich) aber viel an Kraft.

Mein eigenes Beispiel, mein Laptop (HP ProBook 455 G8, RyZen 5 5600u, 32GB Ram, Vega 7)
, Verbrauch unter Vollast vielleicht 30-45w (45w Netzteil) gegen meinen Desktop (65w RyZen 7 3700x, RX550 (~50w max) 4GB, 32GB Ram, 450w Netzteil), beide ansich recht effizient, trotzdem sticht die Vega meine RX550 in manchen Dingen aus, bei insgesamt deutlich weniger Verbrauch und damit höherer Effizienz, das hat mich echt beeindruckt.

Sparsamkeit allein reicht nicht immer, geringer Verbrauch + hohe Leistung = max. Effizienz ist mein Way to Go.

Von daher gerne mehr zu Sparsamkeit und Effizienz, geringer/geringster Idle-Verbrauch, hohe Effizienz bei moderatem Verbrauch, nicht zwingend höchste Leistung / max. Effizienz bei gleichzeitig hohem Verbrauch.

Weißt weiter daraufhin wie man die Verbräuche senken und gleichzeitig die Effizienz erhöhen kann ohne zu viel Aufwand zu betreiben.

Evtl. eine Artikelreihe:
  • "Hohe Effizienz, mit wieviel Watt erhalte ich die meisten FPS/Watt?"
  • "Wie & wo kann ich den Verbrauch senken?" (Bios/Uefi, Windows/Linux, Software {After Burner, RyZen Master, etc.}, etc.)
  • "Verbrauch und Temperatur, lohnt sich eine stärkere Kühlung um den Verbrauch zu senken?"
  • "Kühlung / Airflow optimieren, Fehler vermeiden."
  • "Überblick Entwicklung:" Leistung, Effizienz, Verbrauch seit Zen1 / Sky Lake bzw. Kaby Lake (ca. 2017)
  • "Effiziente Software:" Leistung & Verbrauch bekannter Programme verglichen, Browser, Office Suiten, Entpacker, PDF Reader, etc. pp. Test auf 3 Systemen:
    • Low End (Intel Celeron, AMD Athlon jeweils mit Onboard Grafik, evtl. auch mobile)
    • Mid Tier (I5 / R5 max 65w mit GTX/RTX x060 / RX x600)
    • High End (I9 / RTX x090, R9 / RX x900 alles @ stock)
    • was bringt mehr bzw. spart mehr geringer Verbrauch oder "Race to Idle"?
  • weitere Ideen der Community.
 
MortyMcFly schrieb:
Hart bremsen heisst bei dieser speziellen GPU gerade einmal 2-5% Prozent Leistungsverlust.

Effizienz ist ja nicht automatisch nur noch mit 50 Watt betreiben, sondern den Sweetspot finden und vergleichen.
Wenn Du auf "FPS pro Watt" optimierst, kommst Du nicht mit 2-5% Verlust in der Leistung aus:

Bei Roman war die Effizienz im Time Spy Extreme z.B. bei -60% Leistungsziel und -25% Leistung am besten:

 
incurable schrieb:
Warum geht Dir hier am Ende wieder der Hinweis aufs Budget flöten?
Warum sollte er eine größere Rolle spielen als er es jetzt tut ? Bzw eine geeignete ? Ich tausche Performance mit Effizienz, nicht preis.
 
Vor allem sollte Ineffizienz bei Tests stets ein Kritikpunkt darstellen.

Und immer die drei Nachteile im Auge haben: Hitze, Lüftungslärm, höhere Stromkosten.
 
Zurück
Oben