News Aus der Community: Auf der Suche nach den Energiefressern im PC

Nighteye schrieb:
Hab meine RX6700 soweit Optimiert das ich in Star Citizen bei 100% Last nur 89-98W verbrauch habe.
Eine Wahnsinnsleistung - vmtl. alles noch in altbackenem Full HD mit heruntergeschraubten Details.
Mein Tipp: Manche sollten gar nicht spielen - das schont die Umwelt am meisten ;)

w0wka schrieb:
Wer eine 4090 im Rechner hat sollte sich um Strompreise keine Sorgen machen!
Stimmt, besonders wenn ein Spieler wie ich Photovoltaik mit Batteriespeichern hat :D ich verkaufe mit Sonne eher, statt zu verbrauchen.

Ich halte es wie mit den Spritpreisen.
Ich tanke seit Jahren immer gleich für 50 EUR...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Roy Schwarz und kado001
Mir hat der Idle Stromverbrauch schon seit meinem damaligem AMD Phenom II gestunken.

Meine Tipps über all die Jahre:
  • Nur Intel CPUs kaufen
  • CPU OC über Offset
  • GPU Generation mit niedrigem Idle Verbrauch nehmen (siehe CB Tests)
  • GPU-Idle-Takt mit angeschlossenem Monitor überprüfen
  • Zwei statt vier Ram-Riegel
  • mITX statt ATX Board und maximal Mittelklasse
  • Stromsparmodi im UEFI überprüfen, ungenutzte Ports deaktivieren (zB SATA)
  • Netzteil mit hoher Effizienz wählen
 
  • Gefällt mir
Reaktionen: vti, Teckler und robosaurus
Ich achte schon seit einige Jahre auf Stromsparende Hardware, durch die richtige Wahl von Mainboard und Netzteil lässt/ließ sich viel Einsparen.
Hab unter meinem Dashboard ein etwas älteren OEM-Rechner der wenn ich zuhause bin, den Tag über an ist und für Musik (Spotify) und Video benutzt wird. Dieser verbraucht im Idle knapp 8 Watt und mit Musik sind es um die 10 Watt. Da kann man den PC ruhiges Gewissens laufen lassen.
Teilweise ist es aber absurd was manche Gaming PCs sowohl im Idle als auch unter Last fressen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Juckt mich jetzt nicht so wirklich.
Mein Pc läuft nicht mehr oft und der Ryzen 5700g soll ja nicht so der Strom Fresser sein, hab den sogar etwas Undervoltet, die alte GTX960 langweilt sich meist zu Tode oder es wird nur kurzzeitig was gespielt.

Müsste ich bei Gelegenheit mal testen ob die Integrierte Grafikkarte nicht ausreichen würde.......
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Mhhh, da sind die Meinungen ja schon sehr unterschiedlich. Generell würde ich, für mich sagen:

Ich hab die CPU mittels CO im Verbrauch senken können
Ich hab die GPU mittels UV im Verbrauch seken können
Ich betreibe meine Hardware nicht 24/7 und meist nur zum Spielen
Der PC geht bei Nichtbenutzung nach 30 Minuten Schlafen
Ich betreibe den PC mit einem 80+ Gold Netzteil

Also für mich ist da einiges an Sparpotenzial umgesetzt, möchte allerdings beim Spiel auch die bestmögliche Optik und Performance.

Wenn man eine gesunde Balance gefunden hat, muss man such kein schlechtes Gewissen haben.
 
  • Gefällt mir
Reaktionen: hanjef und Baal Netbeck
Ich gebs gerne zu, ich Verbrauch ca. 850 Watt lt Wattmeter beim Streamen mit 2 PCs.
Allerdings zocke/Streame ich kaum noch ca. 4 Stunden in der Woche. Ich Arbeite, verdiene ausreichend die paar Euro mehr auf der Stromrechnung kann ich mir Leisten ohne das es mir weh tut.
 
  • Gefällt mir
Reaktionen: blauescabrio und CandyMan10
Ich muss nicht lange nach dem Energiefresser suchen: die Grafikkarte. Trotz UV zieht die 4090 trotzdem mit Abstand am meisten. Raptor Lake ist ohne Takt an der Kotzgrenze + UV super handzahm.
 
Postman schrieb:
Eine Wahnsinnsleistung - vmtl. alles noch in altbackenem Full HD mit heruntergeschraubten Details.

Nein, 1440p mit Medium Details, aber Star Citizen ist eh sehr schlecht Optimiert zz.
In Battlefield spiel ich auch 1440p mit Medium Details, und hab nie unter 100 fps.
 
  • Gefällt mir
Reaktionen: hanjef und andi_sco
Finde ich ein super interessantes Thema und Jin sehr interessiert an Ergebnissen und Anleitungen.
Hab nen ryzen 4750 Pro und einen Intel i5-13500 als Server laufen, zusätzlich nen Raspberry und nen ryzen 3900x.
Würde ich gerne alles auf einen runter brechen und sehen was davon am besten zu meinen Ansprüchen passt.

Auf dem 4750 läuft ein TS und ein Server für meinen Minecraft Server.
Auf dem i5 läuft proxmox mit einem Ubuntu und 2 Windows für verschiedene Server.
Der Raspberry hat ein pihole und ein anderes TS zu stemmen.
Der 3900x ist zum basteln und testen.

Ohne Solaranlage und Akku würde ich mir den Luxus nicht gönnen.
Trotzdem würde ich gerne alles etwas auf Sparsamkeit trimmen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Kommt immer auf das Spiel drauf an, schwangt zwischen 400 und 800 Watt. Monitor, Hue Lightbar, 5.1 Boxen, Wasserkühlung usw.
 
Nighteye schrieb:
Brauchst du denn die paar % mehr Leistung ?
Seit 2016 (Polaris) und dem traumhaften AMD Wattman wo man V Core und Takt in 2D und 3D individuell einstellen kann, betreibe ich nur noch Massives Undervolting um die Karten Lautlos und Kühl zu machen.
Nein, bei dem was ich spiele bin ich mit der GeForce RTX 3090 auf Werkseinstellungen noch über 2-3 Jahre gut versorgt.

Ich nehme die bessere Effizienz, die kühleren Temperaturen und nochmals niedrigere Lautstärke aber gerne mit.

Mit etwas UV ist die Grafikkarte zudem sogar 2-3% flotter, wieso also nicht.

Den Wattman habe ich bei meiner Vega 56 sehr zu schätzen gewusst, sehr gutes Tool.
 
  • Gefällt mir
Reaktionen: Roy Schwarz
Blumentopf1989 schrieb:
Bei Spielen wie WoWs und WoT komme ich auf 90 Watt CPU und 150 Watt GPU, wobei nur die GPU aktiv limitiert wird von mir.

Welche Auflösung und wie viel fps ?
Ich hab mit der Polaris von 2016 welche ich vor über 7 Jahren für 199€ Neu gekauft hatte, bei medium Details in Wot mit 1440p stabile 144fps mit einem verbrauch von ca 50W.
Deine neue Nvidia wäre ziemlich uneffizient, wenn die in Wot das 3 Fache einer über 7 Jahre alten AMD karte zieht, und dabei keine 400fps bei 1440p generiert.
Hab noch einen Screenshot davon, ist aber ein paar Jahre alt. Die Grafik hat sich in Wot in den letzten Jahren bestimmt nochmals verbessert.
 

Anhänge

  • 52W ingame Wot.jpg
    52W ingame Wot.jpg
    534,2 KB · Aufrufe: 87
Zuletzt bearbeitet:
Ja, ja, der leidige Stromverbrauch...
Aber egal, ob man grün angehaucht ist oder sich nur um die steigenden Strompreise sorgen macht, kaum jemand realisiert, wo der Strom beim PC verbraucht wird. (Aber, wer sich eine 3080 oder 4090 geholt hat, für den ist der Stromverbrauch eh sekundär.)

Seit einiger Zeit habe ich mir das bei unseren Systemen mal angeschaut. Mit so einem kleinen Messgerät von Voltcraft. Da ich hier mehrere Systeme im Haushalt habe, gab es auch die unterschiedlichsten Erkenntnisse. (Ich beschränke mich aber auf das Stromverhalten, wenn die Kisten "fast nichts machen".)
  • Die Angaben der Hersteller stimmen nie!
    Gerade bei Nvidia-Gaming-Grafikkarten war der Gesamtverbrauch des Systems "im IDLE" immer recht hoch. AMD macht das hier deutlich besser mit seiner Radeon-Chill.
  • Am sparsamsten sind Mini-PCs oder Laptops mit integrierter Grafik
    z.B. ein Mini-PC mit einem Ryzen 5600GE
  • Die Betriebssystem-Version macht auch einen Unterschied.
    Windows 10 Enterprise LTS verbraucht ca. 9 Watt weniger als die Pro-Variante.
    Man kann das zwar auch mit Bastelarbeit bei der Pro-Variante erreichen, aber dazu muss man die Telemetrie und den Shop deaktivieren.
  • Die Peripherie macht einen Unterschied.
    z.B. wenn man THX-Lautsprecher von Edifier dran hat, so ziehen die schnell 25-30 Watt (IDLE) und oft ziehen die natürlich auch, Strom wenn der PC aus ist. Also auch hier auf eine automatische Abschaltung achten. Aber auch wenn viele USB-Geräte laufen, kann das den Stromverbrauch stark erhöhen. Hier kann ein USB-Hub mit einschaltfunktion helfen.
  • Das Verhalten des Nutzers
    Viele Browsertabs, in denen viel Werbung angezeigt wird, erhöht den Stromverbrauch manchmal drastisch. Ich hatte schon Internetseiten, deren Werbung den Stromverbrauch um 30 Watt erhöht hatten. Bleiben die im Hintergrund geöffnet wird hier Strom verschwendet.
    Auch den Energiesparmodus auf "Beste Energieeinsparung" hilft beim sparen. (Der Energiesparmodus "ultimative Leistung" ist wohl eher etwas für 4090 Besitzer, die über ihre Wakü ihren Pool gleich mitheizen wollen.)
  • TDP-Limits einstellen hilft
    TDP-Limits bei CPUs oder Grafikkarten herunterstufen, kann einiges an Strom einsparen. (Solange man nicht die höchsten Frameraten braucht.)
Mittlerweile arbeite ich überwiegend an meinen Mini-PC und den Gaming-PC wird nur noch zum Spaß angemacht oder wenn ich mal wirklich Power brauche.
 
  • Gefällt mir
Reaktionen: end0fseven, Fritzler, Baal Netbeck und eine weitere Person
Richtig tolle Sache!
Geht doch nix über ordentliches Benchen und ausmessen der eigenen Hardware :)
Hab mir darum spezifisch ein Netzteil mit USB anschluss gekauft bei der Neuanschaffung. Misst zwar leider nur total und nicht per Rail, aber reich so im grossen und ganzen für den überblick.

Das mit Stromsparen hab ich schon lange aufgegeben.
Vorhin 5120x1440 jetzt 7680x2160. Keine graka fährt da den VRAM in den Idle Modus. Schon gar nicht wenn DSC läuft oder noch ein Zweit Monitor angeschlossen ist.
Das bissel RAM OC und schon geht nicht ma, mehr die CPU in den tiefsten Idle Modus.
Nach eigenen Angaben benötigen GPU und CPU je 50W im normalen Desktop Betrieb Kit Browser.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Ich habe drei pihole Raspberry pies mit 80mm Lüfter und poe Platine sowie aktiv gekühlt, einen unify cloudkey und ein unify usg 3 durch einen Eigenbau Router mit 8 Watt Verbrauch ersetzt.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Blende Up schrieb:
?? Wie machstn das? bzw was sind das für Monitore? ich hab hier 2 Dell 27" und die verbraten alleine jeweils um 50W....

24", einer davon ist ein Fujitsu Eco Office-Gerät.
Screenshot_20231001_172241.png


Links im Graph ist der Desktop im teilweise Spiele-Betrieb. Aber auch die 100+W Idle sind dort drauf.
Die 25W Baseline ist der ewig alte Verstärker, der manchmal lange durchläuft. War für die 35W Messung aber aus.

Einfach wirklich ernüchternd wie viel Saft moderne Desktop-Rechner im Idle-/Leichtlast-Betrieb verfeuern.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Thornado schrieb:
Das Verhalten des Nutzers
Viele Browsertabs, in denen viel Werbung angezeigt wird, erhöht den Stromverbrauch manchmal drastisch.
Unter anderem deshalb habe ich ne CPU-Auslastungsgrafik in der Taskleiste (und noch ein paar andere). Dann sehe ich, wenn irgendein Prozess „amok“ läuft und kann ihn abschießen. Darüber habe ich auch so sinnlose Dinge entdeckt wie animierte Hintergrundgrafiken auf Webseiten, die nichts zum Inhalt beitragen, aber einen Kern dauerhaft auslasten. Die werden dann per userChrome-Regel deaktiviert.

Blende Up schrieb:
?? Wie machstn das? bzw was sind das für Monitore? ich hab hier 2 Dell 27" und die verbraten alleine jeweils um 50W....
Vielleicht nicht die Helligkeit auf Maximum aufdrehen, das braucht man sowieso selten. Ich habe einen Eizo in 27 Zoll und der ist am Tag auf Stufe 60 von 100 und am Abend im Dunkeln auf vielleicht 20.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Die DRam Spannung wurde auf 1,1V gesenkt,...
Nach allem was ich dazu im Netz darüber gelesen habe ist das Undervolting von RAM keine so gute Idee, kann wohl zu ganz üblen Fehlern führen die man lange Zeit überhaupt nicht merkt.

Gut, ich hab das auch nur gelesen aber das war von Leuten die zumindest behauptet haben das die über eine große Erfahrung verfügen.^^
Because yes, very small voltage changes can make actual difference. And if it’s not stable, it won’t just “not post” or crash or fail a test, it may do that if it’s very far off, but it also may past 99% of tests, and slowly corrupt everything on your PC without you realizing. I promise, I am not just making this up to scare you. Do the proper homework to fully learn how to do this, then you will have the confidence and understanding to do it correctly. DO NOT just change voltages assuming it’s like a CPU, it isn’t.
https://linustechtips.com/topic/1421750-is-it-wise-to-undervolt-ram/
 
Nighteye schrieb:
Welche Auflösung und wie viel fps ?
Ich hab mit der Polaris von 2016 welche ich vor über 7 Jahren für 199€ Neu gekauft hatte, bei medium Details in Wot mit 1440p stabile 144fps mit einem verbrauch von ca 50W.
Deine neue Nvidia wäre ziemlich uneffizient, wenn die in Wot das 3 Fache einer über 7 Jahre alten AMD karte zieht, und dabei keine 400fps bei 1440p generiert.
Hab noch einen Screenshot davon, ist aber ein paar Jahre alt. Die Grafik hat sich in Wot in den letzten Jahren bestimmt nochmals verbessert.
Ist der Maximalwert, zwischenzeitlich sind es auch mal nur 90 Watt (Im Zielfernrohr), ich spiele aber auf Max Settings in 1440p mit 150 FPS. Ich habe aber auch nur das Watt Limit + FPS Limit gesetzt, kein Undervolting etc.
 
Performator schrieb:
Die ca. 120W aus der Steckdose im Idle haben mich immer schon genervt.
Oh man, dass hab ich ja seit Pentium 4 und Athlon XP nicht mehr gesehen :D

Mein Server kommt mit 25W aus, mein PC mit 60W (was mir imemrnoch zu viel ist).

Meistens ist das Netzteil ein Hauptschuldiger, weil viele daran sparen oder ein viel zu großes nehmen (die Effizienz wird bei 20% Leistung gemessen für den 80+ Standard).
80+ Titan / Plantin sind heutzutage die richtige Wahl und bei 500W max Verbrauch sollte man nicht mehr als 650W nehmen (+30% ). Hier ist ein 1000W NT völlig fehl am Platz.
In meinem PC werkelt ein 385W NT, weil meine GFK mit 75W auskommt.
 
Zurück
Oben