Stromverbrauch B550 sehr hoch

Bob.Dig

Commodore
Registriert
Dez. 2006
Beiträge
4.112
Obwohl ich nur ein einfaches Brett habe, ist der Verbrauch auf dem Desktop mit einem "statischen" Browserfenster sehr hoch, regelmäßig über 100 Watt.
Sys siehe Signatur, kurz:
AMD Ryzen 9 5950X
GIGABYTE B550M DS3H
ASUS Strix GeForce GTX 1070
ASUS XG-C100C LAN-Adapter
Samsung SSD 980 PRO 1TB, M.2

Einige Energeieinstellungen im BIOS verstellt, groß geändert hat sich nichts.

Ist der Verbrauch tatsächlich typisch für diese Hardware?
 
Klingt fair. 16 kerne, sagen wir mal 30w, 15w netzwerkkarte, 3-5w pro ssd, 4-10w pro hdd, 2-3w pro Ram Riegel
10-20w beim Board, 10-30w bei der GPU.
 
  • Gefällt mir
Reaktionen: redjack1000 und Smily
@madmax2010 Keine HDD, nur eine m.2 SSD!

Habe auch den Eindruck, dass alles über 60 Hz zu einem erhöhten Verbrauch in Windows führt oder anders gesagt, wenn ich auf 60 Hz runterschalte, scheint der Verbrauch auf dem Desktop mit einem Browserfenster deutlich schneller zu fallen. Dachte, das hätte Nvidia längst in den Griff bekommen...
Leider scheint die Umstellung des Bildwiederholfrequenz durch Spiele auch nur möglich zu sein, wenn diese im Vollbild laufen.

Insgesamt eigentlich recht traurig der hohe Verbrauch, habe ihn bisher erfolgreich ignoriert gehabt, aber zeitgemäß ist das nicht.
 
Zuletzt bearbeitet:
Das Netzteil braucht selbst keine Watt? Gehäuselüfter hab ihr vergessen.
 
Was soll denn die GFX Karte machen, wenn Du 3840 x 2160 Pixel bei sagen wir 24Bit Farbtiefe darstellst willst?
Dafür brauchst die GPU halt Takt und Du hast ja per Willenserklärung gesagt gib Stoff.

Dein System ist leider selbst dann sicher nicht Sparsam mit dem 5950X, wenn Du auf 60Hz gehst, aber wieviel Watt sparst Du denn bei 60Hz? 20-30Watt? Dann sind das aufs Jahr vielleicht 20-40€ oder viel weniger, je nach deinem Nutzungsverhalten. Brauchst Du mehr als 60Hz auf dem Desktop für deinen Anwendungsfall, wegen bessrem Scrolling oder nur, weil Du die Hz-Zahl einstellen kannst?
 
Bob.Dig schrieb:
Habe auch den Eindruck, dass alles über 60 Hz zu einem erhöhten Verbrauch in Windows führt oder anders gesagt, wenn ich auf 60 Hz runterschalte, scheint der Verbrauch auf dem Desktop mit einem Browserfenster deutlich schneller zu fallen. Dachte, das hätte Nvidia längst in den Griff bekommen...
logisch, da muss die GPU doppelt so viele Frames raus geben

tRITON schrieb:
Du denn bei 60Hz? 20-30Watt? Dann sind das aufs Jahr vielleicht 20-40€
bei den jahre lang geltenden Strom Preisen war Watt bei 12h/tag Betrieb näherungsweise der Selbe Betrag in Euro.
Aka: 100w, 365 Tage, 12h am Tag an -> 100 Euro Stromkosten
 
Mir geht es hier nicht um eine Analyse mit der Lupe, aber der Verbrauch hat sich mit jedem Upgrade anscheinend merklich erhöht, was einfach schade ist.
Da ich sehr viel vor der Kiste sitze, habe ich jetzt tatsächlich mal auf 60 Hz runtergestellt. Bedeutet aber leider, dass ich beim Zocken in den Vollbild gehen muss (kein Window mehr), sonst wird die Bildwiederholrate nicht angepasst.
 
  • Gefällt mir
Reaktionen: redjack1000 und madmax2010
Bob.Dig schrieb:
Habe auch den Eindruck, dass alles über 60 Hz zu einem erhöhten Verbrauch in Windows führt oder anders gesagt, wenn ich auf 60 Hz runterschalte, scheint der Verbrauch auf dem Desktop mit einem Browserfenster deutlich schneller zu fallen. Dachte, das hätte Nvidia längst in den Griff bekommen...
Was erwartest du.. G-Sync/Freesync an, und schon ist das mit dem Verbrauch kein Thema.
Ist bei AMD auch nicht anders. Schalte ich Freesync ab, dann geht der Verbrauch in die Höhe.

Für GPU/CPU bist du halt bei mind. 30-50W... Und der Rest summiert sich dann auch schnell.
 
kachiri schrieb:
G-Sync/Freesync an, und schon ist das mit dem Verbrauch kein Thema.
G-Sync und Co hat damit nix zu tun. Ist bei mir eh immer an, mehr als 165 Hz läuft bei mir also eh nicht.
 
hast du in der Nvidia-Systemsteuerung Energieverwaltungsmodus auf "normal" ? Sonst verbraucht die Karte viel mehr.
 
meine kiste verballert +/- 75w, im IDLE, mit monitor sinds dann +/- 125w (UWQHD; 34")
könnte den monitor auch auf 99w total runterfahren. aber dann isses unangenehm dunkel.
helligkeit kostet.

bei aktivitäten kann es dann auch höher gehen, wenn GPU, CPU taktet etc.

und eine 4watt lampe hängt auch noch dran ^^


ich denke mir aber das meine nächste investion eine powerstation (solargenerator) wird.
kann man immer gebrauchen, und geplant ist eine 24/7 Nutzung der Station mit Solar.
Und da kommt dann halt der Rechner dran.

Theoretisch amortisiert sich das in 10-15 Jahren (^^), ist also von dem Standpunkt aus eher langfristig wirtschaftlich, aber da es sich grundsätzlich um eine sinnvolle Investion handelt, kann ich also guten Gewissens den grünen Solarstrom beim Gamen verballern (anstatt den generator im Keller verschimmeln zu lassen). Und wenn kein Saft mehr da ist, ist finito. ;)

Ladezyklen sind im Grunde kein Thema, aber die Geräte können bei deutlichem Leistungseinbruch ja getauscht werden. (ich benutze z.b seit JAHREN für mein Ebike dieselben AKKUS, und ob da jetzt die kapazität bissel gesunken ist juckt mich nicht wirklich tbh. Bis jetzt schaffen sie die Strecken die sie sollen ;) - über die von Hersteller angegebenen Ladezyklen bin ich lange drüber.)

und dann schaut man auch gerne mal auf den Verbrauch und optimiert weiter rum. ^^
 
Zuletzt bearbeitet:
BmwM3Michi schrieb:
hast du in der Nvidia-Systemsteuerung Energieverwaltungsmodus auf "normal" ?
Mir geht es hier nicht ums Zocken. Normal habe ich nicht, aber optimal. Habe mal auf adaptiv gestellt.
Ergänzung ()

Melu76 schrieb:
meine kiste verballert +/- 75w, im IDLE, mit monitor sinds dann +/- 125w (UWQHD; 34")
Was für ein Panel? Aber mit ein Grund warum ich mir hier keinen TV hinstellen werde (auch wenn das keiner ist). Meiner verbraucht gerade 12 Watt, aber darum soll es hier nicht gehen.
 
  • Gefällt mir
Reaktionen: madmax2010
bei meiner RTX 3080 gibt es nur "normal" und "maximale Leistung"
normal im idle: 22 Watt maximale Leistung im idle sind es schon 60 Watt.
 
  • Gefällt mir
Reaktionen: Melu76
Bob.Dig schrieb:
Was für ein Panel? Aber mit ein Grund warum ich mir hier keinen TV hinstellen werde (auch wenn das keiner ist). Meiner verbraucht gerade 12 Watt, aber darum soll es hier nicht gehen.

IPS-LED, 165HZ, Helligkeit auf "70". aber die HZ machen da nicht wirklich was um ehrlich zu sein.
3440x1440

der Verbrauch sinkt massiv (habe ein steckdosenmeßgerät), wenn die helligkeit runter geht. bei "0" helligkeit (- das ist immer noch sichtbar, also nicht schwarz) also ca. 25w, mit "70" helligkeit 50w

anzahl der pixiel+größe kostet halt.


diese paar watt spielen aber keine wirkliche rolle. die spielen erst wieder eine rolle wenn ich dadurch 1h länger zocken könnte theoretisch, wenn das ding nur noch über powerstation läuft.
 
BmwM3Michi schrieb:
bei meiner RTX 3080 gibt es nur "normal" und "maximale Leistung"
normal im idle: 22 Watt maximale Leistung im idle sind es schon 60 Watt.
Das habe ich.
Clipboard01.png

Aber natürlich habe ich nirgends was auf maximalen Verbrauch gestellt und dann hier den Thread eröffnet. 😉
 
kannst ja mal Optimal und Adaptive vergleichen! Meine gtx 1080-Zeit ist leider schon lange her! -)
 
BmwM3Michi schrieb:
bei meiner RTX 3080 gibt es nur "normal" und "maximale Leistung"
normal im idle: 22 Watt maximale Leistung im idle sind es schon 60 Watt.

bei mir exakt dasselbe
wobei ich 22w im idle schon viel finde. gerne < 20w. aber keinen plan wie ...

wenn ich die GPU max aufdrehe (370w pl), knallt mir der ganze schreibtisch +/- 530w max. weg
da ist das 850w-netzteil im optimalen bereich. muss noch den PC umdrehen, dann wirds schön warm im winter.

eine 1kw powerstation wäre dann in 2h empty, aber deswegen gibts ja UV. ;)
hauptsächlich gezockt wird mit 200w, das wären dann 200w weniger verbrauch - also 3h zocken.

muss man mal schauen wieviel strom in echtzeit nachgeschaufelt wird. ^^
nachts wohl nicht mehr soviel ;)
 
Zuletzt bearbeitet:
Ihr redet aber von der Graka alleine oder? @BmwM3Michi Woher hast Du den genauen Verbrauch der Graka?
 
Bob.Dig schrieb:
anders gesagt, wenn ich auf 60 Hz runterschalte, scheint der Verbrauch auf dem Desktop mit einem Browserfenster deutlich schneller zu fallen. Dachte, das hätte Nvidia längst in den Griff bekommen...

Was soll man da in den Griff bekommen. Die GPU muss mehr leisten. Zumindest der VRAM Takt muss hoch gedreht werden. Und auch der Idle Modus des GPU Takts reicht für + 120 Hz nicht aus. Das wird sich nicht ändern.
 
Bob.Dig schrieb:
Ihr redet aber von der Graka alleine oder? @BmwM3Michi Woher hast Du den genauen Verbrauch der Graka?

ja. nur die GPU, das ist das was der AB (oder GPUZ sensoren) anzeigen.

da mein strommeßgerät den ganzen rechner+monitor+... erfasst, kann man das am meßgerät nicht (exakt) ablesen.
 
  • Gefällt mir
Reaktionen: Bob.Dig
Zurück
Oben