Intel vs. AMD tatsächlicher Stromverbrauch

Nixdorf schrieb:
Browser-Add-On das Ausliefern von AV1
Youtube hat da eine eigene Einstellung mit der du AV1 forcieren oder abschalten kannst. Dann bist du auf 4k60 mit VP9 limitiert.

Quelle:
https://www.youtube.com/account_playback

1629139800884.png
 
  • Gefällt mir
Reaktionen: Nixdorf
Nachdem hier im Thema häufig von "Effizienz im Idle" die Rede war, muss ein Hinweis noch sein: Der effizienteste PC im Idle ist der, den man ausschaltet oder in den Standby schickt.

Man sollte seine Planung nicht daran ausrichten, dass man da die Kiste den lieben langen Tag eingeschaltet rumstehen hat und die tut dann nix. Da plant man für die eigene Faulheit. Effizienzrechnungen sollte man immer an den geplanten Lasten ausrichten und den Idle nur sekundär betrachten. Und ja, natürlich kann man einen Mini-Desktop im Idle ungenierter eingeschaltet rumstehen lassen als eine 5900X-Workstation, aber man kann eigentlich die Verantwortung nicht auf den dicken Rechner abwälzen, sondern sollte sich selber an die Nase fassen.
 
Nixdorf schrieb:
Nachdem hier im Thema häufig von "Effizienz im Idle" die Rede war, muss ein Hinweis noch sein: Der effizienteste PC im Idle ist der, den man ausschaltet oder in den Standby schickt.
Was meinst du macht eine halbwegs moderne CPU beim Surfen oder Programmieren? Die läuft da zu >90% im Idle.
Nixdorf schrieb:
aber man kann eigentlich die Verantwortung nicht auf den dicken Rechner abwälzen, sondern sollte sich selber an die Nase fassen.
Der Tipp ist generisch anwendbar :).
 
NameHere schrieb:
Deine CPU ist garnicht im Idle bzw. erreicht nicht die erforderlichen C-States weil Hintergrundlast oder nicht richtig konfiguriert.
Hier mal die Werte von einem Mobilen Ryzen 4600u (1,654W). Deine CPU sollte wenn alle C-States greifen weniger als 10 W brauchen.

Anhang anzeigen 1113046
Was soll ich dir sagen, der Screen hatte 60% in C6 verbracht.

Schalte ich jegliche Services ab (unrealistisch für meinen Idle/Desktopbetrieb!), bis auf HWInfo, und schaue nochmal 90 Sekunden drauf, siehts so aus:
1629140131648.png

Klar, 27W weniger 34W, aber trotzdem viel. Und noch lange nicht 10W.

Mein alter Xeon 1231v3 war (bei gleichem Betrieb) deutlich sparsamer, mit ca 4W bei diesem Workload.

//e: Man beachte, wer das meiste zieht. Das sind nicht die Kerne, das sind Cache+RAM Controller etc.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaasKersting
I'm unknown schrieb:
Was meinst du macht eine halbwegs moderne CPU beim Surfen oder Programmieren? Die läuft da zu >90% im Idle.
Jepp. Deshalb ist das Thema Idle bei der Effizienzbetrachtung ja auch nicht weg, sondern wurde als "sekundär" bezeichnet. Wer außer diesen Dingen nix mit der Kiste macht, bei dem fallen primärer und sekundärer Fokus zusammen. Da braucht man dann aber erst gar keinen Achtkerner. Die Mehrausgaben gegenüber einem dafür bereits großzügig dimensionierten 10105F bekommt man mit keinem Effizienzwunder der Welt wieder rein.

Wer aber zwischendurch immer mal wieder "getting stuff done" fährt, der sollte eben genau das stärker im Blick haben. Bringt ja nix, wenn die Kiste zwar dauerhaft 20W spart, aber immer dann, wenn es wirklich zählt, kriegt man 200 Puls wegen "der lahmen Scheißkiste".

That being said: Ich fände das schon cool, wenn man im Desktop die dedizierte Grafikkarte genau wie in einem Optimus-Notebook bei Nichtgebrauch einfach komplett abschalten könnte, ohne sie ausbauen zu müssen. Und es ist sehr traurig, dass AMD das Zero-Core-Power-Feature bei ausgeschaltetem Display damals nicht weiter verfolgt hat.
Ergänzung ()

Tenferenzu schrieb:
mit der du AV1 forcieren oder abschalten kannst
Ah, also doch noch immer nicht. Ich hatte vermutet, dass hätte sich geändert. Die Auto-Einstellung ist halt, dass AV1 genutzt wird, wenn der Browser es als unterstützt meldet. Und das tun die modernen Browser. Damit fällt es dann doch wieder auf ein Add-On zurück, diese Meldung zu unterdrücken. Das Optimum wäre es, wenn man seinem Browser beibringen könnte, das nur dann als unterstützt zu melden, wenn es per Hardware-Dekoder abgespielt werden kann. Aber genau das tun die Browser meinem aktuellen Kenntnisstand nach nicht von sich aus.
Ergänzung ()

wirelessy schrieb:
Mein alter Xeon 1231v3 war (bei gleichem Betrieb) deutlich sparsamer, mit ca 4W bei diesem Workload.

//e: Man beachte, wer das meiste zieht. Das sind nicht die Kerne, das sind Cache+RAM Controller etc.
Der 1231v3 hatte keinen DDR4-Controller. War das tatsächlich ebenfalls mit 3600er-RAM? Genau das dürfte nämlich einer der Übeltäter sein. Da läuft der Fabric über der Spec, und das kostet deutlich Watt. Ein weiterer Aspekt "bei gleichem Betrieb" dürfte sein, dass der alte Prozessor noch keine Taktwechsel in einer Millisekunde konnte. Genau diese "Schwuppdizität" der neueren Ryzen ist nämlich der zweite Kandidat für die hohen Werte.

Guck mal, wie es mit Energiesparprofil und auf 3200 reduziertem RAM aussieht. Wenn die Werte dann nicht mehr signifikant über 10W liegen, ist alles klar. Sollten sie dann immer noch ähnlich hoch sein, stimmt irgendwas mit der Windows-Installation nicht, oder es läuft ein unerkannter Hintergrund-Task. Ich würde dann dazu raten, das System mal neu aufzusetzen.
 
Zuletzt bearbeitet:
Nixdorf schrieb:
That being said: Ich fände das schon cool, wenn man im Desktop die dedizierte Grafikkarte genau wie in einem Optimus-Notebook bei Nichtgebrauch einfach komplett abschalten könnte, ohne sie ausbauen zu müssen.

absolute Zustimmung

Da werden C-States, SpeedStep, SpeedShift, DeepSleep und wie die Konsorten alle heißen eingebaut, aber so eine einfache Art Energie zu sparen im 2D-Modus wird sträflich vernachlässigt.
 
  • Gefällt mir
Reaktionen: Qyxes und Nixdorf
OT:
Nixdorf schrieb:
Ich fände das schon cool, wenn man im Desktop die dedizierte Grafikkarte genau wie in einem Optimus-Notebook bei Nichtgebrauch einfach komplett abschalten könnte, ohne sie ausbauen zu müssen.
Gerade mal getestet. Ok komplett abschalten tut sie nicht, aber wenn ein Monitor an der 3090 hängt zieht sie laut HWInfo min. 25W. Wenn ich den Monitor umstecke auf die Onboard Grafik, so dass die Nvidia GPU auf dem Desktop nicht genutzt wird, geht sie runter auf 13W. Also durchaus ein beachtlicher Gewinn.

Da die Nvidia Grafik schon 43W braucht für meine 3 Monitore könnte man so zwar nicht ganz so viel einsparen wie bei Notebooks, aber doch schon das meiste.
Auch wenn ich sehr neugierig wäre an welcher Stelle jetzt der Support fehlt die komplett abzuschalten (BIOS? vBIOS? Spezieller Mainboard Support oder nur Treiber?).
Aber abgesehen davon läuft Hybrid ja mittlerweile Top auch auf Desktops.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nixdorf
Ray519 schrieb:
Aber abgesehen davon läuft Hybrid ja mittlerweile Top auch auf Desktops.
Jepp, inzwischen bewegt sich wieder was. Aber da wurden einige Jahre echt verschenkt, das könnte schon viel weiter sein.
Ergänzung ()

Tenferenzu schrieb:
Auto sollte VP9 sein wenn kein AV1 in HW vorhanden ist. Bei mir wird von alleine kein AV1 wiedergegeben.
Also ich bekomme hier AV1, und meine Settings stehen auf Auto. Und die RX 580 kann das nicht in Hardware.

Na ja, und das braucht dann halt ohne den Hardware-Dekoder in Summe vielleicht ein paar Watt mehr. Schrieb ich ja... Luxusproblem.

Mit Enhanced h264ify kann man für Youtube aber AV1 spezifisch blocken und bekommt dann VP9. Oder bei anderer Einstellung H264.
 
Zuletzt bearbeitet:
Nixdorf schrieb:
Der effizienteste PC im Idle ist der, den man ausschaltet oder in den Standby schickt.
Du schaltest also den PC aus, wenn Du z.B. Excel oder Word benutzt? Denn auch da hat man meist 99% Leerlauf.
 
  • Gefällt mir
Reaktionen: I'm unknown
Nixdorf schrieb:
Wer außer diesen Dingen nix mit der Kiste macht, bei dem fallen primärer und sekundärer Fokus zusammen. Da braucht man dann aber erst gar keinen Achtkerner.

Nixdorf schrieb:
Wer aber zwischendurch immer mal wieder "getting stuff done" fährt, der sollte eben genau das stärker im Blick haben. Bringt ja nix, wenn die Kiste zwar dauerhaft 20W spart, aber immer dann, wenn es wirklich zählt, kriegt man 200 Puls wegen "der lahmen Scheißkiste".
Also was jetzt? Beim Programmieren 20-30 Watt dauerhaft mehr ist kein Problem, solange man nicht ewig aufs Compilat warten muss? Viele Anwendungsfälle passen in das Schema lange (sehr) wenig Performance nötig aber kurzzeitig ist Performance gewünscht. Und wenn eine dedizierte GPU keinen Vorteil bringt würde ich bei der Zusammenstellung mit Fokus auf Effizienz immer versuchen diese einzusparen. Gerade bei AMD bringt das besonders viel da dann ein SoC mit nur einem Die welches besonders auf Effizienz getrimmt wurde zum Einsatz kommt.
Nixdorf schrieb:
Aber da wurden einige Jahre echt verschenkt, das könnte schon viel weiter sein.
Was genau schlägst du denn konkret vor? Initiativbewerbungen mit guten und umsetzbaren Ideen werden bestimmt schnell angenommen ;).
Nixdorf schrieb:
Na ja, und das braucht dann halt ohne den Hardware-Dekoder in Summe vielleicht ein paar Watt mehr. Schrieb ich ja... Luxusproblem.
Hier ein paar Watt, dort ein paar Watt, das summiert sich. Im mobilen Bereich werden teils Einsparungen von ein paar zehntel Watt als Durchbruch gefeiert - vor allem weil der Idle-Verbrauch von Notebooks zum Teil selbst bei Videowidergabe extrem gering ist wenn man den Verbrauch vom Display abzieht.
 
I'm unknown schrieb:
Und wenn eine dedizierte GPU keinen Vorteil bringt würde ich bei der Zusammenstellung mit Fokus auf Effizienz immer versuchen diese einzusparen.
Klar, kann man machen. Was ist aber, wenn man auch zocken will? Für einige ist dann die Konsole die Lösung, für andere muss ein zweiter PC her. In jedem Fall ist das noch ein Gerät, und das ist zumindest im Hinblick auf die Umweltbilanz ein Verlust. Da betrachtet man ja nicht nur die Energie, die man während der Nutzung verbraucht, sondern auch die, welche für die Herstellung benötigt wurde. Dazu kommt noch der multiplizierte Platzbedarf, der bei einigen ebenfalls irgendwann zum Problem wird.

Wie man da ran geht, bleibt jedem selbst überlassen. Meine Lösung ist ein Allrounder, der alles macht.

I'm unknown schrieb:
waren nie bei 0 Watt
Nein, aber unter 3W. Und das war vor vielen Jahren schon mal deutlich weniger als das derzeitige Minimum von 5W.


Na ja, aber wir entfernen uns immer weiter vom eigentlichen Thema. Da sind wir uns ja anscheinend inzwischen einig, dass eine iGPU für den Systemverbrauch vorteilhaft ist, falls man mit der Kiste kaum zocken will. Und dass ein 5700G und ein 11700(K) sich im Idle kaum was nehmen. Das lasse ich dann so mal stehen.
 
Nixdorf schrieb:
für andere muss ein zweiter PC her
Für manche (Selbstständige) ist das tatsächlich eine echte Anforderung. Für Privatpersonen wohl eher nicht - da würde man auch bei einer CPU mit iGPU eher eine dedizierte GPU nachrüsten.
Nixdorf schrieb:
Und dass ein 5700G und ein 11700(K) sich im Idle kaum was nehmen.
Ja - nur Zen 2 + Zen 3 ohne iGPU fallen dabei raus - wenn man nicht mehr als acht Kerne benötigt. AMD hat sicher nicht wegen der Gewinnmarge für Notebooks einen eigenen Die aufgelegt - das hat technische Hintergründe warum die APUs anders aufgebaut sind.
Nixdorf schrieb:
Nein, aber unter 3W.
Welche der größeren AMD GPUs hatte diesen realen Bedarf - also die komplette Karte und nicht nur die GPU laut HWInfo?
 
Ich bedanke mich nochmal für eure Hilfe :)

Den Thread habe ich nochmal komplett gelesen inkl. dem CB Test und den Kommentaren zu dem Test. Im Prinzip hat es @Nixdorf in Post#80 perfekt zusammengefasst.

Was mir am 5700G nicht gefällt ist, dass es bei 370€ Kaufpreis nur 16MB L3 Cache, kein PCIe 4.0 und kein AV1 gibt. Gerade Cache bringt ja einiges an Leistung, ist aber immer noch auf Intel Niveau. Außerdem weiß ich nicht, ob Ableton Live von mehr Cache profitieren würde. Wirklich entscheidend wird das für mich wahrscheinlich nicht sein. Wäre aber bei dem Kaufpreis trotzdem nice-to-have. Ansonsten ist es eine ziemlich geile CPU. Erstaunlich ist generell die Leistung im Vergleich zum Stromverbrauch und die GPU im Vergleich zur Intel GPU. Meint ihr beim 5700G kann man mitgelieferten Lüfter verwenden oder lieber austauschen?

PC_Peter schrieb:
Jetzt kenn ich mich da nicht aus aber evtl kannst du, Callejon, einordnen ob die Performance für deine Sachen passt.
Der 5700G ist leistungsfähiger als der 9900K. Ehrlichgesagt gehe ich davon aus, dass mir die Leistung locker reichen wird.
ghecko schrieb:
Um einen 5900X in Ableton auszulasten müssen deine Projekte schon gewaltig sein. Ich würde auf den 5700G setzen. Sollte der irgendwann nicht mehr reichen, steht dir die Option nach wie vor offen.
Der 5700G scheint echt die perfekte CPU für mich zu sein. Trotzdem habe ich aus unerklärlichen Gründen Lust auf den 5900X. Die CPU ist etwas zukunftssicherer und hat dann Leistungsreserven ohne Ende. Die neueste Version von Ableton Live soll zudem CPU-hungriger geworden sein. Das kann sich mit späteren Updates zwar ändern, aber der Leistungsbedarf wird generell eher langsam steigen. Außerdem kann man den Rechner dann vielleicht 3-4 Jahre länger nutzen, da er mehr Kerne hat. Mir ist bewusst, dass ich mir das schönrede. Wahrscheinlich bin ich aber traumatisiert von meiner uralten i3 Gurke, die völlig überfordert ist und mir oft die Laune verdirbt. Da wäre es schön einfach mal brachiale Leistung zu haben, auch wenn der 5700G sicherlich auch reichen würde. Beim 5900X ist der Eco Mode interessant. Wenn sich der Strombedarf zum 5700G „nur“ um ungefähr die Grafikkarte unterscheiden würde, dann würde ich die 10W-15W Mehrbedarf durch meine GTX 1050 eventuell in Kauf nehmen. Aber da waren ja noch die Treiber Probleme von Nvidia, von den ich auch schon gehört habe. Es kann sogar sein, dass ich die Probleme auch habe. Aber wenn der ganze Rechner schlecht ist, dann fällt das kaum auf :D Das spricht dann wieder für den 5700G. Es sei denn ich tausche die GTX1050 gegen eine gleichwertige Radeon...

Sind die Latenzen einer iGPU geringer als bei einer GPU? Oder spielt das keine Rolle? Geht ihr davon aus, dass die Preise der 5700G fallen werden? Einige User hier finden die CPU ja etwas überteuert. Lohnt es sich noch etwas abzuwarten (auch im Hinblick auf Neuerscheinungen von Intel und AMD)?

Schwierige Entscheidung, aber ich bin froh, dass ich nur noch zwischen den beiden CPUs wählen muss.
 
Callejon schrieb:
Sind die Latenzen einer iGPU geringer als bei einer GPU?
Schlechte Treiber verursachen sporadisch hohe Latenzen, wenn sie mit Interrupts die CPU lahmlegen. DX in Verbindung mit Nvidia sind da meist die Übeltäter. Und neuerdings immer öfter die RGB-Seuche. Mit GPUs von AMD oder Intel hat man solche Probleme weitaus seltener. Ob nun GPU oder iGPU hat damit weniger zu tun.
Callejon schrieb:
Wahrscheinlich bin ich aber traumatisiert von meiner uralten i3 Gurke
Von der kommend wird sich alles schnell anfühlen. Du hast gar keine Vorstellung davon, wie schnell schon heutige 8-Kerner sind. Also ich sehe den Sinn in einem 5900X nicht. Noch nicht. Wenn er mal nötig werden sollte, kann man ihn nach wie vor günstig gebraucht schießen und einfach nachrüsten.
Callejon schrieb:
Geht ihr davon aus, dass die Preise der 5700G fallen werden? Einige User hier finden die CPU ja etwas überteuert.
Also davon ausgehend, dass eine GT1030/RX550, die beide langsamer als die APU sind schon weit über 100€ kosten, finde ich die CPU im Augenblick sogar recht günstig. Klar wird die mit der Zeit irgendwann günstiger, große Preissprünge sind aber noch nicht absehbar. Der Preis ist fair.
Callejon schrieb:
Meint ihr beim 5700G kann man mitgelieferten Lüfter verwenden oder lieber austauschen?
Nicht wenn du es leise haben willst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus und Callejon
Callejon schrieb:
Was mir am 5700G nicht gefällt ist, dass es bei 370€ Kaufpreis nur 16MB L3 Cache, kein PCIe 4.0 und kein AV1 gibt.
Den Kaufpreis empfinde ich persönlich auch als etwas hoch, aber es sind halt aktuell Zeiten, wo Preise mal etwas abweichen. Das mit dem Cache ist primär im Spielen wirklich deutlich, sonst nur selten. Das Fehlen von PCIe 4.0 ist ziemlich egal, wenn eh keine Graka verbaut wird. Bei einer SSD merkst du den Unterschied zwischen 3.0 und 4.0 bestenfalls in Benchmarks, spüren kann man den nicht. Und AV1 nicht in Hardware zu haben, ist wie bereits besprochen ein Luxusproblem. Oft genug wirst du dem Codec gar nicht begegnen, und wenn doch, dann lacht die CPU da drüber. Eigentlich mag ich an dem Teil wirklich nur den Preis nicht, alles andere ist super.

Callejon schrieb:
Wenn sich der Strombedarf zum 5700G „nur“ um ungefähr die Grafikkarte unterscheiden würde, dann würde ich die 10W-15W Mehrbedarf durch meine GTX 1050 eventuell in Kauf nehmen.
Der 5900X hat zwei Chiplets, das sind plus 3-4 Watt dafür an Basisaufschlag gegenüber einem 5700G/5800X. In Single-Core-Lasten ist er etwas hungriger, aber dafür auch entsprechend flotter. In Multi-Core-Lasten mit Eco-Mode unschlagbar effizient und dennoch sparsam verglichen mit einem 11700K. Der Aufschlag zu einem 5700G ist tendenziell etwas höher, als du denkst.

Die 1050 liegt hingegen bei maximal zwei Monitoren unter 10 Watt, in Tests habe ich beim reinen Desktopbetrieb 6W gesehen. Erst ein dritter Monitor erhöht das dann auf um die 20W. Der Aufschlag zu einem iGPU-System ist verglichen mit den genannten 10-15 Watt etwas niedriger, als du denkst.

Ich persönlich wäre da auch sehr in der Zwickmühle. Das Budget ist wohl vorhanden. Dann stellt sich die Frage, wie schnell willst du danach eventuell wieder wechseln? Wenn man da lange Ruhe haben will, dann 5900X, zum Ende hin dann ggf. ohne Eco-Mode für den letzten Boost. Wenn man aber den Markt verfolgt und gerne dem Haben-Wollen-Effekt neuer cooler CPUs anheim fällt, dann eher der 5700G, denn in den nächsten zwei bis drei Jahren kommt krasses Zeug raus.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Callejon
Zurück
Oben