Energiesparplan Zen 3 Ryzen 5000 (modified Powerplans)

Der V4 Plan im Vergleich zu Windows "Höchstleistung" ist doch hauptsächlich ein etwas sparsamerer Verbrauch und dafür minimale Leistungseinbuße, die aber eher messbar und nicht spürbar sind oder?

Ich nutze zum arbeiten im Homeoffice aktuell den Windows "Energiesparmodus" und zum zocken den V4 Plan. Umgeschaltet wird mit dem PowerSwitcher Tool.
 
Pizza! schrieb:
Also selbst mit harten Sparzwang komme ich nicht mal unter den höchsten Wert von System vorher.
Hattest Du vorher beim 3900X ein paar BIOS-Tweaks angewendet (Undervolting PPT-Limit etc.)? Laut CB-Test ist der 5900X gar nicht so weit vom 3900X entfernt. Aber ja, dort wurde nur Single-Core-Volllast und All-Core-Volllast getestet, nicht "ein bisschen Last auf mehreren Kernen".

Schon verrückt, dass AMD das Boost-Verhalten bei Zen3 noch aggressiver gestaltet hat als bei Zen2. Das ist dann wohl der Preis für das Performance-Krönchen...
 
Ich vergleiche mit Windows Balanced, aber es spielt kaum eine Rolle ob Höchstleistung oder Balanced.

Ich hab nur in einem Game weniger FPS, da es knallhart im CPU Limit hängt, da wird jedes Quäntchen Leistung benötigt. Bin aber trotzdem deutlich über 100 FPS.
In allen anderen Games sind die FPS gleich bzw. keine Nachteile zu spüren.
Idle ist normal, da lässt sich nicht viel verbessern und leichte Last nur wenig besser als Windows. Da mehr sparen zu Lasten der Spieleleistung geht.

Hab im BIOS die gleichen Einstellungen drin, ich habe das Geheimnis des dparsamen 5900X noch nicht entdeckt.
Vielleicht ist auch das Gigabyte Board schuld, aber andere Leute haben ähnlich hohen Verbrauch von 80 bis 100 Watt in jedem Game.
 
Pizza! schrieb:
5900X und 6900XT mit Windows Energiesparmodus 112 Watt
Das kann doch unmöglich stimmen? Ich habe 5900X+2080 bei Twitch und Emulator im Background + mind. noch 5-8 weitere Tools offen = 35W laut hwinfo CPU Package Power.
GPU bei 30W dabei. Das alles mit Energiesparmodus.

Mit deinem v4 Plan 70-75W für die CPU.
 
Ich messe an der Steckdose den gesamten PC ;) ( bei den Werten)
Nur recht enttäuschend, dass von 3900X und 2080 auf 5900X und 6900XT ca. 50% mehr Strom für ein simples Video oder Stream geschluckt wird.
 
  • Gefällt mir
Reaktionen: charliebravo_AT
Pizza! schrieb:
3900X und RTX 2080 Standard ca. 105 Watt
3900X und RTX 2080 mit angepassten Plan ca. 90 bis 95 Watt
5900X und 6900XT Standard ca. 150 Watt
5900X und 6900XT mit Windows Energiesparmodus 112 Watt

Das Problem wird an der Grafikkarte liegen, die 6900XT verbraucht im Idle mehr als die 2080, musst mal drauf achten, was die so zieht.

Die 2080 sollte im bereich 15 - 30w liegen, die 6900XT lässt den Memtakt bei einem Video hoch takten und verbraucht deswegen mehr.
1614831540440.png


1614831583263.png

Gemerkt hab ich das, weil ich im Idle (an der Steckdose gemessen) 90w Verbrauch habe. (mit meinem Plan, der ja bekannterweise auf Höchstleistung ausgelegt ist, auch bei Teillast)
 
Zuletzt bearbeitet:
Ja aber selbst mit Energiesparmodus noch über 110 Watt...
Durch PCI-E maximales sparen verbraucht die nicht mehr so viel, glaub ich zumindest.

Mit einem sparenden Plan wie z.B. sz_cb bin ich bei ca. 128 Watt, also nur durch CPU Settings lassen sich nochmal 15-20 Watt sparen.

Im idle komme ich mit Energiesparmodus auf 40 Watt, trotz AiO Display, RGB Zeug usw.
Mit normalen Plänen und PCI-E Sparen: mittlere Eins. sind ca. 58-61 Watt
 
Pizza! schrieb:
Im idle komme ich mit Energiesparmodus auf 40 Watt
An der Steckdose? :o

Selbst dann, wenn ich mein System (3700X, X570, GTX1660S, 64 GB RAM, LuKü, nix RGB, 450-W-Netzteil Platin) auf absolute Sparflamme stelle (auf dem Board alles deaktiviert, Limit auf PCI-E 3.0, Chipsatz undervoltet, CPU, RAM und SOC sowieso undervoltet, Netzwerk in Windows deaktiviert, Lüfter abgeschaltet, Hintergrundprozesse deaktiviert), komme ich im absoluten Windows-Leerlauf auf ~44 Watt an der Steckdose (egal, mit welchem Sparplan).

Mit X570-Board, 5900X, AIO, RGB (und alles eher auf Leistung getrimmt) erscheinen mir 40 Watt etwas unrealistisch. Mit welchen Tweaks hast Du das erreichen können?


Pizza! schrieb:
Durch PCI-E maximales sparen verbraucht die nicht mehr so viel, glaub ich zumindest.
Ich hab' es nicht getestet, aber ich denke, im Sparplan kannst Du lediglich die Schnittstelle als solche zum Energiesparen überreden, nicht das daran angeschlossene Gerät. Diese Einstellung dürfte also höchstens dann tatsächlich Energie sparen, wenn Windows entscheidet, die Monitore abzuschalten und damit der GPU zu signalisieren, dass sie nicht benötigt wird. Aber da wäre ich mir nicht sicher.

Der Ansatz von @Verangry scheint mir hier in die richtige Richtung zu gehen.
 
sz_cb schrieb:
An der Steckdose? :o
Richtig der ganze PC an der Steckdose.
Normal ca. 60 Watt im idle und wenn PCI Express Verbindung im Plan auf maximale Einsparungen steht dann werden daraus 40 Watt.

PC lässt sich damit auch gut benutzen.
Nutze ich aber nur im Energiesparmodus, im normalen Plan nicht. Da es merkwürdige Effekte beim zocken und testen verursacht.
 
Sagt mal ,haben eure Pläne Einfluss auf die Systemstabilität?Konkret meine ich wenn ein System vorher abgestimmt mit default "Ausbalanciert " ohne jegliche Fehler läuft ,ist es möglich ,dass es mit den Plänen zu Instabilitäten ,z.B. WHEA kommen kann?
 
Nein sollte eigentlich nicht sein. Mit wäre auch keine Möglichkeit bekannt was sowas auslösen könnte.

Man passt nur Werte an die es schon gibt, sagt dem Prozessor was Vorrang hat oder wie lange etwas geht oder wie oft etwas überprüft wird.
 
  • Gefällt mir
Reaktionen: Tornavida
Alles klar dann habe ich etwas woanders verstellt und wollte wegen der Diskriminierung der Problematik nur sichergehen.Habe zwar keine WHEA aber Testmem wirft manchmal Fehler raus was vorher nicht war.Danke für die Info Pizza.Mal schauen was SZ_CB meint.Ich schau sicherheitshalber dass es wieder bei default ok ist und teste dann mit beiden Plänen nach.
 
Puh also 40W im Idle übertreffe ich bei weitem, trotz B550 Board und allen Energiesparoptionen im BIOS aktiviert die ich gefunden habe. Hab die genauen Zahlen nicht mehr im Kopf und aktuell brauch ich mein Energiemessgerät anderswo, aber 90W müssten das noch gewesen sein, wobei gut 34W auf die GTX1080 entfallen, weil die mit 3 Monitoren nicht in den Idle taktet.

Und das im Desktop-Idle ohne laufende Anwendungen - da machte der Energiesparplan und insbesondere auch die PCIe power saving Option bei mir überhaupt gar keinen Unterschied.
 
Tornavida schrieb:
Sagt mal ,haben eure Pläne Einfluss auf die Systemstabilität?
Ich würde auch sagen "Nein", aber ich würde es auch nicht zu 100 % ausschließen. Wenn Du Deine Tests gemacht hast, kannst Du ja mal berichten :)



Pizza! schrieb:
Richtig der ganze PC an der Steckdose.
Normal ca. 60 Watt im idle und wenn PCI Express Verbindung im Plan auf maximale Einsparungen steht dann werden daraus 40 Watt.
Meine CPU hat im angesprochenen Minimalstzustand laut HWiNFO knapp 9 Watt Package Power, die GPU will etwas mehr als 10 Watt. Ausnahmslos alle Komponenten sind an die untersten (Verbrauchs-)Limits gefahren und die Lüfter sind deaktiviert. Die PCI-E-Energieeinstellungen sind bei mir dauerhaft auf "maximale Einsparung", ein Umstellen bringt bei mir aber höchstens homöopatische Änderungen. An der Steckdose: 44 Watt.

Ich bin ehrlich interessiert, wie Du 40 Watt realisierst. RGB, zzgl. AIO-Display zzgl. Pumpe zzgl. drei 120er Lüfter auf dem Radiator zzgl. eventuelle Gehäuselüfter zzgl. Software zur Steuerung etcpp. Das dürften in Summe mindestens 10 Watt zusätzlich sein für Zeug, das es bei mir nicht gibt. Ausgehend von Deinem Setup müsste für mein LuKü-Setup ohne den ganzen Schnickschnack dann ja 30 Watt im "echten" Leerlauf möglich sein - das wäre wirklich äußerst erstrebenswert für mich und jetzt muss ich wissen, wie! :) Welche Einstellungen hast Du gefunden? Macht Gigabyte beim X570-Board irgendetwas grundlegend anders als MSI? Was verbrauchen die einzelnen Komponenten (laut HWiNFO)? Selbst wenn Deine CPU und GPU im Leerlauf jeweils nur die Hälfte von meinen Komponenten bräuchten (was laut CB-Tests nicht der Fall ist), dann wären es noch immer nicht die ~14 mir "fehlenden" Watt... Wo kommen die Einsparungen her? :confused_alt:
 
sz_cb schrieb:
Ich bin ehrlich interessiert, wie Du 40 Watt realisierst.
Ooch so schwer ist das nicht, wenn man das richtige Board hat. :evillol: Mit meinen Rechner komme ich auf minnimal 37 Watt. :daumen:
Und das trotz Wasserkühlung.:D:smokin:
 
sz_cb schrieb:
Ich würde auch sagen "Nein", aber ich würde es auch nicht zu 100 % ausschließen. Wenn Du Deine Tests gemacht hast, kannst Du ja mal berichten :)
Ja kann ich gerne machen,Testmem läuft eh im Hintergrund beim Surfen und Forum wenn ich gefrickelt habe.:DWie ist es denn bei euch?Ich nehme an keine Auffälligkeiten.Aber Pizza benutzt "sollte" und du kannst es ja auch nicht zu 100% ausschliessen,daher die Nachfrage überhaupt.Aber schon klar dass man nicht für alle möglichen Konstellationen eine Aussage zu 100% treffen kann. Bei grosszügigen Einstellungen für die CPU machen die Pläne bei mir keine Auffälligenkeiten,das habe ich schon gecheckt.
 
Offenbar gibt es tatsächlich bis heute noch gravierende Verbrauchsunterschiede bei den unterschiedlichen X570-Boards, selbst dann, wenn man nicht benötigte Komponenten abschaltet. Und MSI-Boards scheinen in dieser Disziplin nicht unbedingt Sparfüchse zu sein.

Als der Chipsatz neu war, hieß es fast in jedem Test, dass es wahrscheinlich an den frühen Versionen läge und man das Verhalten beobachten würde. Ich habe allerdings nie irgendwelche Nachtests gesehen und bin wohl fälschlicherweise davon ausgegangen, dass eine Angleichung erfolgte :rolleyes:. Pustekuchen...
 
@sz_cb
Ich habe nichts besonderes eingestellt. CPPC und Global C States sind enabled, PBO +50 MHz und CO, RAM optimierte 3200 MHz

Ich weiß auch nicht warum es mit "PCI-E maximale Einsparung" auf ca. 40 Watt runter geht, so wenig hätte ich auch nicht erwartet.
Grafikkarte leuchtet, Mainboard leuchtet, AiO mit Display, 3 Lüfter oben und 3 Lüfter an der AiO.
Ich war auch schon unter 40 Watt, aktuell komme ich auf 41-42 Watt.
Laut Wattman geht die 6900XT auf 5 Watt runter, CPU Package Power kann ich nicht richtig mit HWInfo messen, triggert die CPU zu hart.

Ich probiere erneut dauerhaft die "maximale Einsparung" aktiv zu haben. Mal schauen welche Merkwürdigkeiten sich wieder einschleichen.
 
Zurück
Oben