Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Ey, holy shit!

Ich habe gerade mal die SOC Voltage im Bios auf -0.1V Offset gestellt.

Damit rauscht der Idle Verbrauch des SOCs von fast 18W auf 11W runter und die CPU Total Leistungsaufnahme geht im Idle von 35W-36W auf 29-30W runter....das ist ja wohl krass deutlich....HOLY.


1677871930664.png
 
  • Gefällt mir
Reaktionen: Larnak und LamaMitHut
Arcturus128 schrieb:
Sehe ich auch so. Bei Software-Sensoren ist einfach zu viel variabel.
ich denke eher daran, dass die Verbräuche des gesamten Systems so gar nicht erfasst werden können. Man kann sich was aus verschiedenen Sensoren addieren aber es ist mehr geraten als gemessen.
Ergänzung ()

t3chn0 schrieb:
Ich habe gerade mal die SOC Voltage im Bios auf -0.1V Offset gestellt.
glaube dass das soviel ist, dass man schon benchen müsste ob Leistung verloren geht.
 
  • Gefällt mir
Reaktionen: daknoll
Bin ich gerade bei.

=)

Ich gucke auch mal bei die Misc Voltage. Ich bin jetzt bei beiden mal auf sichere -0,098V gegangen, drüber wird die Schrift im Bios gelb =).
 
@t3chn0 Wenn Strom gespart werden soll, dann empfehle ich, den Energiesparplan automatisiert bei Abwesenheit auf den Energiesparmodus umzustellen (Process Lasso oder AutoPowerOptionsOK). Das macht zwar im echten Idle kaum einen Unterschied, aber bei jedweder Schwachlast sind die Einsparungen deutlich.
 
Arcturus128 schrieb:
Da stimmt ja was nicht. 200 % Strom sparen ist nicht möglich, es sei denn dein PC speist plötzlich Strom ins Netz ein.
Naja wenn der 13900k 350 Watt unter Vollast Verballert dann sind 125 Watt mehr als die hälfte eingespart.Man Verliert nur halt die doppelte Leistung,hauptsache die CPU ist sparsam. Das von mir war nur als Beispiel gewesen.Aber das mit dem 13900k ist wirklich echt so.Ist halt die Frage ob das noch sparsam ist und bei Leistung pro Watt dann so besser geworden ist oder nicht.Für mich wäre das nix,weil ich würde dann die hälfte an Leistung Opfern nur um mit AMD bei Vollast mitzuhalten zu können.Und wäre zudem schlechter dran als mit dem 5950x im Moment der fall wäre.
 
So, Benchmarks sind durchgelaufen.

Die -0.1V SOC waren nicht stabil.

Dafür sind -0.06V SOC Stabil + (-)0,052V MISC Voltage

Das Resultat ist ehrlich gesagt gravierender als ich dachte.

Die 30W statt 37W sind damit absolut machbar.

Des Weiteren ist jetzt meine Idle Temperatur nochmal um 2°C gesunken.

In den Benchmarks habe ich leicht bessere Werte als vorher (-20 Curved All)

und jetzt boostet die CPU fleißig auf noch mehr Kernen auf glatte 5.7Ghz.

Da scheint im Hintergrund deutlich mehr Benefit zu entstehen als es erstmal vermuten lässt.

Ich werde jetzt noch ne Runde zocken und gucken ob da alles tutti läuft. Sollte sich das bewahrheiten wäre das schon ein ordentlicher Effizienz Gewinn im Idle.

1677874816293.png
 
  • Gefällt mir
Reaktionen: Alex2005, CueSystem, BelneaHP und eine weitere Person
Zer0Strat schrieb:
Wahrscheinlich ist das meine negative Aura oder der 3D ist nervös, weil er weiß, dass er gegen den V-Cache Crusher antreten muss. Ich glaube, da wäre jeder nervös.
Ne, das ist dein Hass auf AMD. Du bist null objektiv, das du AMD Hardware testet ist ein witz. CB hat die idle Vebräuche nachgereicht, kannste mal schauen wie das geht.
Ergänzung ()

aldaric schrieb:
Dafür gibt es ja Idle Messsungen des Komplettsystems. Und da ist der Unterschied eben nunmal nicht mehr so groß
Das verstehen die nicht. Das ist zwecklos. Vielleicht bringt Intel ab jetzt Idle Folien, jetzt noch effizienter beim nichts machen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut und McTheRipper
So, läuft alles stabil mit den oben aufgeführten Settings. Perfekt, dann verbraucht das System jetzt 7W weniger, läuft kühler und etwas schneller weil die SOC und MISC Spannung abgesenkt wurde. Erstaunlich das AMD sowas nicht direkt out of the Box etwas entschärft. 17W SoC vs. 11W sind schon ein Unterschied im Idle.
 
  • Gefällt mir
Reaktionen: Alex2005 und Sky89
Arcturus128 schrieb:
Ich finde die Grabenkriege hier schon sehr interessant und amüsant, egal ob bei AMD vs. Intel oder Nvidia vs. AMD. Beiden »Lagern« scheinen immer genau die Eigenschaften wichtig zu sein, die das jeweilige Lager gerade besser macht. Die Eigenschaften die das andere Lager besser macht sind jeweils irrelevant.
Das hast du sehr schön zusammengefasst :)
 
Sunjy Kamikaze schrieb:
Bei Igor braucht der 7950X3D im schnitt 39 Watt beim zocken in 4K und bei dir im Idle mehr?
Igor misst auch die tatsächliche CPU Power, das kann man nicht mit dem was man in HWInfo ausliest vergleichen.

Wenn Igor 39W misst, würde HWInfo in dem Fall vmtl irgendwas um die 50W anzeigen.

In dem Screenshot sehe ich aber alleine schon 7W "Core Power", heißt die CPU ist definitiv weit entfernt von Idle, denn dann wäre die Core Power <1W.
Zieht man das ab, landet man bei 38W und das ist nicht viel mehr als das, was mein 5800X3D laut HWInfo gerade in diesem Moment verbraucht.
Ergänzung ()

t3chn0 schrieb:
im Idle mit Win 11 und Balanced Sparplan sind es 109-115W mit einem 7900X
Ca das gleiche hier mit einem 5800X3D, die 4090 hat mit ~30W aber auch einen guten Anteil daran, der 5800X3D kommt auf höhere 35-38W(beides HWInfo Readings)

Niedriger als das wird es nicht, auch wenn ich ne Minute die Hände von Tastatur und Maus lasse.
Screenshot 2023-03-03 234842.png


Und das ist schon mit CO -20 und SoC Voltage auf 1,1V
 
Zuletzt bearbeitet:
@Ben_computer_Ba die Grenze verschiebt sich immer höher weil die Gpu‘s mehr können und Techniken wie Upscaler ihr Übriges liefern. Dazu immer schnellere 4K Monitore. Das was man jetzt in FHD sieht wird auch immer mehr in Wqhd sichtbar, wie auch in 4K. Da die Gpus immer weniger zum limitierenden Faktor werden. Und der Wechsel gpu zu CPU ist häufig 2:1.

Und das zusätzliche Problem sind Benchmarks. Es soll zwar gezeigt werden Was die CPUs können, aber die Spiele Auswahl beinhaltet sehr selten CPU fordernde spiele. Klar muss gezeigt werden wie es in neuen Spielen aussieht, aber, die Problem spiele kommen zu kurz, in den Tests. Kleine Beispiele sind X4 und Star Citizen. Schön das wenigstens PCGH ANno1800 zeigt. Aber ein stellaries ENd Game oder ein sehr weit vorgeschrittenes Faktorio währe auch mal schöne CPU tests.
 
Windell schrieb:
Weil momentan könnte ich persönlich nicht abschätzen wieviel FPS mehr ich in 1080p/WQHD kriegen würde mit meiner Grafikkarte.
Erstmal musst du selbst schauen ob du im cpu/ gpu Limit bist. Hast du eine Gpu Auslastung von 98-100% dann bekommst du praktisch nix durch ein cpu Wechsel. Schau dir dein Spiel in benches mit 720p an und du siehst welche maximalen fps diese CPU Leistet egal bei welcher Auflösung. Dann schau dir wieder Gpu Tests an wo die nächst höheren Karten liegen. Fertig.

Da CPU Test immer mit der Schnellsten gpu gemacht werden, sehen 99% aller Gamer nicht die Leistung die ihr System leisten könnte. Du musst immer beide Test dazu benutzen CPU (für min fps)und GPU für Max fps. Da die meissten Spieler nicht Max Einstellungen nutzen können wird man immer nur schätzen können. Außer bei der CPU da hier in 720p die max fps gezeigt werden die diese CPU liefern kann,
 
  • Gefällt mir
Reaktionen: Windell
latiose88 schrieb:
Naja wenn der 13900k 350 Watt unter Vollast Verballert dann sind 125 Watt mehr als die hälfte eingespart.Man Verliert nur halt die doppelte Leistung,hauptsache die CPU ist sparsam.
Ist das tatsächlich so und wo kann man das genau nachlesen oder hast du das mit eigenen Messungen selbst festgestellt?
 
mibbio schrieb:
Wenn hier in der Diskussion also Idle-Verbräuche vergleicht, sollte die CPU (und RAM) dabei auch mit innerhalb der Spezifikationen von AMD laufen. Denn sonst vergleicht man fast Äpfel mit Birnen.
Das ist wirklich ein Problem, denn fast jeder hat ja ein XMP- oder EXPO-Profil aktiviert und betreibt den RAM über den Spezifikationen von AMD, selbst die Tech-Reviewer. Man müsste das dann jeweils separat testen.

latiose88 schrieb:
Man Verliert nur halt die doppelte Leistung
Das verstehe ich nicht. Das Doppelte von was?
 
Northstar2710 schrieb:
Da die meissten Spieler nicht Max Einstellungen nutzen können wird man immer nur schätzen können. Außer bei der CPU da hier in 720p die max fps gezeigt werden die diese CPU liefern kann,
viele Setting betreffen auch die CPU, also kannst du auch noch mal deutlich mehr fps bekommen, wenn du 720p High statt 720p Ultra testest
 
$$coffee schrieb:
Ist das tatsächlich so und wo kann man das genau nachlesen oder hast du das mit eigenen Messungen selbst festgestellt?
das sind meine eigenen tests.Habe sogar bilder und Video davon gemacht.Echt erschreckend wie viel man bei ner solchen starken Drosselung an Leistung verliert.Da merkt man dann wirklich unter den selben Bedingung wie stark Intel wirklich ist.Total schwach.Würde ich also mit so testen oder mit gleichen CPU Takt würde es wohl das selbe Ergebnis sein.Wie mit 4 ghz Allcore.Wäre wohl genauso dann.Da ist überhaupt keine gute IPC dahinter nur der hohe Allcore Takt rettet Intel mit sehr hohen Stromverbrauch.
So wird das nix mit Videoumwandeln und sparsam unterwegs sein.Da mag die CPU noch so sparsam im Idle sein aber das hilft der CPU nicht weiter.Da nehme ich ja sogar noch lieber eine CPU mit extra Cache auch wenn das bei mir ebenso null bringt.
 
Zer0Strat schrieb:
Wahrscheinlich ist das meine negative Aura oder der 3D ist nervös, weil er weiß, dass er gegen den V-Cache Crusher antreten muss. Ich glaube, da wäre jeder nervös.
^^ wow
Ergänzung ()

Gr3yh0und schrieb:
Boards? Ram? Settings? Bei meinem 5800X3D hat alles >1600 FCLK einfach mal +6W beim SOC im idle gekostet... Also gerade Ram OC etc kostet da schnell viel.
FCLK 1600 ca. 22-27W
FCLK 1900 ca. 28-33W
Windows Idle lt. HwInfo. 👍
 
Zuletzt bearbeitet:
latiose88 schrieb:
das sind meine eigenen tests.Habe sogar bilder und Video davon gemacht.Echt erschreckend wie viel man bei ner solchen starken Drosselung an Leistung verliert.Da merkt man dann wirklich unter den selben Bedingung wie stark Intel wirklich ist.Total schwach.Würde ich also mit so testen oder mit gleichen CPU Takt würde es wohl das selbe Ergebnis sein.Wie mit 4 ghz Allcore.Wäre wohl genauso dann.Da ist überhaupt keine gute IPC dahinter nur der hohe Allcore Takt rettet Intel mit sehr hohen Stromverbrauch.
So wird das nix mit Videoumwandeln und sparsam unterwegs sein.Da mag die CPU noch so sparsam im Idle sein aber das hilft der CPU nicht weiter.Da nehme ich ja sogar noch lieber eine CPU mit extra Cache auch wenn das bei mir ebenso null bringt.

Seltsam, hier in diesem Test wurde der Core i9-13900K sogar auf 90 Watt gedrosselt und wie nach 50% Leistungsverlust und mehr sieht das definitiv nicht aus wie du das beschreibst:

1677890905052.png


Du musst höchstwahrscheinlich was falsches gemessen haben bzw. deine Tests waren nicht klinisch genug:

1677891244876.png


Selbst bei 63,1 Watt Dank UV/UC ist der Core i9-13900K nur 9% langsamer als bei 125,6 Watt in BF2042.

1677892216229.png


In BF2042 läuft der Core i9-13900K dadurch sogar mehr als doppelt so effizient Points / Watt als der R9 7950X:

1677892444535.png


Hier das ausführliche Test-Video von der8auer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: +++ und Klever
Zurück
Oben