Test AMD Ryzen 7 5800X3D im Test: Effizienter Gaming-Spezialist

Ah, jetzt check ich's auch. :D
@Dome87 Du erwähnst Youtube und Streaming, das heißt Video-Dekodierung. Der Mehrverbrauch könnte da auch auf Probleme mit der Hardwarebeschleunigung zurückzuführen sein. Gibt's oft.
Steckt in allen Systemen die gleiche GraKa und läuft das Decoding wirklich bei allen drei Systemen auf der GraKa und nicht vielleicht beim 5800X3D-System auf der CPU?
 
  • Gefällt mir
Reaktionen: LukS und Gortha
Ich meinte eigentlich Steam und nicht Stream; oder wovon sprichst du?
 
Zuletzt bearbeitet:
Dome87 schrieb:
Ich messe auch an der Steckdose. Bei oben genannten Szenario (Teillast mit Browser und YouTube-Video, Steam
Achso, stimmt. Naja, ändert aber nichts. Wenn youtube läuft, streamst du, es wird ein Video dekodiert.

Ich rede davon, dass du dann genau hingucken musst. Im Normalfall entscheidet youtube selbst, welches Format, welchen Codec, es zum Abspielen nutzt, und es hängt sowohl von der Hardware als auch von Treibern und Software (Browser) ab, ob und wie die Hardwarebeschleunigung genutzt wird.

Wenn du den Stromverbrauch beim Youtube schauen vergleichen willst, bei einer Messung aus der Steckdose, also Gesamtsystem, dann sollte möglichst überall die gleiche GraKa mit gleichen GraKa-Treibern drin sein, das gleiche youtube-Video im gleichen Browser geöffnet sein und dann sollte man noch z.B. in GPU-z schauen, ob die Video Engine der GraKa bei allen Systemen gleich ausgelastet ist und bei youtube mit Rechtsklick-> Statistiken für Interessierte schauen, ob das gleiceh Videoformat drin ist.

Wenn du nur die Package Power bei youtube-Last vergleichen willst, spielt die GraKa natürlich keine Rolle, du musst aber trotzdem schauen, dass überall das gleiche Videoformat in youtube läuft, im gleichen Browser, und dass die Hardwarebeschleunigung entweder auf allen drei Vergleichssystemen aktiv ist oder eben auf allen dreien aus ist.
 
  • Gefällt mir
Reaktionen: LukS, Gortha und Rios
Für alle die, wie ich, sich noch die Frage gestellt haben, ob sie vielleicht mit einem 5800X und optimiertem RAM den Aufpreis zum 5800X3D umgehen könnten hat PCGH einen netten Test parat:

https://www.pcgameshardware.de/Ryze...3D-5800X-RAM-Skalierung-3D-V-Cache-1394526/2/

Fazit:
Dass mehr Cache die Abhängigkeit von der RAM-Geschwindigkeit reduziert, ist nicht bloß eine Theorie, sondern zeigt sich beim Vergleich zwischen 5800X3D und 5800X klar in der Praxis. Der Idee, dem R7 5800X mit schnellem RAM Beine zu machen und ihn damit auf 5800X3D-Niveau zu bewegen, müssen wir aber eine Absage erteilen - dafür ist der Rückstand in den von uns getesteten Spielen zu groß; zumindest ohne das zusätzliche Optimieren der Subtimings. Für Aufrüster mit eher gemächlichem Arbeitsspeicher (etwa weil sie bisher ein X370-/B350-System genutzt haben), ist der R7 5800X3D umso attraktiver. Der Leistungsverlust fällt kleiner aus als bei Ryzen-5000-CPUs ohne 3D-V-Cache und die hohe Spieleleistung des 5800X3D kommt immer noch sehr gut zum Tragen.
 
  • Gefällt mir
Reaktionen: Pro_Bro, massaker, HK47 und 6 andere
aldaric schrieb:
Und grundsätzlich denke ich nicht, dass ein kompletter Plattform-Wechsel von einem 9900k großen Sinn macht.

Hättest du eine AM4 Basis, wäre das wohl was anderes, aber hier nochmal eine EOL Plattform frisch kaufen, macht kurz vor Zen4 und RPL wenig Sinn.
Vor allem, da bei 8 Kernen sich in all der Zeit seit dem 9900K nicht viel getan hat, als dass sich ein Upgrade lohnen würde - auch ohne Plattformwechsel.
Beim 2700X, ebenfalls von 2018, sieht das natürlich deutlich anders aus.
Zer0Strat schrieb:
Na ja, sooo weit ist ein stark getunter 9900K nicht weg von einem 5800X3D.
Eben.
 
Der 5800X ist zuz. für 320€ zu haben. Ein fairer Aufpreis wäre gut 50€. Für 370€ würde ich schwach werden. Ich denke, dass die neuen Prozessoren dieses Feature auch haben könnten.
 
Zer0Strat schrieb:
Bestimmt mit Clock Stretching des Todes...
Nein, da geht tatsächlich einiges, war auch sehr erstaunt und hab’s erst fast nicht geglaubt.
Offset lies sich bei mir zwar nicht setzen, da die Option mit 1.2.0.6 b nicht da ist, Aber allein per curve optimizer gingen bei mir 150 MHz mehr auf allen Kernen (effektiv), keine Ahnung ob das alle schaffen, aber wenn nicht müssen ja unglaublich viele Leute hier, incl. mir, golden samples erwischt haben.
 
Bruder_Joe schrieb:
Aber allein per curve optimizer
Das ist auch das einzige, was wirklich funktioniert.
Voltage offset oder feste Spannung kann ich setzen, Performance ist dann aber totaler Müll.
Nur per PBO2 Tuner gesetzte Optimierungen verbessern wirklich was.
 
Das ist glaube ich gesperrt und hat keinen Effekt. Aber man kann dem Curve Optimizer Werte geben, das funktioniert, und ich glaube Limits wie PPT funktionieren auch (aber noch nicht selbst getestet).
 
  • Gefällt mir
Reaktionen: HK47
Enurian schrieb:
Das ist auch das einzige, was wirklich funktioniert.
Voltage offset oder feste Spannung kann ich setzen, Performance ist dann aber totaler Müll.
Nur per PBO2 Tuner gesetzte Optimierungen verbessern wirklich was.
Ich hab co mit bissl bclk oc kombiniert, funktioniert einwandfrei, ergibt 200Mhz mehr allcore effektiv . Ich nehme an mit zukünftigen Bios Versionen wird zumindest CO dann per Bios drin sein.
Ergänzung ()

Dome87 schrieb:
Der PBO 2 Tuner ermöglicht beim X3D Boost Override?
Gesperrt war es nicht, konnte da was eingeben, hatte aber keine Auswirkung meine ich.
 
Bruder_Joe schrieb:
Ich hab co mit bissl bclk oc kombiniert, funktioniert einwandfrei
Ja stimmt, darüber kann u.U. man noch was rausholen. Ist nur halt nicht drin, wenn man NVMe nutzt, daher hatte ich das ausgeblendet :)
 
Enurian schrieb:
Ja stimmt, darüber kann u.U. man noch was rausholen. Ist nur halt nicht drin, wenn man NVMe nutzt, daher hatte ich das ausgeblendet :)
Ich hab nvme only, ergibt kein Problem, man muss es ja auch nicht übertreiben.
 
Enurian schrieb:
und ich glaube Limits wie PPT funktionieren auch (aber noch nicht selbst getestet).
Das geht zumindest bei meinem Asus X570 Board über XFR Enhancement solange man die Werte niedriger setzt als standardmäßig einegestellt ist. Ich habe PPT auf 100 und TDP auf 80 gestellt und habe jetzt beim Cinebench die Durchschnittstemperaturen auf den unteren 70° Bereich senken können, gleichzeitig drehen die Lüfter auch nicht mehr so laut auf. Im Cinebench verringert sich die Leistung um ca. 4 % von 14600 auf 14000 im Multicore Test.
 
Beitrag schrieb:
Ah, jetzt check ich's auch. :D
@Dome87 Du erwähnst Youtube und Streaming, das heißt Video-Dekodierung. Der Mehrverbrauch könnte da auch auf Probleme mit der Hardwarebeschleunigung zurückzuführen sein. Gibt's oft.
Steckt in allen Systemen die gleiche GraKa und läuft das Decoding wirklich bei allen drei Systemen auf der GraKa und nicht vielleicht beim 5800X3D-System auf der CPU?
3% Auslastung, frisches Win 11 (so wie beim KS vorher) 35W(!) Package Power. Der KS brauchte dabei so ~15W. Dekodierung über die GPU (siehe Taskmanager)
 

Anhänge

  • Screenshot 2022-05-11 204931.png
    Screenshot 2022-05-11 204931.png
    856,5 KB · Aufrufe: 211
  • Gefällt mir
Reaktionen: Beitrag
Die errechnete Package Power von den Software-Tools ist für die Katze.

Es wurde ja damals schon von einigen Testseiten beleuchtet, dass man die errechnete Package Power zwischen Intel und AMD nicht wirklich vergleichen kann.

Wichtig ist was er aus der Dose zieht und das ist bei AMD und Intel im Idle ziemlich identisch.
 
  • Gefällt mir
Reaktionen: Gortha
Zurück
Oben