Test AMD Ryzen 7 5800X3D im Test: Effizienter Gaming-Spezialist

Teillast ist keine Definition. Für den einen ist das der Browser mit 200 Tabs, für den anderen ein YouTube Video.

Wie lange soll diese Teillast-Sau noch durchs Dorf getrieben werden?
 
  • Gefällt mir
Reaktionen: Gortha
Speziell im Idle und bei Teillast sieht die Power Reporting Deviation oft übel aus sprich es wird ein weit höherer Verbrauchswert angegeben als real verbraucht wird. Das ist halt der Nachteil an dem Softwarekram.
 
  • Gefällt mir
Reaktionen: Gortha und aldaric
aldaric schrieb:
Wie lange soll diese Teillast-Sau noch durchs Dorf getrieben werden?
Das ist schon ein wichtiger Punkt. Wenn der Rechner für alles und nicht nur für Gaming eingesetzt wird, dümpeln CPU und vor allem GraKa eben sehr oft und lange mit geringer Auslastung vor sich hin. Gerade fette Gaming Grafikkarten verbrauchen dann ganz schön viel Saft für so banale Dinge wie Fenster schieben oder Video gucken.
 
Soooo extrem effizient ist die CPU ja gar nicht, wenn mal richtig Last anliegt in einem Spiel.

1652304522067.png


Denniss schrieb:
Speziell im Idle und bei Teillast sieht die Power Reporting Deviation oft übel aus sprich es wird ein weit höherer Verbrauchswert angegeben als real verbraucht wird. Das ist halt der Nachteil an dem Softwarekram.
Kommt aufs Board drauf an. Hier in dem Fall geht's eigentlich sogar. Infineon XDPE132GSC (1+2) POUT sind nicht so extrem von PPT entfernt. ~19W vs ~24W.

1652304990908.png
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Tornavida
Zer0Strat schrieb:
Soooo extrem effizient ist die CPU ja gar nicht, wenn mal richtig Last anliegt in einem Spiel.
Das deckt sich in etwa mit meinen persönlichen Erfahrungen. Wobei ich auch sagen muss, wenn die CPU nicht voll laufen muss, begnügt sich der X3D ggü. meinem 59X im Vergleich mit etwas weniger.

--

Ansonsten war mein persönliches Fazit: "ganz nett, aber joa" Die jetzt gemachten persönlichen Erfahrungen decken sich mit den eigenen früheren Erwartungen. Auch ein Erkenntnisgewinn für mich. :)

Das Ding lässt sich genauso wie der 59X ganz gut flüsterleise kühlen ohne ne dicke WaKü/AIO zu benötigen und kommt mit dem eigenen Spiele-Haufen gut klar.

Ob es das Ding angesichts eines deutlich günstigeren 5700X/5800X/5900X wirklich bei dem aktuellen Preispunkt braucht, halte ich nach wie vor für diskussionswürdig.

Am Ende darf er bei mir drin bleiben, weil der Zen2-Chip im betroffenen anderen PC eh raus sollte und ich gerade keine Lust verspüre, meinen zurück zu bauen.

--

Allerdings vermisse ich UV via Bios. Ich hoffe, dass AMD + die AIB bei den kommenden Bios-Versionen noch was möglich machen. Über PBO2-Tuner ist zwar nett, aber ich habs lieber im Bios direkt eingestellt.
 
  • Gefällt mir
Reaktionen: Esenel
Leute, ist ne Katastrophe mit der CPU hier. Könnte aber auch an dem Board liegen. Der 5800X3D läuft auf dem Gigabyte X570 Aorus Master + AGESA 1206B.

Nicht nur, dass sie komplett alle Optionen im BIOS bzgl. Spannung, Takt und Powerlimit entfernt haben, es gibt zudem zig Bugs. Das Schlimmste sind die spontanen Reboots, die völlig willkürlich auftreten. Das geht einfach gar nicht. Dann der VDDG Spannungs Bug, dann SoC Spannungs Bug, der dazu führt, dass die PPT auf 75W fällt, wenn man die SoC Spannung auf 1.1V setzt. Ich meine, lol, wie ist das möglich?

Ich versuche jetzt ein vernünftiges Board von ASUS zu bekommen. Wenn die nichts für mich haben, geht die CPU zurück.

Und nochmal zu den BIOS Optionen. Was soll der Mist AMD/Gigabyte? Dass man noch nicht mal ein f*cking Powerlimit einstellen kann... Eieiei.
 
Zuletzt bearbeitet von einem Moderator:
1.2.0.6c ist bei mir erstaunlich stabil. hatte schlimmeres erwartet.

hat MSI been augenscheinlich guten Job gemacht.
 
Esenel schrieb:
Wieso bist du auch freiwillig so lebensmüde dir nen Gigaschrott Board zu holen.
Hab das Board doch jetzt ne Weile. Alle anderen Ryzens laufen da geschmeidig drauf. Warum der 5800X3D so rumzickt, verstehe ich nicht. Ich hoffe, AGESA 1207 kommt bald. Ich muss die 14-Tage Frist einhalten können. Die CPU muss ansonsten zurück. Hab keine Lust auf einen 500 Euro teuren Schlüsselanhänger.
 
xcali schrieb:
Hier mal die benches mit RDR2 und HZD in 4K... was auffällt ist das die Min FPS höher sind als zuvor mit dem 3700X
Exakt- Es ist ein Irrglaube, dass stärkere CPUs auch unter schwächeren GPUs nichts bringen würden.
Denn viele der wirklich unangenehmen Dips kommen von kurzzeitigen CPU- Limitierungen, wenn gerade viel I/O Last anliegt.

Der Mythos dass die CPU in 4K nicht sonderlich zum Tragen käme ist bei der heutzutage umfangreichen Software schon lange vom Tisch.

Lieber konstant 45FPS mit gutem Framepacing, als schwankend zwischen 30 und 60.
Zweiteres wird überwiegend als deutlich störender wahrgenommen. Haben hier im Studio da eine Vielzahl von Tests dazu durchgeführt.
 
  • Gefällt mir
Reaktionen: laxus222, hahaqp, Gortha und 4 andere
Verangry schrieb:
Ich kenne da einige, die hätten gerne solch einen "Schlüsselanhänger"... *kopfschüttel
Das ist aber ernst gemeint. Was nützt mir die CPU, ohne eine funktionierende Plattform? Oder vielleicht hat die CPU wirklich einen weg?! 500 Euro für eine CPU, die ich nicht wirklich verwenden kann, ist ein bösschen viel. ^^

.Sentinel. schrieb:
Der Mythos dass die CPU in 4K nicht sonderlich zum Tragen käme ist bei der heutzutage umfangreichen Software schon lange vom Tisch.
Ist leider Standard. Die Leute schmeißen den Afterburner an, schauen auf Average FPS und GPU-Auslastung, fertig ist die Laube.

Dabei kann man mit CapFrameX alles in Sekunden überprüfen, Spikes, Stuttering, Framepacing...
 
  • Gefällt mir
Reaktionen: chaopanda, Neubauten, TheOpenfield und eine weitere Person
  • Gefällt mir
Reaktionen: Zer0Strat
Ich weiß nicht was ihr habt, bei mir läuft die CPU von ersten Tag perfekt und ohne Abstürze.
Das man hier nicht viel einstellen kann war im vornherein klar kommuniziert, wenn euch das nicht passt, verkauft sie.
 
  • Gefällt mir
Reaktionen: NickHack
Lediglich gesperrter Multi (CPU seitig möglich) und gesperrte Spannung (nur Board seitig möglich) wurde kommuniziert.

Das PBO/Curve Optimizer nicht funktionieren, gehört nicht dazu. Und das wird vmtl. in kommenden BIOS Versionen hoffentlich laufen. Es spricht zumindest absolut nichts dagegen.
 
  • Gefällt mir
Reaktionen: Gortha und Zer0Strat
Tja, oder eben auch einfach Glück / Pech. Jedes Stück Silizium ist am Ende einzigartig ;)
 
Zurück
Oben