Test AMD Ryzen 7 5800X3D im Test: Effizienter Gaming-Spezialist

0ssi schrieb:
Was man so liest scheint Alder Lake bis zu DDR4-4000Mhz in Gear 1 zu schaffen
also bei 2x 8GB nur ~50€ Aufpreis zu DDR4-3200Mhz und locker 10% mehr FPS.
Vermutlich reicht dann sogar ein 12600K(F) für 269€ statt ein 12700K(F) für 399€.
...zumal lt. Techpowerup- Review die Energieeffizienz des 5800X3D in Cinebench z.B. schlechter ist als z.B. beim 12700K, von der Performance mal garnicht zu sprechen.
Die 70,5 Watt des 12700K beim 720P Gaming (Test Igorslab) stehen den 60/63 Watt des 5800X3D gegenüber.
Das ist jetzt auch nicht sonderlich weltbewegend, wird aber hier übermäßig aufgeblasen.

Dazu:
90 °C als Maximum mit gutem Noctua-NHD15-Kühler bleiben viel, sind aber keinesfalls besorgniserregend.
So ist es doch eine eher hitzköpfige CPU.

Man jubelt sich hier das ganze Produkt schon ziemlich nach oben.
Zu Ryzen 1 Zeiten wurde noch gesagt, dass jeder die Kontrolle über sein leben verloren hat, der für 8 Kerne mehr als 400€ zahlt.

Ja- Die CPU ist für ihren speziellen Einsatzzweck OK, aber ein rundes Gesamtpaket in allen Lagen, so wie es hier (mit weitem Abstand) vor allen anderen CPUs (auch aus dem eigenen Lager) von anderen gesehen wird ist es rein objektiv nicht.
Da lügt man sich selbst in die Tasche, gerade wenn man ihn zwangsweise nur gegen den 12900KS stellt, der mit eine der sinnlosesten weil spezalisiertesten CPUs für viele (höchste Singelcore- Leistung auf einem Core) ever darstellt.

Dennoch bin ich absolut der Meinung, dass der 5800X3D eine tolle CPU ist und dass es solche "Tests" gerne am Markt geben darf. Für jeden Zweck das passende Mittel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Esenel
.Sentinel. schrieb:
aber ein rundes Gesamtpaket in allen Lagen
Ich glaube das sind Einzelstimmen, die das meinen sagen zu müssen. Fast alle gehen hier doch von einem Gaming-Umfeld aus, so wie die Tests auch aufgebaut sind, AMD dafür wirbt usw... Und den 12900K(S) hört/liest man hier doch meist auch im Spiele-Zusammenhang.

Und für diesen beworbenen und gedachten Einsatz-Zweck finde ich die CPU mehr als beachtlich und auch noch besser als erwartet.
.Sentinel. schrieb:
Jo, ist eben aber auch Cinebench und es war ja schnell klar, dass damit das Gaming-Umfeld schlecht abgebildet wird.
.Sentinel. schrieb:
So ist es doch eine eher hitzköpfige CPU.

Juckt aber wenig, da die Energieeffizienz der CPU ja andereseits vergleichweise überraschend gut ist. Und das die Wärme-Leitfähigkeit durch eine zusätzliche Schicht nicht gerade besser werden wird, ist auch nicht überraschend.

Und auch wenn vermutlich nicht gleich am Verkaufstag 1 die UVP grob unterboten werden wird, ist der Markt im Moment schon in Bewegung und ich denke zumindest Richtung 450 wid es schnell gehen - Voraussetzung die Verfügbarkeit ist gegeben!

Zum Jubeln gibt es so gesehen wenig Grund. ist ja letztlich schlicht und einfach eine schnöde CPU. Aber unter diesen Gesichtspunkten hätte man den 12900K(S) erst gar nicht erwähnen dürfen und müsste ihn verschähmt unter der Ladentheke verkaufen... ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: peru3232 und .Sentinel.
janer77 schrieb:
Zum Jubeln gibt es so gesehen wenig Grund. ist ja letztlich schlicht und einfach eine schnöde CPU. Aber unter diesen Gesichtspunkten hätte man den 12900K(S) erst gar nicht erwähnen dürfen und müssten in verschähmt unter der Ladentheke verkaufen... ;)

So gesehen hat man mit dem 5800X3D dann noch etwas geschafft. Man hat es geschafft das Intel ihre Architektur mit so einer CPU der Lächerlichkeit hingibt, obwohl es gar nicht notwendig war.

Man muss schon ehrlich sein, dass ADL dadurch im DIY Bereich arg gelitten hat, nachdem die Reviews so extrem schlecht ausfielen.

Ich verstehe den Gedankengang bei Intel weiterhin nicht, eine recht gelungene Architektur so vor die Wand zu fahren, nur weil man Angst hatte im Benchmark nicht auf Platz 1 zu stehen?
 
  • Gefällt mir
Reaktionen: dergraf1 und janer77
aldaric schrieb:
Ich verstehe den Gedankengang bei Intel weiterhin nicht
Hab natürlich auch keinen Einblick, aber ich denke Intel ist noch immer ein fetter, vollgelandener Tanker mit entsprechend langsamer Führungs-Hierarchie und anderen Arbeitsprozess-Abläufen als bei vielen anderen Tech-Firmen. Und ich vermute der durchschnittliche Intel-Mitarbeiter (wie auch Intel-Käufer; gaaaanz weit aus dem Fenster gelehnt...) ist etwas konservativer eingestellt, als wiederum der Durschnittsmensch. Und der durchschnittlich konservativere Mensch schreit ja auch erst mal lieber nach niedrigeren Energiekosten, als sich um die Möglichkeiten des Energiesparens und vor allem dessen Umsetzung zu kümmern. Das könnte ein kleiner Anteil daran sein.
0ssi schrieb:
Nimmt man 4 moderne Spiele/Engines die etwas mit den zusätzlichen E Cores anfangen können
dann sieht man was die Zukunft bringen wird.
jo @0ssi, man kann eine Banane auch grade biegen. Vorschlag: Mach die Häkchen einfach wieder überall hin und gut is... oder nimm zusätzlich noch ein par andere Spiele dazu. Einfach die Test-Ergebnisse mal ein paar Tage sacken lassen, dann ist es nicht mehr so schlimm! Es geht nur um ein paar FPS und die "beste" Spiele-CPU und nicht um wirklich Wichtiges. ;)
 
  • Gefällt mir
Reaktionen: Pro_Bro, McFritte, dergraf1 und 4 andere
Tja, bitter für Intel.

Kein Wunder öffnen die sich als Auftragsfertiger.
Ist immerhin ein neues Standbein, wenn's bei X86 längerfristig nichts mehr wird.
 
  • Gefällt mir
Reaktionen: dergraf1 und StargazingKid
Convert schrieb:
Alle tun so, als würde der 3D-Cache immer 15 Prozent Leistung in Spielen einfach mal drauf packen. Dabei weiß man gar nicht welchen Effekt ein eventueller 3D-Cache bei Zen 4 haben wird.
Es kommt da eher auf den Workload des Spieles an und was da wichtig ist. Pauschal 15 % ist natürlich Bullshit und das sieht man auch hier im Test.

Nur sind die Verbesserungen, die du angibst, kein Garant dazu, dass man den großen L3-Cache auch kompensieren kann und selbst wenn, dann gibt es immer noch ein Argument für den großen L3-Cache, den man nicht einfach so wegreden kann.
Convert schrieb:
Wenn AMDs Zen 4 in Spielen schneller als Zen 3 ist ist, weil der L2-Cache verdoppelt worden ist
Die Verdoppelung des L2-Caches ist ja schön und gut bei Zen4, nur beschleunigt der L2-Cache erst mal nur den Task auf einem Kern. Bei modernen Spiele-Engines laufen aber ein paar mehr Tasks parallel ab, die synchronisiert werden müssen zu bestimmten Zeiten, wenn die Anweisungen an die GPU sollen.

Wenn die Daten hier aus den L3 fallen, weil er zu "klein" ist, dann muss man wieder über den Arbeitsspeicher gehen und verliert entsprechende Zeit, da nützt ein großer L2 auch nichts. Große L2-Caches sind für den Kern ansich toll, weil er mehr Daten für einen Task vorhalten kann, sobald mehrere Tasks im Spiel sind, hat sich das aber auch wieder.

Es hat schon einen Grund, warum Intel von ihrem "mehr L2, dafür weniger L3" weg ist und heute ein "mehr L2, mehr L3" umsetzt.
Convert schrieb:
weil der IF-Takt analog PCIe 5.0 schneller ist und weil schneller DDR5-Ram verbaut ist, dann wird ein zusätzlicher 3D-Cache eben einen kleineren Effekt auf die Performance haben, weil die aktuellen Limittierungen von Zen 3 bei Zen 4 schon ohne 3D-Cache ausgebessert werden.
Da es bei besitmmten Szenarien eher auf die Latenz ankommt, ist DDR5 nicht automatisch schneller und hat auch nicht unbedingt einen positiven Effekt auf die Performance.

Und selbst wenn man sehr schnellen RAM nimmt - was Latenzen angeht - und auch viel Bandbreite hat, ist der RAM immer noch langsamer als der L3-Cache und benötigt auch mehr Energie.

Man kann bei Zen4 von einer ähnlichen Auswirkung des 3D-Caches ausgehen, wie bei Zen3 bei bestimmten Szenarien, weil die Daten einfach deutlich näher an der CPU liegen und nicht den Umweg über den RAM machen. Es kann sogar passieren, dass Zen 4 sogar noch stärker von 3d-Cache profitiert, eben weil man dan L2-Cache und anderen Änderungen von einer höheren IPC ausgehen kann und die Daten eben noch schneller da sein müssen.

Schnelle Latenzen beim RAM als auch eine hohe Bandbreite beim RAM sind für Zen3 und Zen4 - sowie eben die Intel Pendants - eine Notwendigkeit. Mit Caches kann man den Faktor RAM etwas egalisieren, besser entschärfen - aber nicht minimieren.
0ssi schrieb:
Man darf sich aber von Benchmarks nicht blenden lassen, vor allem nicht wenn der Testparcours alt ist.
Das sind Momentaufnahmen und meist Software limitiert sprich Alder Lake wird nicht optimal genutzt.
Holla die Waldfee, man kann den 5800X3D durchaus kritisch sehen und sich fragen, ob es allgemein etwas bringt und wenn ja wieviel und ob pauschal auch überall.

Aber was du da gerade ablieferst ist an Verblendung kaum mehr zu überbieten. Age of Empires 4 und eine moderne Engine? Oder Cyberpunk 2077? FarCry 6? Echt jetzt?

Bitte nicht falsch verstehen, aber Cyberpunk 2077 ist zwar ein modernes Spiel, aber keines der von dir markierten Spiele steht wirklich für eine moderne Engine oder für eine nicht mehr moderne Engine.

Borderlands 3 basiert auf der Unreal Engine 4, klar die ist etwas älter, aber aktuell immer noch in Benutzung. Battlefield 2042 benutzt ebenso eine moderne Engine, die auch weit moderner ist als FarCry 6. Ghostwire: Tokyo? Ist auch auf einer modernen Engine und Co und von den Spielen da mit das "Jüngste", das man testen kann.

Man kann an der Stelle sogar schreiben, dass moderne Engines sogar stärker vom 3d-Cache profitierne werden, als älter Engines, weil hier mehr Tasks laufen, die auch Date austauschen müssen. Man kann - Stand Heute - nur Mutmaßungen abgeben. Was du machst ist aber eher peinlich, weil es die Realität vollkommen verdreht.
 
  • Gefällt mir
Reaktionen: LukS, dergraf1 und MasterAK

Das spricht denke ich mal für sich. Auch in Red Dead Redemption 2 ist der AMD absolut auf Augenhöhe mit dem 12900.
 
Also ich werde auch den 5800X3D kaufen. Mein PC ist eine Gaming Kiste.. alles andere was ich darauf mache braucht einfach keine Leistung und läuft auch so butterweich. Aber da der 5600X eh nur für den übergang gedacht war kommt jetzt der 8 kerner und dann ist das System für die nächsten Jahre total Top für mich. Dann kann ich die Kinderkrankheiten der ersten Zen4 CPUs abwarten. :)
 
  • Gefällt mir
Reaktionen: iron-man, dergraf1, Orok91 und 3 andere
Sunjy Kamikaze schrieb:
Also ich werde auch den 5800X3D kaufen. Mein PC ist eine Gaming Kiste.. alles andere was ich darauf mache braucht einfach keine Leistung und läuft auch so butterweich. Aber da der 5600X eh nur für den übergang gedacht war kommt jetzt der 8 kerner und dann ist das System für die nächsten Jahre total Top für mich. Dann kann ich die Kinderkrankheiten der ersten Zen4 CPUs abwarten. :)
Ähnlich siehts bei mir aus, sofern er denn morgen auch in ausreichender Stückzahl verfügbar ist.
 
  • Gefällt mir
Reaktionen: Kuestennebel79, Orok91 und Mosestogo
Sunjy Kamikaze schrieb:
Also ich werde auch den 5800X3D kaufen. Mein PC ist eine Gaming Kiste.. alles andere was ich darauf mache braucht einfach keine Leistung und läuft auch so butterweich. Aber da der 5600X eh nur für den übergang gedacht war kommt jetzt der 8 kerner und dann ist das System für die nächsten Jahre total Top für mich. Dann kann ich die Kinderkrankheiten der ersten Zen4 CPUs abwarten. :)
Same bei mir. Werde meinen 5600X gegen den 5800X3D tauschen und den 5600X meinem Bruder einbauen. Der hat noch irgendwas Ryzen 2x00 und ein kompatibles Mainboard.

Für mich persönlich sind "Workloads" unwichtig, da hätte mein alter 4770k auch gereicht, bei dem was ich mache ^^. Gaming PC und Ende.

Könnte mir sogar vorstellen, dass der 5800X3D bei dem ein oder anderen Spiel in Zukunft auch weiterhin vorne dabei ist, solange die neuen CPUs keine größeren L3-Caches haben :).
 
DevPandi schrieb:
Bitte nicht falsch verstehen, aber Cyberpunk 2077 ist zwar ein modernes Spiel, aber keines der von dir markierten Spiele steht wirklich für eine moderne Engine ...
Doch denn CP2077 ist von den TW3 Machern und die haben ihre RedEngine 3 einfach weiter entwickelt
sprich "modernisiert" und RedEngine 4 genannt, die vielleicht auch zukünftig zum Einsatz kommen wird.

Die Engine von Death Stranding kam doch bereits bei Horizon Zero Dawn zum Einsatz und wird ebenfalls
verbessert worden sein. Für Horizon Forbidden West bestimmt auch. Mal sehen wann es für PC kommt !?

Ubisoft's Dunia Engine der Far Cry Reihe wird logischerweise auch immer weiter entwickelt/modernisiert.
Klar ist Far Cry 6 kein gutes Spiel aber die Engine scheint in der Lage zu sein gut mit E Cores umzugehen.

Jede Engine wird weiter entwickelt, auch die CryEngine von Crytek und siehe da in der neuesten Version:

crysis3.jpg


DevPandi schrieb:
Battlefield 2042 benutzt ebenso eine moderne Engine, ...
Dazu finde ich leider keine Benchmarks aber wäre interessant. Die E Cores werden bereits gut genutzt:


DevPandi schrieb:
Man kann an der Stelle sogar schreiben, dass moderne Engines sogar stärker vom 3d-Cache profitierne werden, ...
Das ergibt keinen Sinn und darum geht es auch gar nicht also Niemand bezweifelt den Vorteil vom Cache
aber wenn die E Cores effektiver sind bzw. in Zukunft mehr Kerne besser sind dann lohnt es sich gar nicht
jetzt noch 500€ in 8 Kerne + Cache Boost zu investieren denn bald kommen 12-16 Kerne + Cache Boost.

Es geht hier also gar nicht um AMD vs. Intel sondern man kann meinen Standpunkt genauso gut einfach
für die kommenden AMD CPU's nehmen aber dazu muss man eben erst einmal die "rote Brille" absetzen.
 
Gortha schrieb:
Die meisten 5000er IMCs machen IF 1900 mit. Manche seltene Exemplare sogar zwischen 1900 udn 2000 oder 2000er IF. "Pech" kann man immer haben und nur 1800, 1833 oder 1867 Mhz IF schaffen.
Mein im Jänner 2021 gekaufter 5800x macht seit Tag eins den IF 2000 mit 2x8GB Samsung B-die bei 4000/18-18-18-36-54 und opt. Subtimings mit 1,35V Standardspannung mit.

Vorher ebenso problemlos waren X370/1600X/3200 FlareX CL14.
Gleiches X370 Board, 3700X mit gleichem FlareX bei 3600/CL16.
Detto eben mein jetziges B550 mit IF2000.
Die angeblich berühmten WHEA Errors kenne ich bisher nur vom Hörensagen.
 
  • Gefällt mir
Reaktionen: Gortha und b|ank0r
Bitte nicht! BF2042 für irgendwas als Referenz nehmen. Die Engine mag überarbeitet sein, aber läuft auf ausnahmslos jedem System wie Gülle. Imo hat gerade das Spiel nix in Benchmarks zu suchen. Das ist auch kein Vergleich zu den Vorgängern die alle wesentlich besser performt hatten bei gleichzeitig besserer Grafik.
Sieht man auch schön im Video oben, da dropt die GPU Auslastung zig mal und das egal bei welcher Auflösung. Die Engine ist einfach Schrott und erstmal keine Besserung in Sicht.
 
  • Gefällt mir
Reaktionen: LukS, grtty und Esenel
Hat eigentlich schon einmal jemand versucht den 5950X als 4+4 Kerner zu betreiben? Wäre interessant ob der dann größere L3 Cache pro Kern ebenfalls Vorteile bringt oder die Latenz der Interchip Kommunikation alles auffrisst...
 
Sunjy Kamikaze schrieb:
Also ich werde auch den 5800X3D kaufen. Mein PC ist eine Gaming Kiste.. alles andere was ich darauf mache braucht einfach keine Leistung und läuft auch so butterweich. Aber da der 5600X eh nur für den übergang gedacht war kommt jetzt der 8 kerner und dann ist das System für die nächsten Jahre total Top für mich. Dann kann ich die Kinderkrankheiten der ersten Zen4 CPUs abwarten. :)
Ich habe ein ähnliches System wie Du, aber mich gegen ein Upgrade entschieden. Welche Auflösung, FPS nutzt Du?
Bei UWQHD mit 100 Hz erwarte ich einfach nicht wirklich eine Verbesserung. Die CPU ist einfach kein relevanter Faktor.
Ergänzung ()

RoboHackfeld schrieb:
Ähnlich siehts bei mir aus, sofern er denn morgen auch in ausreichender Stückzahl verfügbar ist.
Vom 3600x hoch ok, aber vom 5600x würde ich nicht upgraden. Es sei denn, man spielt FHD bei 200-300 FPS
 
DevPandi schrieb:
Die Verdoppelung des L2-Caches ist ja schön und gut bei Zen4, nur beschleunigt der L2-Cache erst mal nur den Task auf einem Kern. Bei modernen Spiele-Engines laufen aber ein paar mehr Tasks parallel ab, die synchronisiert werden müssen zu bestimmten Zeiten, wenn die Anweisungen an die GPU sollen.

Wenn die Daten hier aus den L3 fallen, weil er zu "klein" ist, dann muss man wieder über den Arbeitsspeicher gehen und verliert entsprechende Zeit, da nützt ein großer L2 auch nichts. Große L2-Caches sind für den Kern ansich toll, weil er mehr Daten für einen Task vorhalten kann, sobald mehrere Tasks im Spiel sind, hat sich das aber auch wieder.

Es ist ja auch so, dass alles, was nicht in den L2-Cache reinpasst dann eben in den L3-Cache geladen wird, unabhängig davon, ob die anderen Kerne diese Daten brauchen oder nicht. Wenn der L2-Cache also bisher zu klein war und man den vergrößert, gibt es danach auch für Anwendungen mit mehreren parallelen Task mehr L3-Cache zur Verfügung, weil einfach weniger Daten aus dem L2-Cache in den L3-Cache ausgelagert werden. Aber klar, hier reden wir über 512KB pro Kern, die dazu kommen, das sind bei 8 Kernen also gerade mal 4 MB extra, also nicht zu vergleichen mit den 64MB, die bei X3D dazu kommen. Natürlich sind diese 4 MB extrem schnell, aber von der Menge können die auf jeden Fall nicht mithalten.
Wir wissen aber auch nicht, wie viel von den extra 64MB tatsächlich den meisten impact bringen und wie viel davon nur noch "Nice to have" ist und eher bei Epic gebraucht wird, als bei Ryzen in Games.

Und ja, du hast mich dahingehend überzeugt: Wenn die pure Rechenleistung der Kerne proportial zu der Datenversorung (größere Caches, schnelleres IF, schnellerer DDR5) steigt, dann wird der X3D wohl weiterhin einen guten Impact haben. Aber da wissen wir zu wenig bis gar nichs über die neuen Zen 4-Kerne
 
I'm unknown schrieb:
Hat eigentlich schon einmal jemand versucht den 5950X als 4+4 Kerner zu betreiben? Wäre interessant ob der dann größere L3 Cache pro Kern ebenfalls Vorteile bringt oder die Latenz der Interchip Kommunikation alles auffrisst...
Nach meiner Erfahrung ist es so, dass die meisten Anwendungen, die mit dem Cache skalieren, dann wieder Performance verlieren, wenn sie über die Dies verteilt werden. Ein extremes Beispiel dafür ist z.B. WinRAR. Da erzielt man im Benchmark den besten Durchsatz, wenn man es 2mal startet und jede Instanz auf einen Die pinnt.
 
Ja um 15 Uhr ist release. Wo kauft man denn CPUs bei Release? Nur über AMD oder auch bei MF etc? Gabs da Ankündigungen?
 
Zurück
Oben