Test AMD Ryzen 7 9800X3D im Test: 9000X3D gegen 7800X3D, 5800X3D & Intel Core Ultra

Mein persönliches Faxit:

Denke bin mit dem 5800X3D gut bedient. Ein kompletter Plattformwechsel lohnt sich da nicht. GPU wäre noch zum upgraden, und dann eventuell auf die nächste Generation warten.
 
  • Gefällt mir
Reaktionen: Nightlight 76, Bulletchief, DerToerke und eine weitere Person
Youngtimer schrieb:
Bitteschön. 1% low UHD: https://www.techpowerup.com/review/amd-ryzen-7-9800x3d/21.html

9800x3D: 77,8 FPS
5800x3D: 75,7 FPS
Zu @danyundsahne als Ergänzung:
Oder es kommen in den kommenden Jahren neue Spiele, die die CPU sehr fordern (besonders mit hohen Einstellungen), und wo ein 9800X3D dann noch 60fps zaubert, gurkt ein 5800X3D bei 40fps rum. Das wird dann mindestens für diejenigen interessant, die ihre CPU ein paar Jahre behalten.
Ergänzung ()

Zerbich schrieb:
Viele haben eine 4090 für high FPS und nicht 4k :-)
Oder auch beides. Mit DLSS und den richtigen Spielen schafft sie das ja.
Wer in 4K 144fps spielen will, muss auf GPU und CPU sehr genau achten.
 
  • Gefällt mir
Reaktionen: SweetOhm und danyundsahne
Zwirbelkatz schrieb:
Die Form der Darreichung ist in der Regel nicht das Problem.
Wer nicht lesen will, liest nicht.
Dann auch bitte mit reinschreiben das dass Betteln für Test im GPU Limit in einem zum CPU Test dazu gehörenden Thread nicht erwünscht ist. Zuwiederhandlung wird verwarnt und dafür kann man auch gebannt werden. Nur ein Vorschlag...

Kann doch echt nicht sein das Leute jahrelang in eine PCHardware Internetseite angemeldet sind und zu blöd sind zum Lesen und Verstehen.

Mich nervt das nur noch. Bei allen CPU Test der gleiche Blödsinn.
 
  • Gefällt mir
Reaktionen: SweetOhm, K3ks und KarlsruheArgus
ebird schrieb:
Das ist ein Business Notebook mit den Vorgaben des CPU Herstellers und kein Gigabyte oder irgendein Gaming Notebook.
? Auch bei Business Geräten betreiben die Hersteller gern sonstwas und frickeln an den TDPup rum.
 
NoNameNoHonor schrieb:
Es geht aber nicht nur um theoretisch erzielbare Werte, sondern auch um das, was dann tatsächlich in der Praxis eine Rolle spielt. Fakt ist auch, dass bei den FPS Zahlen in WQHD und mit einer 4090 es maximal 10% Unterschied zwischen 9800X3D und 5800X3D gibt. Da gibt es nichts wegzudiskutieren.
Das ist tatsächlich komplett falsch. Ich verstehe wie man darauf kommen kann so was zu behaupten, aber es ist komplett falsch. Und wenn ich dir jetzt erklären würde warum, würdest du Schnappatmung bekommen und mir anschließend langatmig erklären das alles was ich aufliste du nicht so gemeint hast und mir genau erklären warum du unter bestimmten Umständen recht hast.


Und unter bestimmten Umständen, also so theoretisch hast du auch recht. Und der Praxis halt nicht. Aber auf eine Diskussion wo dann die Goal-Posts ständig verschoben werden und jemand dann sowas wie "aber mit Ultra Details limitiert die GPU doch" oder "aber wer spielt schon den MSFS" etc dann antworten wird ... da lass ich mich gar nicht drauf ein.

Schönen Tag noch. ;-)

nicedayforfishing.jpg
 
  • Gefällt mir
Reaktionen: SweetOhm, Platin, Powl_0 und 2 andere
Ich schnall nicht wie er in Multicore (CB24) -45% schlechter ist als Intel.

Aber bis zu 50% mehr FPS hat :watt:
1000009622.jpg
 
Zuletzt bearbeitet:
Volker schrieb:
Was aber auch nur diesen Moment stimmt und auch nicht das Komplettbild zeigt. Im nächsten Monat mit ner RTX 5090 sind es in Grenzszenarien dann plötzlich evtl 30%. Denn plötzlich wird da irgendwo nämlich doch die CPU wichtig, was ja kurioserweise hier schon so getestet und gezeigt wurde. Dann ist der 5800X3D schnell ein Alteisen^^
Das funktioniert argumentativ aber nur, wenn du rein die GPU Leistung steigerst ohne gleichsam mit der Zeit zu gehen und die Annwendungen mit zu erneuern. Denn im Schnitt steigt die Anforderung der Anwendungen auf der CPU Seite eben.

Das Ding ist, FPS durch Latenzreduktion erreicht erzeugt im Moment des Benchmarks viel Performance, wenn die FPS stark vom Cache beeinflusst wird. Ändert sich aber das Verhältnis bzw. durch neuere Anwendungen hin zu einer Limitation er Rechenwerke anstatt des Caches, dann sinkt auch der Vorteil des Caches.

Soll heißen, wenn ich ein Game benche, wo ich 500 FPS erziele, dann wirkt der Cache auch 500x pro Sekunde. Wenn ich morgen aber ein Game habe, was auch in realitätsfremden Settings nur 50 FPS erzeugt, dann bringt mir der Cache real deutlich weniger, obwohl er den selben Einfluss hat. Nur eben anstatt 500x nur 50x. 500x 1ms fiktive Latenzeinsparung sind eben bei 1000ms pro Zeitfenster der "Frames pro Sekunde" logisch auch viel viel mehr "Gewinn" als nur 50x diese 1ms fiktiv einzusparen.

Das ist reine Mathematik - die Latenz ist statisch. Die ist quasi immer gleich. Um so öfter diese statisch quasi gleich hohe Latenz pro Messeinheit involviert ist, desto mehr bringt es, wenn man diese Latenz reduzieren kann. (bspw. durch viel mehr Cache - und damit schnellere Reaktionsmöglichkeit)

Man sieht in den Szenen, wo die X3D Modelle sind nicht viel von den non X3D absetzen können, dass es natürlich auch andere Szenarien gibt. Die Frage ist halt am Ende, was bringt es einem als Spieler? Der Anteil der Szenen in einem Titel, der CPU Rechenwerkslimitiert sein wird, wird definitiv mit der Zeit steigen durch neuere Titel. Cache ist zwar auch dort wahrscheinlich weiterhin "King" - aber mit geringerem Anteil. Gehst du in der Vergangenheit weit zurück, wirst du da auch ne Kurve beobachten. Denn um so geringer der Einfluss der Rechenwerke, desto mehr bringt der Cache. Gehst du zu weit zurück, kippt das wieder, weil irgendwann der Cache so viel Zeit gespaart hat, dass die Rechenwerke wieder limitieren. Aktuell ist das Verhältnis recht unausgewogen. Die hohen Latenzen in der IF behindern die Rechenwerke der CPU deutlich, wie die non X3D CPUs klar belegen.
 
  • Gefällt mir
Reaktionen: Quidproquo77
NoNameNoHonor schrieb:
Mir ging es um den Praxis-Wert, nicht um eine theoretische Zahl.
Dann schau dir einen Test zur CPU sowie zur GPU an und nimm den kleineren der zwei Werte. Dann hast du deinen Praxiswert.

Holy sh*t, wieso will das nicht in eure Köpfe rein? Es ist wirklich nicht so schwer zu verstehen.

Wenn du dann siehst, dass deine GPU nicht schnell genug ist, um von der neuen CPU zu profitieren, dann kaufste sie nicht. Fertig. Oder wenn du siehst, dass du so hohe Bildraten gar nicht brauchst. Fertig. Oder eben andersherum. Fertig. Dann brauchst du auch kein Händchenhalten von jedem neuen Test, wo sich ein Redakteur mit genau deiner spezifischen Kombi beschäftigen müsste.
 
  • Gefällt mir
Reaktionen: SweetOhm und danyundsahne
Regonaut schrieb:
Ich schnall nicht wie er in Multicore (CB24) -45% schlechter ist als Intel.

Aber bis zu 50% mehr FPS hat :watt:
Anhang anzeigen 1541072
Du vergleichst nen 8 kerner von AMD mit einem 24 Kerner von Intel, dieser wird natürlich in Anwendungen schneller sein. Die meißten Games verwenden nicht viele Kerne und lieben Cache, deswegen sind die x3ds den Intel dort so überlegen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Regonaut schrieb:
Aber bis zu 50% mehr FPS hat :watt:
Weil man wie quasi überall in Game Benchmarks "FPS" als Maßeinheit nutzt. Und FPS sind wie der Name schon sagt, das quasi fast immer gleiche Rechenergebnis möglichst oft in der Sekunde immer neu zu berechnen. Das ist eine Paradedisziplin für Modelle mit viel Cache, weil dadurch sehr viel Zeit anteilig pro Sekunde eingespart wird, die die CPU eben dann nicht auf Daten wartet oder auf das Ablegen von Daten.

Um das bildlich zu benennen, wenn du für jede Aktion, die du im Haushalt machst, erst das Telefon in den Hand nehmen würdest und bei deinem Partner nachfragen müsstest, ob das OK ist, dann würdest du für jede Aktion extrem viel Zeit mit Warten verschwenden.
Cache ist hier wie die Abkürzung, dass du gar nicht fragen musst, sondern einfach machen kannst. Um so öfter du fragen musst, also je mehr Aktionen du durchführst, desto höher auch der Vorteil wenn man das einsparen kann. Wie auch in diesem bildlichen Beispiel ist der Messzeitraum statisch (24h bzw. eben eine Sekunde bei den FPS) - und die Zeit die es Dauert bis die Antwort kommt (Telefon zücken und durchbimmeln) ist auch statisch, genau so wie die IF Latenz von CCD zu IO Die und RAM.


In Multithread Benchmarks ist das je nach Szenario komplett anders. Da ist die Latenz eher unwichtig. Vor allem wenn mit Workloads gearbeitet wird, die mit viel kleineren Caches abhandelbar sind oder wo wenig Daten rein- oder raus gebracht werden müssen. Bei Games hingegen ist bei FPS wie gesagt die Latenz starker Bremsklotz. Die 200er Intel CPUs sind mit Tiles und MCM auch ähnlich AMDs MCM Ansatz anfällig für hohe Latenzen. Vielleicht huckepackt Intel auch irgendwann mal nen Cache drauf, dann wird sich das Thema zumindest etwas glätten.
 
  • Gefällt mir
Reaktionen: Apocalypse, Quidproquo77 und Regonaut
Youngtimer schrieb:
Bricht man sich denn so einen Zacken aus der Krone, neben 720p, 1-2 relevante Auflösungen eben mit zu testen?
Das ist doppelter bis dreifacher Arbeitsaufwand...für Information, die kaum neue Aussagekraft hat.
 
  • Gefällt mir
Reaktionen: Veitograf, SweetOhm, frazzlerunning und eine weitere Person
Hallo zusammen,

@Volker
Volker schrieb:
Im nächsten Monat mit ner RTX 5090 sind es in Grenzszenarien dann plötzlich evtl 30%. Denn plötzlich wird da irgendwo nämlich doch die CPU wichtig, was ja kurioserweise hier schon so getestet und gezeigt wurde. Dann ist der 5800X3D schnell ein Alteisen
Nicht daß ich Unken will, aber ich behaupte einfach mal, niemand aus unseren Gefilden hier wird sich eine RTX 5090 in die Mühle setzen, der einen 5800x3d drin hat. Im Leben nicht.

Eher wird jemand einen 9800x3d und eine RT 5090 kombinieren wenn er von Grund auf sein System erneuert bzw. Neu baut.

Aber auch sonstig würde es nicht gleichbedeutend damit sein, daß der 5800x3d dann gleich zum Alteisen gehören würde. Gerade wenn man überlegt, in welchem Frame-Bereich man sich mit so einer GPU dann bewegen dürfte.

Das dürften am Ende sogar die wenigsten überhaupt spüren, außer in Benches vor Augen geführt bekommen durch "Zahlenwerk". Und auch hier geht es dann am Ende nur darum, das tatsächliche Potential zu Eruieren.

Inwieweit das spürbar ist oder gar Sinn macht, steht immer auch auf einem anderen Tablet. Das muß halt wie üblich jeder für sich selbst bewerten.

So sehe ich das jedenfalls.

So long...
 
Zuletzt bearbeitet:
highwind01 schrieb:
5800X3D ist mit einer (noch) aktuellen 4090 in einem aktuellen Spiel in 4K auch heute noch genau so unerheblich schneller im Vergleich zum 5800X non-3D,
Falsch. Spiel an Settings oder Upscaling, um 4K mit high refresh zu schaffen und schon hängt der 5800X merklich zurück. Oder nimm einfach eins der aktuell sehr CPU-lastigen Spiele, in denen ein 5800X schon nicht mehr hoch zweistellig schafft, die 4090 aber schon.
 
  • Gefällt mir
Reaktionen: Apocalypse
sethdiabolos schrieb:
Schöne CPU und sicher auch für viele einen Kauf wert. Bei meinen Usecase limitiert mich nach wie vor die 4090, denke mal ich kann locker noch 1-2 Generationen aussetzen.
Ich habe ein ähnliches System und werde zumindest versuchen bis AM6 durchzuhalten.

Bis jetzt werden meine angestrebten 120 FPS von der CPU erreicht.
 
  • Gefällt mir
Reaktionen: Luxmanl525
highwind01 schrieb:
Schwer daran zu verstehen ist der fehlende Realitätsbezug… ein 4,5 Jahre alter 5800X3D ist mit einer (noch) aktuellen 4090 in einem aktuellen Spiel in 4K auch heute noch genau so unerheblich schneller im Vergleich zum 5800X non-3D, wie er es damals war. Und das wird sich auch nächstes Jahr mit einer 5090 nicht ändern.
So ist es. Und da ich auch ein paar Core-skalierende Dinge auf meinem Rechner mache, habe ich als "letztes" Upgrade meiner Plattform den 5950X gewählt, der für 260€ immer noch eine wahnsinnig tolle CPU ist.

Meine RX6800 (und sicherlich auch die RX8000, wenn sie was taugt) wird in WQHD und hohen Details immer noch gut versorgt. 👍
Es gibt sicherlich Szenarien (Upscaling für High Refresh z.B. und vor allem in den wichtigen Min FPS) wo der X3D wieder vorne liegen kann und es ist auch wirklich ein tolles Stück Technik, aber für meinen use case lohnt es nicht. :)
Bisher ist meine Erfahrung allerdings, dass ich die GPU zu 100% ausgelastet kriege.
 
Juri-Bär schrieb:
Es ist schon krass, wie sehr die "Krone des Gamings" in einem Spiel gegen den neuen Core Ultra 285K mit schnellem RAM abfällt:
Verschiedene Spiele reagieren auf verschiedene CPUs/ GPUs halt anders. War schon immer so. Guck dir Anno an, da ist der 9800X3D einfach mal 55% vor dem Intel 285k. Findet man immer, in beide Richtungen.
Ergänzung ()


AMDINTEL.png

Serandi schrieb:
Was bringt mir ein 9800X3D gegenüber einem 5800X3D, wenn ich in 4k@120Hz bei 116 cap only zocke?
Je nach Spiel gar nichts, je nachdem SEHR viel.
 
  • Gefällt mir
Reaktionen: SweetOhm, eXe777, McFritte und eine weitere Person
Youngtimer schrieb:
Dann nimmt man wie alle anderen Reviewer das was eh schon eingebaut ist. Eine 4090 und den 4K Monitor. Ab Januar dann wahrscheinlich die 5090.
Schön für die die eine 4090 haben. Aber was ist mit den Leute die keine 4090 haben? Die wollen dann auch das mit ihrer GK gestetest wird.
So viel kann man gar nicht testen. Da wird man ja nie fertig.
 
highwind01 schrieb:
Schwer daran zu verstehen ist der fehlende Realitätsbezug… ein 4,5 Jahre alter 5800X3D ist mit einer (noch) aktuellen 4090 in einem aktuellen Spiel in 4K auch heute noch genau so unerheblich schneller im Vergleich zum 5800X non-3D, wie er es damals war. Und das wird sich auch nächstes Jahr mit einer 5090 nicht ändern.
Das GPU Limit künstlich aufzuheben bzw. maximal zu reduzieren obwohl es nicht den Ansatz einen Hinweises darauf gibt, dass es „im Alltag“ irgendwann irrelevant wird (eher im Gegenteil), ist schlicht und ergreifend realitätsfern! Es ist quasi das Pendant zur Abschalteinrichtung an einem KFZ - „Schöne Zahlen für den Teststand, die nichts mit dem Einsatz im Straßenverkehr zu tun haben“
Genau das geht mir seit Tagen durch den Kopf. AMD und eigentlich auch Intel haben astreine CPUs vorgestellt,
und die Benchmark Ergebnisse sind riesig besonders die der neuen AMD CPU. Allerdings bin ich dann auf 4K Spiele Benchmark Tests gestoßen. Da schneidet mein 12900 K mit einer RTX 4090 gerade mal zwischen 2 bis 3 % schlechter ab als die Ryzen 7 9800X3D ab.
Und ich wollte auch kaufen, jetzt erstmal nicht mehr. :cool_alt:
 
  • Gefällt mir
Reaktionen: Youngtimer
hergesknapp schrieb:
ch stelle aktuell ein AMD zusammen. Was würdet ihr empfehlen? 7950x3d oder 9800x3d?
Überwiegend wird gezockt, eher selten mal ein Video geschnitten bzw. gestreamt.
Herzlichen Dank vorab
9800x3d
 
Zurück
Oben