Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Ryzen 7 9800X3D im Test: 9000X3D gegen 7800X3D, 5800X3D & Intel Core Ultra
Powl_0
Commodore
- Registriert
- Sep. 2018
- Beiträge
- 4.342
Zu @danyundsahne als Ergänzung:Youngtimer schrieb:Bitteschön. 1% low UHD: https://www.techpowerup.com/review/amd-ryzen-7-9800x3d/21.html
9800x3D: 77,8 FPS
5800x3D: 75,7 FPS
Oder es kommen in den kommenden Jahren neue Spiele, die die CPU sehr fordern (besonders mit hohen Einstellungen), und wo ein 9800X3D dann noch 60fps zaubert, gurkt ein 5800X3D bei 40fps rum. Das wird dann mindestens für diejenigen interessant, die ihre CPU ein paar Jahre behalten.
Ergänzung ()
Oder auch beides. Mit DLSS und den richtigen Spielen schafft sie das ja.Zerbich schrieb:Viele haben eine 4090 für high FPS und nicht 4k :-)
Wer in 4K 144fps spielen will, muss auf GPU und CPU sehr genau achten.
Gnodab
Lieutenant
- Registriert
- Aug. 2012
- Beiträge
- 997
Dann auch bitte mit reinschreiben das dass Betteln für Test im GPU Limit in einem zum CPU Test dazu gehörenden Thread nicht erwünscht ist. Zuwiederhandlung wird verwarnt und dafür kann man auch gebannt werden. Nur ein Vorschlag...Zwirbelkatz schrieb:Die Form der Darreichung ist in der Regel nicht das Problem.
Wer nicht lesen will, liest nicht.
Kann doch echt nicht sein das Leute jahrelang in eine PCHardware Internetseite angemeldet sind und zu blöd sind zum Lesen und Verstehen.
Mich nervt das nur noch. Bei allen CPU Test der gleiche Blödsinn.
Powl_0
Commodore
- Registriert
- Sep. 2018
- Beiträge
- 4.342
? Auch bei Business Geräten betreiben die Hersteller gern sonstwas und frickeln an den TDPup rum.ebird schrieb:Das ist ein Business Notebook mit den Vorgaben des CPU Herstellers und kein Gigabyte oder irgendein Gaming Notebook.
Apocalypse
Rear Admiral
- Registriert
- Okt. 2012
- Beiträge
- 5.821
Das ist tatsächlich komplett falsch. Ich verstehe wie man darauf kommen kann so was zu behaupten, aber es ist komplett falsch. Und wenn ich dir jetzt erklären würde warum, würdest du Schnappatmung bekommen und mir anschließend langatmig erklären das alles was ich aufliste du nicht so gemeint hast und mir genau erklären warum du unter bestimmten Umständen recht hast.NoNameNoHonor schrieb:Es geht aber nicht nur um theoretisch erzielbare Werte, sondern auch um das, was dann tatsächlich in der Praxis eine Rolle spielt. Fakt ist auch, dass bei den FPS Zahlen in WQHD und mit einer 4090 es maximal 10% Unterschied zwischen 9800X3D und 5800X3D gibt. Da gibt es nichts wegzudiskutieren.
Und unter bestimmten Umständen, also so theoretisch hast du auch recht. Und der Praxis halt nicht. Aber auf eine Diskussion wo dann die Goal-Posts ständig verschoben werden und jemand dann sowas wie "aber mit Ultra Details limitiert die GPU doch" oder "aber wer spielt schon den MSFS" etc dann antworten wird ... da lass ich mich gar nicht drauf ein.
Schönen Tag noch. ;-)
Das funktioniert argumentativ aber nur, wenn du rein die GPU Leistung steigerst ohne gleichsam mit der Zeit zu gehen und die Annwendungen mit zu erneuern. Denn im Schnitt steigt die Anforderung der Anwendungen auf der CPU Seite eben.Volker schrieb:Was aber auch nur diesen Moment stimmt und auch nicht das Komplettbild zeigt. Im nächsten Monat mit ner RTX 5090 sind es in Grenzszenarien dann plötzlich evtl 30%. Denn plötzlich wird da irgendwo nämlich doch die CPU wichtig, was ja kurioserweise hier schon so getestet und gezeigt wurde. Dann ist der 5800X3D schnell ein Alteisen^^
Das Ding ist, FPS durch Latenzreduktion erreicht erzeugt im Moment des Benchmarks viel Performance, wenn die FPS stark vom Cache beeinflusst wird. Ändert sich aber das Verhältnis bzw. durch neuere Anwendungen hin zu einer Limitation er Rechenwerke anstatt des Caches, dann sinkt auch der Vorteil des Caches.
Soll heißen, wenn ich ein Game benche, wo ich 500 FPS erziele, dann wirkt der Cache auch 500x pro Sekunde. Wenn ich morgen aber ein Game habe, was auch in realitätsfremden Settings nur 50 FPS erzeugt, dann bringt mir der Cache real deutlich weniger, obwohl er den selben Einfluss hat. Nur eben anstatt 500x nur 50x. 500x 1ms fiktive Latenzeinsparung sind eben bei 1000ms pro Zeitfenster der "Frames pro Sekunde" logisch auch viel viel mehr "Gewinn" als nur 50x diese 1ms fiktiv einzusparen.
Das ist reine Mathematik - die Latenz ist statisch. Die ist quasi immer gleich. Um so öfter diese statisch quasi gleich hohe Latenz pro Messeinheit involviert ist, desto mehr bringt es, wenn man diese Latenz reduzieren kann. (bspw. durch viel mehr Cache - und damit schnellere Reaktionsmöglichkeit)
Man sieht in den Szenen, wo die X3D Modelle sind nicht viel von den non X3D absetzen können, dass es natürlich auch andere Szenarien gibt. Die Frage ist halt am Ende, was bringt es einem als Spieler? Der Anteil der Szenen in einem Titel, der CPU Rechenwerkslimitiert sein wird, wird definitiv mit der Zeit steigen durch neuere Titel. Cache ist zwar auch dort wahrscheinlich weiterhin "King" - aber mit geringerem Anteil. Gehst du in der Vergangenheit weit zurück, wirst du da auch ne Kurve beobachten. Denn um so geringer der Einfluss der Rechenwerke, desto mehr bringt der Cache. Gehst du zu weit zurück, kippt das wieder, weil irgendwann der Cache so viel Zeit gespaart hat, dass die Rechenwerke wieder limitieren. Aktuell ist das Verhältnis recht unausgewogen. Die hohen Latenzen in der IF behindern die Rechenwerke der CPU deutlich, wie die non X3D CPUs klar belegen.
Powl_0
Commodore
- Registriert
- Sep. 2018
- Beiträge
- 4.342
Dann schau dir einen Test zur CPU sowie zur GPU an und nimm den kleineren der zwei Werte. Dann hast du deinen Praxiswert.NoNameNoHonor schrieb:Mir ging es um den Praxis-Wert, nicht um eine theoretische Zahl.
Holy sh*t, wieso will das nicht in eure Köpfe rein? Es ist wirklich nicht so schwer zu verstehen.
Wenn du dann siehst, dass deine GPU nicht schnell genug ist, um von der neuen CPU zu profitieren, dann kaufste sie nicht. Fertig. Oder wenn du siehst, dass du so hohe Bildraten gar nicht brauchst. Fertig. Oder eben andersherum. Fertig. Dann brauchst du auch kein Händchenhalten von jedem neuen Test, wo sich ein Redakteur mit genau deiner spezifischen Kombi beschäftigen müsste.
Du vergleichst nen 8 kerner von AMD mit einem 24 Kerner von Intel, dieser wird natürlich in Anwendungen schneller sein. Die meißten Games verwenden nicht viele Kerne und lieben Cache, deswegen sind die x3ds den Intel dort so überlegen.Regonaut schrieb:Ich schnall nicht wie er in Multicore (CB24) -45% schlechter ist als Intel.
Aber bis zu 50% mehr FPS hat
Anhang anzeigen 1541072
Weil man wie quasi überall in Game Benchmarks "FPS" als Maßeinheit nutzt. Und FPS sind wie der Name schon sagt, das quasi fast immer gleiche Rechenergebnis möglichst oft in der Sekunde immer neu zu berechnen. Das ist eine Paradedisziplin für Modelle mit viel Cache, weil dadurch sehr viel Zeit anteilig pro Sekunde eingespart wird, die die CPU eben dann nicht auf Daten wartet oder auf das Ablegen von Daten.Regonaut schrieb:Aber bis zu 50% mehr FPS hat
Um das bildlich zu benennen, wenn du für jede Aktion, die du im Haushalt machst, erst das Telefon in den Hand nehmen würdest und bei deinem Partner nachfragen müsstest, ob das OK ist, dann würdest du für jede Aktion extrem viel Zeit mit Warten verschwenden.
Cache ist hier wie die Abkürzung, dass du gar nicht fragen musst, sondern einfach machen kannst. Um so öfter du fragen musst, also je mehr Aktionen du durchführst, desto höher auch der Vorteil wenn man das einsparen kann. Wie auch in diesem bildlichen Beispiel ist der Messzeitraum statisch (24h bzw. eben eine Sekunde bei den FPS) - und die Zeit die es Dauert bis die Antwort kommt (Telefon zücken und durchbimmeln) ist auch statisch, genau so wie die IF Latenz von CCD zu IO Die und RAM.
In Multithread Benchmarks ist das je nach Szenario komplett anders. Da ist die Latenz eher unwichtig. Vor allem wenn mit Workloads gearbeitet wird, die mit viel kleineren Caches abhandelbar sind oder wo wenig Daten rein- oder raus gebracht werden müssen. Bei Games hingegen ist bei FPS wie gesagt die Latenz starker Bremsklotz. Die 200er Intel CPUs sind mit Tiles und MCM auch ähnlich AMDs MCM Ansatz anfällig für hohe Latenzen. Vielleicht huckepackt Intel auch irgendwann mal nen Cache drauf, dann wird sich das Thema zumindest etwas glätten.
Powl_0
Commodore
- Registriert
- Sep. 2018
- Beiträge
- 4.342
Das ist doppelter bis dreifacher Arbeitsaufwand...für Information, die kaum neue Aussagekraft hat.Youngtimer schrieb:Bricht man sich denn so einen Zacken aus der Krone, neben 720p, 1-2 relevante Auflösungen eben mit zu testen?
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.153
Hallo zusammen,
@Volker
Eher wird jemand einen 9800x3d und eine RT 5090 kombinieren wenn er von Grund auf sein System erneuert bzw. Neu baut.
Aber auch sonstig würde es nicht gleichbedeutend damit sein, daß der 5800x3d dann gleich zum Alteisen gehören würde. Gerade wenn man überlegt, in welchem Frame-Bereich man sich mit so einer GPU dann bewegen dürfte.
Das dürften am Ende sogar die wenigsten überhaupt spüren, außer in Benches vor Augen geführt bekommen durch "Zahlenwerk". Und auch hier geht es dann am Ende nur darum, das tatsächliche Potential zu Eruieren.
Inwieweit das spürbar ist oder gar Sinn macht, steht immer auch auf einem anderen Tablet. Das muß halt wie üblich jeder für sich selbst bewerten.
So sehe ich das jedenfalls.
So long...
@Volker
Nicht daß ich Unken will, aber ich behaupte einfach mal, niemand aus unseren Gefilden hier wird sich eine RTX 5090 in die Mühle setzen, der einen 5800x3d drin hat. Im Leben nicht.Volker schrieb:Im nächsten Monat mit ner RTX 5090 sind es in Grenzszenarien dann plötzlich evtl 30%. Denn plötzlich wird da irgendwo nämlich doch die CPU wichtig, was ja kurioserweise hier schon so getestet und gezeigt wurde. Dann ist der 5800X3D schnell ein Alteisen
Eher wird jemand einen 9800x3d und eine RT 5090 kombinieren wenn er von Grund auf sein System erneuert bzw. Neu baut.
Aber auch sonstig würde es nicht gleichbedeutend damit sein, daß der 5800x3d dann gleich zum Alteisen gehören würde. Gerade wenn man überlegt, in welchem Frame-Bereich man sich mit so einer GPU dann bewegen dürfte.
Das dürften am Ende sogar die wenigsten überhaupt spüren, außer in Benches vor Augen geführt bekommen durch "Zahlenwerk". Und auch hier geht es dann am Ende nur darum, das tatsächliche Potential zu Eruieren.
Inwieweit das spürbar ist oder gar Sinn macht, steht immer auch auf einem anderen Tablet. Das muß halt wie üblich jeder für sich selbst bewerten.
So sehe ich das jedenfalls.
So long...
Zuletzt bearbeitet:
Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 15.351
Vielleicht mal andere Spiele testen. Ich bekomme in 4K 20% mehr Leistungscootiewolff22 schrieb:ielleicht mal Linus sehen
Powl_0
Commodore
- Registriert
- Sep. 2018
- Beiträge
- 4.342
Falsch. Spiel an Settings oder Upscaling, um 4K mit high refresh zu schaffen und schon hängt der 5800X merklich zurück. Oder nimm einfach eins der aktuell sehr CPU-lastigen Spiele, in denen ein 5800X schon nicht mehr hoch zweistellig schafft, die 4090 aber schon.highwind01 schrieb:5800X3D ist mit einer (noch) aktuellen 4090 in einem aktuellen Spiel in 4K auch heute noch genau so unerheblich schneller im Vergleich zum 5800X non-3D,
_Flattermann_
Lt. Junior Grade
- Registriert
- Dez. 2013
- Beiträge
- 465
Ich habe ein ähnliches System und werde zumindest versuchen bis AM6 durchzuhalten.sethdiabolos schrieb:Schöne CPU und sicher auch für viele einen Kauf wert. Bei meinen Usecase limitiert mich nach wie vor die 4090, denke mal ich kann locker noch 1-2 Generationen aussetzen.
Bis jetzt werden meine angestrebten 120 FPS von der CPU erreicht.
SFFox
Lt. Commander
- Registriert
- Dez. 2010
- Beiträge
- 1.574
So ist es. Und da ich auch ein paar Core-skalierende Dinge auf meinem Rechner mache, habe ich als "letztes" Upgrade meiner Plattform den 5950X gewählt, der für 260€ immer noch eine wahnsinnig tolle CPU ist.highwind01 schrieb:Schwer daran zu verstehen ist der fehlende Realitätsbezug… ein 4,5 Jahre alter 5800X3D ist mit einer (noch) aktuellen 4090 in einem aktuellen Spiel in 4K auch heute noch genau so unerheblich schneller im Vergleich zum 5800X non-3D, wie er es damals war. Und das wird sich auch nächstes Jahr mit einer 5090 nicht ändern.
Meine RX6800 (und sicherlich auch die RX8000, wenn sie was taugt) wird in WQHD und hohen Details immer noch gut versorgt. 👍
Es gibt sicherlich Szenarien (Upscaling für High Refresh z.B. und vor allem in den wichtigen Min FPS) wo der X3D wieder vorne liegen kann und es ist auch wirklich ein tolles Stück Technik, aber für meinen use case lohnt es nicht.
Bisher ist meine Erfahrung allerdings, dass ich die GPU zu 100% ausgelastet kriege.
Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 15.351
Verschiedene Spiele reagieren auf verschiedene CPUs/ GPUs halt anders. War schon immer so. Guck dir Anno an, da ist der 9800X3D einfach mal 55% vor dem Intel 285k. Findet man immer, in beide Richtungen.Juri-Bär schrieb:Es ist schon krass, wie sehr die "Krone des Gamings" in einem Spiel gegen den neuen Core Ultra 285K mit schnellem RAM abfällt:
Ergänzung ()
Je nach Spiel gar nichts, je nachdem SEHR viel.Serandi schrieb:Was bringt mir ein 9800X3D gegenüber einem 5800X3D, wenn ich in 4k@120Hz bei 116 cap only zocke?
Schön für die die eine 4090 haben. Aber was ist mit den Leute die keine 4090 haben? Die wollen dann auch das mit ihrer GK gestetest wird.Youngtimer schrieb:Dann nimmt man wie alle anderen Reviewer das was eh schon eingebaut ist. Eine 4090 und den 4K Monitor. Ab Januar dann wahrscheinlich die 5090.
So viel kann man gar nicht testen. Da wird man ja nie fertig.
Platin
Ensign
- Registriert
- Sep. 2002
- Beiträge
- 194
Genau das geht mir seit Tagen durch den Kopf. AMD und eigentlich auch Intel haben astreine CPUs vorgestellt,highwind01 schrieb:Schwer daran zu verstehen ist der fehlende Realitätsbezug… ein 4,5 Jahre alter 5800X3D ist mit einer (noch) aktuellen 4090 in einem aktuellen Spiel in 4K auch heute noch genau so unerheblich schneller im Vergleich zum 5800X non-3D, wie er es damals war. Und das wird sich auch nächstes Jahr mit einer 5090 nicht ändern.
Das GPU Limit künstlich aufzuheben bzw. maximal zu reduzieren obwohl es nicht den Ansatz einen Hinweises darauf gibt, dass es „im Alltag“ irgendwann irrelevant wird (eher im Gegenteil), ist schlicht und ergreifend realitätsfern! Es ist quasi das Pendant zur Abschalteinrichtung an einem KFZ - „Schöne Zahlen für den Teststand, die nichts mit dem Einsatz im Straßenverkehr zu tun haben“
und die Benchmark Ergebnisse sind riesig besonders die der neuen AMD CPU. Allerdings bin ich dann auf 4K Spiele Benchmark Tests gestoßen. Da schneidet mein 12900 K mit einer RTX 4090 gerade mal zwischen 2 bis 3 % schlechter ab als die Ryzen 7 9800X3D ab.
Und ich wollte auch kaufen, jetzt erstmal nicht mehr.
9800x3dhergesknapp schrieb:ch stelle aktuell ein AMD zusammen. Was würdet ihr empfehlen? 7950x3d oder 9800x3d?
Überwiegend wird gezockt, eher selten mal ein Video geschnitten bzw. gestreamt.
Herzlichen Dank vorab
Ähnliche Themen
- Antworten
- 180
- Aufrufe
- 12.567
- Antworten
- 332
- Aufrufe
- 23.168
- Antworten
- 393
- Aufrufe
- 38.442
- Antworten
- 331
- Aufrufe
- 31.863
- Antworten
- 143
- Aufrufe
- 19.580