Test AMD Ryzen 9 7900X3D im Test: So viel langsamer ist die 12-Kern-CPU mit 3D V-Cache in Spielen

Ein schöner Test. In 720p auch sinnvoll für CPU Testing.

Besser wäre es aber auch, noch ein paar notorisch CPU lastige Games in die Liste zu nehmen, wie FS2020, Anno 1800, Stellaris, Civ oder meinetwegen auch Factorio.

Gerade im Hinblick auf den 7900X3D wäre es spanned, denn genannte Spiele nutzen nicht immer 8 Cores, und dann wärs interessant zu sehen, wie sich sich verhalten mit den 3D Cache Cores, auch wenn es weniger sind als beim 7950X3D oder gar 5800X3D.
 
  • Gefällt mir
Reaktionen: bad_sign, DerRico, Klever und eine weitere Person
Pater_Erminold schrieb:
Und da jeder andere Systeme nutzt, andere Einstellungen verwendet und zu 99% nicht die GPU aus dem CPU Testrig hat, wird man bei GPU Benchmarks fündig.
Ich denke du weißt was Ableiten abstrakt in dem Kontext bedeutet.
Natürlich muss man selber wissen, wieviel Leistung seine eigene Graka im Verhältnis zur CPUTest-Grafikarte hat.
Ich kann sehr gut abschätzen wieviel meine 4070Ti vs einer 4090 zu leisten vermag. Gerade aus Perzentil-FPS und bei Spielen die eher CPU-Lastig sind, erkennt man dann entsprechend gut, ob eine neue CPU auch für einen selber mit anderer Graka etwas bringt...
 
CadillacFan77 schrieb:
Besser wäre es aber auch, noch ein paar notorisch CPU lastige Games in die Liste zu nehmen, wie FS2020, Anno 1800, Stellaris, Civ oder meinetwegen auch Factorio.
Es würde dem Parcour gut tun. Vorallem Spiele wie der FS2020 und Andere, die mehr als 8 Kerne nutzen.
 
  • Gefällt mir
Reaktionen: Cruentatus, Wowka_24, Recharging und 3 andere
Arzuriel schrieb:
Dem stimme ich nicht so ganz zu. Ja man kann sicherlich seine Hardware 1-3 Jahre nutzen, dennoch sind die Preise in den letzten 4-5 Jahren gefühlt explodiert und das überproportional.
Natürlich, aber man kann ja seine Hardware auch 4-5 Jahre nutzen und nicht schon nach 1-3 Jahren austauschen.
Ich habe ja früher auch regelmäßig (just for Fun) aufgerüstet, dass spare ich mir jetzt aber.
Zumindest so lange, wie mich meine aktuelle Hardware nicht massiv einschränkt.
 
  • Gefällt mir
Reaktionen: Arzuriel
Arzuriel schrieb:
Naja. Es ist noch gar nicht so lange her das Top Grafikkarten 400€ gekostet haben.....
Und ja , es war in diesem Jahrhundert.....
Naja bei Kepler gabs schon eine Titan als Top Karte für Gamer auch wenn diese nicht als Gamerkarte angepriesen wurde. Konnte aber bei genug Kapital dafür verwendet werden und das mit Maximalen Vram zu dieser Zeit. Und da waren wir auch mal bei 3000€, dann 2000€ bei Maxwell.
Fermi mit der GTX 580 3Gb für 500€ war hier denke ich die letzte high end für unter 500€. Danach hat man eigentlich schon geschaut mit den Titans wie viele Gamer mit Geld man zum Kauf bewegen kann. Da waren aber immerhin auch noch die 980Ti/780Ti 1080Ti "leistbar" ohne große Geschwindigkeitseinbussen.
Von dem Standpunkt sind die Preise für die aktuelle 4090 gegenüber den Titans sogar "gut" ,was das P/L Verhältniss betrifft und man hat auch 40% mehr gegenüber der 4080 als nächst stärkere Graka.
 
  • Gefällt mir
Reaktionen: floTTes
Das Ergebnis ist wie zu erwarten...der 7900X3D ist genau so wie die 7900(X) für die DIY PC Gemeinschaft uninteressant. Wird wahrscheinlich hauptsächlich sein Hauptabnehmer in Form von OEMs und SIs finden.

Was die Testmethodikt angeht, finde ich 720p nicht mehr zeitgemäß.
Sicherlich, in der Theorie ist das richtig die HD Auflösung zu nehmen, um eine aussagekräftige Leistungsskalierung zu zeigen, aber wer spielt heutzutage in solch einer Auflösung? Keiner. 99% spielen im GPU Limit. Von daher ist das 720p testing rein akademisch.

Genau wie andere hoffe ich das AMD eines Tages - vielleicht am Ende des Zen4 Zyklus - einen 7900X3D ohne zweiten CCD = 7600X3D veröffentlich. Aber wahrscheinlich nicht, da es die Verkäufe des 7800X3D kannibaliseren würde.
 
  • Gefällt mir
Reaktionen: Klever
CadillacFan77 schrieb:
Besser wäre es aber auch, noch ein paar notorisch CPU lastige Games in die Liste zu nehmen, wie FS2020, Anno 1800, Stellaris, Civ oder meinetwegen auch Factorio.

Ich weiß nicht, interessant wären diese, aber könnten das Gesamtbild verfälschen da die in die Stärken des X3D reinspielen.

Jetzt wo du es sagst, interessant bei Civ oder Stellaris wäre nicht mehr unbedingt die FPS, sonder die Zeit einer Runde (oder 1 Jahr bei Stellaris) im Lategame zu berechnen.
 
Arzuriel schrieb:
Naja. Es ist noch gar nicht so lange her das Top Grafikkarten 400€ gekostet haben.....
Und ja , es war in diesem Jahrhundert.....
Die 1080 Ti war ein rundes Stück Technik, die sich kaum hinter der Titan X/Xp verstecken musste. Ich glaube, die kam damals für Ü800€ auf den Markt.
Dass man 400€ für das Top-Modell hingelegt hat, ist schon ewig her. Die Preise bis zur 10'er Serie von nVidia schienen mir immer sehr fair. Erst mit RTX, Corona, Krieg und Inflation sind die Preise "explodiert". Ach ja ... und der schwache Euro. Das hat sich die EU aber Stück weit selbst zuzuschreiben! Da wurden paar unnötige Panic-Moves gemacht ...

Ich mag ja die Entwicklung von P+E-Cores und 3DCache-CCX+CCX. Aber ich schaue mir das eher noch paar Jahre an bis ich selbst mit aufspringe.
Kann eine Application nicht selbst bestimmen, auf was sie läuft? PE-Manifest? pthread unterstützt doch Scheduling policy/priority. Wie sieht's da bei Windows aus?

x800X3D und fertig!
 
Zuletzt bearbeitet:
Jack Napier schrieb:
Was die Testmethodikt angeht, finde ich 720p nicht mehr zeitgemäß.
Sicherlich, in der Theorie ist das richtig die HD Auflösung zu nehmen, um eine aussagekräftige Leistungsskalierung zu zeigen, aber wer spielt heutzutage in solch einer Auflösung? Keiner. 99% spielen im GPU Limit. Von daher ist das 720p testing rein akademisch.
Da die CPU diese Leistung in jeder Auflösung abrufen kann, ist es weit von akademisch entfernt. Nimmst du heute einen Ryzen 5 2600x, kannst du damit auch nicht mehr in 4K(ultra) mit vernünftigen Framerraten spielen, weil viel zu langsam.
 
  • Gefällt mir
Reaktionen: Kai85
Arzuriel schrieb:
Naja. Es ist noch gar nicht so lange her das Top Grafikkarten 400€ gekostet haben.....
Und ja , es war in diesem Jahrhundert.....
Eine 4090 dürfte mit 1200€ mehr als genug Marge abwerfen und 1950€ sind einfach Abzocke.
Ja TSMC und die ganze Kette, von den Zulieferern über TSMC, Nvidia/Intel/AMD, die Boardpartner und der Verkauf, alle wollen mehr Gewinn, aber irgendwann reicht es.
Ergänzung ()

DerRico schrieb:
https://www.hardwaretimes.com/amd-r...3x-as-the-intel-core-i9-13900k-at-mf-germany/

Schwer jetzt schon an Zahlen zu kommen, aber außerhalb von D scheint es genug gegeben zu haben.
Meiner war mach drei Tagen da in CH
Der wurde den Händler aus den Shops gesaugt! Aber die zweite Charge lässt auf sich warten.

Auch verstehe ich diesen extrem hohen Preis in Deutschland nicht, Abzocker.
 
  • Gefällt mir
Reaktionen: Arzuriel und Recharging
Hellyeah schrieb:
Ich weiß nicht, interessant wären diese, aber könnten das Gesamtbild verfälschen da die in die Stärken des X3D reinspielen.
Das ist natürlich so, da der Cache eben gerade bei modernen Engines stark ist. Das ist dann aber eher interessant als der Quatsch mit Diablo bei 600 Frames in einem Game, in dem 60 reichen. Auch das 720P-Argument ist ja, dass man die theoretische Leistungsfähigkeit der CPU auch für die Zukunft aufzeigt - tut man aber eben nicht mit Uraltengines, die am besten auf einen oder zwei herkömmliche Kerne reagieren.
Marcus Hax0rway schrieb:
Beim i7 laufen halt alle Vordergrund-Anwendungen auf den P-Cores und fertig. Da muss keine Xbox Game Bar darüber entscheiden, auf welchen Kernen ein Game läuft. Intels Ansatz erachte ich als deutlich weniger fehleranfällig.
Stimmt nicht. Die ersten Monate lief bei AL bei Intel überhaupt gar nichts rund bei Spielen das war viiiiiiiiel schlimmer als die paar kleinen Problemen hier beim x3d-Scheduler, der schon sehr gut funktioniert. Jetzt haben Intel und MS das für Intel gefixt und alles ist gut, der Frühkäufer zahlt hat bei jeder der beiden Firmen mehr für weniger Reife - ist so, weiss man.

Der 7900x3d hat - man muss es scheinbar mehrfach sagen - genau so viele Kerne wie der 7900/x. Und jeder von denen kann spielen ;-). Ihm gehen nur schneller die Kerne mit Zusatzcache aus und dann wird es mit dem Scheduler interessant.
In jedem Fall erreicht er bei einem Spiel, welches mehr als 8 Kerne verwenden würde aber immer mindestens die Leistung eines 7900/x. In diesem aktuell theoretischen Szenario sind dann aber dem 13700k und dem 7800x3d auch schon längst die Kerne ausgegangen.
 
  • Gefällt mir
Reaktionen: Kommando und Hellyeah
DerRico schrieb:
In jedem Fall erreicht er bei einem Spiel, welches mehr als 8 Kerne verwenden würde aber immer mindestens die Leistung eines 7900/x. In diesem aktuell theoretischen Szenario sind dann aber dem 13700k und dem 7800x3d auch schon längst die Kerne ausgegangen.
und wenn der schedulet nicht komplett mist bau sind die threads die am meisten load erzeugen auf den 3D cache kernen, dann ist die performance sogar etwas besser...
 
  • Gefällt mir
Reaktionen: DerRico
danyundsahne schrieb:
Das liegt nicht an der "1080p Schwäche" der 4090 an sich, sondern eher am CPU Limit, womit der NV Treiber wesentlich schlechter klarkommt als der AMD Treiber.
Das bedeutet, alle NV Karten sind im CPU Limit teils wesentlich langsamer als die AMD Pendants.
Hier wird halt nur die 4090 in den CPU Tests benutzt.

Weil der Driver-Overhead höher ist, ist die 4090 langsamer in 1080p.
Die 4090 ist aber auch mit einer 5800X langsamer. In 1080p kann die 4090 die Leistung nicht auf die Straße bringen, was auch dieser Screenshot zeigt. Da ist sogar die 6950XT teilweise schneller bei wesentlich langsameren CPUs
 

Anhänge

  • Screenshot_20230307_145518_com.google.android.youtube.jpg
    Screenshot_20230307_145518_com.google.android.youtube.jpg
    888,8 KB · Aufrufe: 149
  • Gefällt mir
Reaktionen: LencoX2 und danyundsahne
nazgul77 schrieb:
Aber die Preistendenz geht wenige Wochen und Monate nach dem Start deutlich nach unten.
Dafür gitb es wesentlich weniger Abwärme und Kühllärm im PC.
Erfrischend weitsichtig. Häufig wird in den Kommentaren so getan, als würde man gezwungen, sofort und irrational teuer zu kaufen. Aber wenn beiden Lagern die Argumente ausgehen, wird leider gerne die UVP zu Martkstart Y mit einem Marktsättigungspreis eines Produktes X verglichen.

Jack Napier schrieb:
Sicherlich, in der Theorie ist das richtig die HD Auflösung zu nehmen, um eine aussagekräftige Leistungsskalierung zu zeigen, aber wer spielt heutzutage in solch einer Auflösung?
Darum geht es in einem Prozessortest nicht. Wie mehrfach ausführlich erklärt wurde.

Jack Napier schrieb:
Keiner. 99% spielen im GPU Limit.
Ich spiele in UHD im Prozessorlimit. Es hängt von Settings und Spielen ab. Nicht von Produktnamen.

Zerbich schrieb:
Meint ihr, er wird immer schneller sein als der 8700x3D aufgrund vom höheren Takt?
Wird er - spätestens, wenn du ein CCD abschaltest. Es wäre eine denkbar teure Unternehmung, die beste CPU zu haben. Ähnlich dem 13900KS.
Überlege es dir gut. Soll doch AM5 noch eine Weile Support erhalten.
 
Hellyeah schrieb:
Ich weiß nicht, interessant wären diese, aber könnten das Gesamtbild verfälschen da die in die Stärken des X3D reinspielen.

Jetzt wo du es sagst, interessant bei Civ oder Stellaris wäre nicht mehr unbedingt die FPS, sonder die Zeit einer Runde (oder 1 Jahr bei Stellaris) im Lategame zu berechnen.
Verfälschen würde ich nicht sagen. Es ist nunmal relevant für die genannten Spiele - bei denen ist es sogar relativ egal ob 720p oder 4k.

Hier würde man das sehen, was viele Leute hier mit den 720p Benches nicht verstehen. Spiele die CPU limitiert sind profitieren davon.

Oder anders gesagt, vergleichen die Leute 1080p oder gar 1440p Benches und sehen nur einen kleinen Unterschied (oder einen irrelevanten wie 600 statt 550fps), kommt schnell die Erkenntnis: "lohnt sich nicht, 7700X/13600 reicht". Was aber bei diesen Spielen nicht zutrifft - und für andere Spiele in Zukunft mit besseren GPUs ebenfalls nicht korrekt ist.

720p Test sind ein Blick in die Zukunft resp. der wirklichen Leistungsfähigkeit. Sprich hier erkennt man, wie lange die CPU noch genug Power hat um neuere GPUs in grafiklastigen Games zu befeuern. Mit den genannten, CPU lastigen Games sieht man den Unterschied schon heute - auch wenn man in 4k testen würde.

Ich habe z.Bsp von 5800X auf 5800X3D aufgerüstet, in Anno gabs ein Sprung von 40 auf 60fps trotz gleicher (alter, langsamer) Grafikkarte in Form von 5700XT. In "normalen" Games hätte der 5800X die 5700XT locker auslasten können. Trotzdem wars hier für mein Spielerlebnis (ähnlich auch Stellaris, welches nun halt im Endgame deutlich besser läuft) ein riesen Sprung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hellyeah
DerRico schrieb:
Stimmt nicht. Die ersten Monate lief bei AL bei Intel überhaupt gar nichts rund bei Spielen das war viiiiiiiiel schlimmer als die paar kleinen Problemen hier beim x3d-Scheduler, der schon sehr gut funktioniert. Jetzt haben Intel und MS das für Intel gefixt und alles ist gut, der Frühkäufer zahlt hat bei jeder der beiden Firmen mehr für weniger Reife - ist so, weiss man.
Du sprichst von der Vergangenheit, ich denke eher an die Gegenwart und die Zukunft.
Natürlich gibt es Probleme, wenn spezielle Hardware verbaut ist und die Software nicht darauf abgestimmt ist. Das ist eher ein generelles Problem und liegt nicht daran, dass Intels Ansatz in irgendeiner Weise schlechter wäre.

Bei AMDs Ansatz sehe ich aber ein viel größeres mögliches Problem auf uns zukommen, eben weil gar keine entsprechende Hardware verbaut ist und sich stattdessen komplett auf die Xbox Game Bar verlassen wird, die nicht in jedem Game funktioniert, zumal manch ein Spiel vielleicht mit höherem Takt besser läuft als mit dem zusätzlichen Cache. Wie soll die Software das entscheiden? Das schreit förmlich nach zusätzlichem Konfigurationsaufwand für den User.
Bei Intel hingegen ist es ganz simpel: Schnelle Kerne und langsame Kerne. Bei AMD sind die einen Kerne mal schneller und mal sind es die anderen.

DerRico schrieb:
Der 7900x3d hat - man muss es scheinbar mehrfach sagen - genau so viele Kerne wie der 7900/x. Und jeder von denen kann spielen ;-). Ihm gehen nur schneller die Kerne mit Zusatzcache aus und dann wird es mit dem Scheduler interessant.
In jedem Fall erreicht er bei einem Spiel, welches mehr als 8 Kerne verwenden würde aber immer mindestens die Leistung eines 7900/x. In diesem aktuell theoretischen Szenario sind dann aber dem 13700k und dem 7800x3d auch schon längst die Kerne ausgegangen.
Hat das schon jemand tatsächlich getestet, ob der 7900X3D mehr als 6 Kerne verwendet, wenn ein Spiel es unterstützt? Bei den Benchmarks, die ich bisher gesehen habe (und bei denen es ersichtlich war, welche Kerne ausgelastet werden), wurden bisher immer 6 Kerne genutzt. Kann aber natürlich an den jeweiligen Spielen gelegen haben.

Ich kann mir beim besten Willen nicht vorstellen, dass ein Spiel "einfach so" (ohne Leistungseinbußen) weitere Kerne verwenden kann, die unterschiedlich schnell sind, wenn das Spiel nicht extra darauf optimiert ist. Das kann eigentlich nur im Chaos enden, weil das Spiel in der Regel auch nicht weiß, ob es den Kern mit 3D V-Cache oder den Kern mit höherem Takt für eine bestimmte Aufgabe präferieren soll.
 
Leider macht dieser ganze Test wieder keinen Sinn. Klar sieht man bei diesen Auflösungen mehr das CPU limit, aber ist leider 0,0 Praxis nah - macht also kein Sinn. Warum fehlen auch die Vergleiche zu den Vorgängern wie 5950x und 5900x und vielleicht noch paar Intel CPU´s aus der 12x00. Jetzt muss man sich erst wieder 3 oder 4 Tests zusammen suchen um sich ein Bild zu machen.
Kann mir absolut kein Bild machen welche CPU jetzt die beste für mich ist - leider setzen 6 für den Vortrag.
Lieber 1 Tag länger für so einen Test und dafür mehr Praxisnah - von der Theorie kann sich niemand was kaufen.
 
  • Gefällt mir
Reaktionen: Wowka_24
Zurück
Oben