Test AMD Ryzen 7 9800X3D im Test: 9000X3D gegen 7800X3D, 5800X3D & Intel Core Ultra

DJMadMax schrieb:
Welchen Vorteil bietet dir das Board gegenüber dem deutlich günstigeren MSI X670E Gaming Plus WiFi?
Ich werde wohl doch das MSI X670E Gaming Plus WiFi nehmen ... ich habe gerade festgestellt, dass meine Boxen einen USB-C Anschluss haben und diese damit viel besser klingen. :D
 
Syrato schrieb:
niemand möchte eine AMD Monopol
Gibt es nicht. Nicht jetzt, nicht mittel- und auch nicht langfristig
Syrato schrieb:
Intel muss eine CPU und am besten auch noch eine GPU, auf Augenhöhe, selber produzieren.
Müssen sie nicht, sie haben auch so 75% Marktanteil. Ob da ein paar Gamer wegen dem 9800X3D abspringen, merkt Intel gar nicht.
Grafikkarten produziert Intel doch nicht für Gamer, wo denkst Du hin? Im Profigeschäft wird damit das Geld gemacht und da machen sich die ARCs gar nicht so schlecht.

Die Gaming-Ableger haben sich übrigens langsam, still und heimlich an die Konkurrenz rangeschlichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando und DerRico
Steht bei euch auf dem Plan zukünftig in unterschiedlichen Leistungsstufen zu testen? Es wäre zwar viel Arbeit, aber sicherlich auch sehr interessant: Gern würde ich den 5800X3D und 7800X3D im Vergleich zum 9800X3D bei 45 W, 65 W, 95 W und 105 W im Vergleich zur Referenz von 120 W (bzw. halt 105 W für den 5800X3D) sehen wollen...

Ich könnte mir vorstellen, dass 95 W ein Sweet Spot sein könnte. Gerne auch den 9700X dazu - da hatten ja auch schon einige Member hier die Meinung, dass 95 W der beste Kompromiss aus Leistung, Effizienz und Temperatur sein könnte...
 
  • Gefällt mir
Reaktionen: fox40phil
Pat Gelsinger hat sich soeben einen Ultrawide Monitor gekauft um den FPS Balken des 9800X3D im Vergleich zum 285K sehen zu können.
 
  • Gefällt mir
Reaktionen: Dittsche, MaverickM und nuestra
Robo-Man schrieb:
Die GPU wird ja auch im Gehäuse und nicht außerhalb getestet.

Zitat CB-Test - Anpassungen wurden getroffen:
Es ist ein offenes Geheimnis, dass die Next-Gen-Grafikkarten mehr Energie als die aktuelle Generation benötigen werden – potentiell viel mehr. In Tests hat sich gezeigt, dass das bisherige, von ComputerBase genutzte Gehäuse des Testsystems mit der abzuführenden Wärme überfordert gewesen ist – deshalb erfolgt nun ein Wechsel.


Langsam beginne ich zu glauben, die meisten 720p-Fragen sind Masche.
 
  • Gefällt mir
Reaktionen: Kommando und Verak Drezzt
therealcola schrieb:
+500 MHZ sind ja schon nicht schlecht evt. geht noch was
🥴
K3ks schrieb:
OC? Wir haben 2024... Und wenn der Prügel 5GHz AllCore laufen sollte, dann wären 500MHz jetzt auch nichts, zumindest ich sehe das so. Damals war OC so +30% oder +60% Takt oder mehr, aber heute? It's /&%ing nothing.

dernettehans schrieb:
Ich hatte ja vorhergesagt, dass der 9800x3d vermutlich deutlich mehr Strom ziehn wird als der 7800x3d besonders auch wegen dem deutlich höheren Basistakt
:(
 
  • Gefällt mir
Reaktionen: dernettehans und Verak Drezzt
CadillacFan77 schrieb:
Diejenigen, die hier in 4K GPU Limit testen wollen
Darum geht es ja eben nicht. Aber letztlich hat jeder eine GPU im Rechner und wüsste gern, ob er seinen 5800X nun gegen den 9800X3D tauschen sollte oder nicht.

Auf 4k mit 4090 sind es 7% Unterschied (sparen wir uns an der Stelle die Diskussion um die Frametimes), für die er vermutlich nicht 530€+Board+RAM ausgeben würde, wäre er nicht von der 720p Performance "geblendet", für die er bereit war, das Geld auszugeben.

Die "Rohleistung" hat damit nichts zu tun, es geht lediglich um eine EINORDNUNG für ein typisches System (oder eine Auswahl typischer Systeme, wie sie beispielsweise bei den CPU/GPU Übersichten da ist).

Edit: ein "bei 1440p mit einer 4070S/Radeon RX-weiß-keine-passende-und-möchte-nicht-gegrillt-werden sind das für dich ca n%".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil
CadillacFan77 schrieb:
Diejenigen, die hier in 4K GPU Limit testen wollen, testen wohl die Höchstgeschwindigkeit des neuen Ferrari auch auf 120km/h begrenzten Autobahnen...

Und merken dann, dass der Smart genau so schnell am Ziel ist.
Geht doch nur drum zu sehen wie sinnvoll der aktuelle Kauf für das setup wäre. Genau für Leute wie mich mit einer 4090 wäre es eine zusätzliche Info. Um die reine Performance und Potential der cpu zu beurteilen passen die 720p Tests natürlich. Aber wo bin ich trotzdem überall im gpu Limit in 4k ist frage... klar kann man das auch ableiten aus den normalen gpu benchmarks pro Spiel aber so eine Zusammenstellung für dummies wäre gut ;) sehe es aber auch so, dass bei 4k erst mal eine 5090 mehr müsste. Und dann sollte man ggfs auch mehr als 120hz haben. Trotzdem geile CPU, aber um die echt in der Praxis zi befeuert reicht die 4090 nicht.
 
MaverickM schrieb:
Nichts. Das Spiel frisst CPU Kerne wie noch was. Daher ist das auch eines der wenigen Szenarien, in denen die neuen Intel CPUs vorne liegen.
Dass es Kerne mag, erklärt die AMD Ergebnisse aber nicht
1730919092790.png


Egal ob 8 Kerne oder 16 Kerne, egal ob mehr oder weniger Cache, alle AMD CPUs sind gleich schnell.

Tatsächlich ist der 14900K hier auch nur 2-3% schneller.
Nur der 285K hat einen nennennswerten Abstand und dieser hat in Summe weniger Threads als der 14900K
 
mscn schrieb:
Die "Rohleistung" hat damit nichts zu tun, es geht lediglich um eine EINORDNUNG für ein typisches System (oder eine Auswahl typischer Systeme, wie sie beispielsweise bei den CPU/GPU Übersichten da ist).
dann schaut man einfach mit seiner GPU was diese an FPS in jeweiliger Auflösung hergibt und sieht dass ein 5800X im CPU Index um die 100FPS macht und gleicht diese beiden Werte ab um zu entscheiden lohnt sich das aufrüsten oder lohnt es sich für mich nicht, ist doch echt net so schwer zu kapieren

https://www.computerbase.de/artikel...benchmarks_in_spielen_mit_und_ohne_raytracing

https://www.computerbase.de/artikel...ps_und_frametimes_aktuelle_performanceratings

allein von den eigenen Ansprüchen auszugehen und diese miteinander mit den GPU und CPU Tests zu vergleichen, was zum....
 
Grandiose Leistung AMD! Danke für den Test.

Da steht wohl ein Upgrade an für meine Stellaris Spiele :D


1730918996913.png


-> Hört sich jetzt nicht weltbewegend an die 14,2s/Spieljahr, aber da kommt schnell was zusammen und mit Mods noch wichtiger. War schon vom 5800x3d auf 7800x3d ein spürbares Upgrade und wird hier hoffentlich ähnlich sein.
 

Anhänge

  • 1730919111896.png
    1730919111896.png
    165,7 KB · Aufrufe: 12
  • Gefällt mir
Reaktionen: Dittsche, fox40phil und CadillacFan77
Wurzel schrieb:
Ich habe mal eine (wahrscheinlich) blöde Frage ...

Wenn die FPS z.B. auf 144 begrenzt werden, spielt es denn überhaupt eine Rolle welche CPU im System ist?
.
Ja klar! Was, wenn die CPU keine 144 FPS liefern kann in dem Game deiner Wahl, was dann?
 
mscn schrieb:
Auf 4k mit 4090 sind es 7% Unterschied
Mit oder ohne Upscaling?
Viele nutzen mittlerweile Upscaling von 1080p auf 4k, weil man kaum bis gar kein Unterschied sieht und es ordentlich FPS gibt. So ist dann auch wieder ein CPU Limit im Gespräch...
Dann machen Tests in 1080p auch wieder mehr Sinn, weil man darauf (grob) die FPS mit Upscaling ableiten kann.
 
  • Gefällt mir
Reaktionen: 0Problemo und fox40phil
mscn schrieb:
Es verirren sich jeden Tag Leute hierher und fragen offensichtlich danach (immer wieder die gleichen Fragen, bei jedem Test), weil es eben nicht offensichtlich ist. Wie ich schon geschrieben habe: wenn es nicht der Anspruch der Redaktion ist, die Leute mit einem "was heißt das für mich" Beitrag/Übersicht abzuholen, dann ist das eben so.
Nein, nur Du willst nicht zugeben, dass Du Quatsch forderst.
Ich habe das früher auch getan, mir wurde gesagt es sei Quatsch, dann habe ich mit beschäftigt und es eingesehen. Es ist so einfach. 😉

Du empfiehlst quasi, dass es ausreicht einen 5600X für 4K zu nehmen.
Und was macht der Gamer mit der 5090 wenn er mehr Frames will? Zum Beispiel unnütze Details runter drehen und DLSS mit Quality verwenden.

Und dann bekommt er nicht mehr FPS und schreit hier im Forum, dass er doch in 4K spielt und ihm gesagt wurde die CPU wäre gleichwertig.

Und wenn Du jetzt immer noch „realistischer“ Testen willst, dann weiß ich auch nicht mehr. Suche es Dir doch woanders und gut ist. Irgendwer bench immer irgendwas. Findest bestimmt auch GPU Tests mit nem i3 6000er. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: KarlsruheArgus
Taxxor schrieb:
Egal ob 8 Kerne oder 16 Kerne, egal ob mehr oder weniger Cache, alle AMD CPUs sind gleich schnell

Wenn man einen Blick auf die Perzentilen wirft, ergibt sich da ein anderes Bild. Es ist einfach eine seltsame Anomalie, würde ich behaupten.
 
Ok AMD. Shut Up and take my money.

Wird definitiv gekauft
 
  • Gefällt mir
Reaktionen: Simanova
Youngtimer schrieb:
Aber bei realistischen Auflösungen rückt das Feld auch mit der stärksten Grafikkarte sehr nahe zusammen. Kein Grund für einen Panik Kauf
Genau DAS ist der Grund, warum in 720p getestet wird. Man sieht die Leistungsunterschiede kaum. Das kann zu fatalen Fehlkäufen führen, denn eine CPU, die jetzt noch gut mit einer 4090 klarkommt, kann bei der nächsten Gen schon ins Straucheln kommen.

Wer schon jetzt mit einer 5090 liebäugelt, wird am 9800X3D nicht vorbeikommen. Wie einige hier berichten, hängen sie schon mit einer 4090 oft genug im CPU-Limit - wobei ich nicht weiß, welche CPU die denn so haben. Auf jeden Fall wird das mit der steigenden Leistung der nächsten Graka-Generation nicht besser.
 
  • Gefällt mir
Reaktionen: Kommando
K3ks schrieb:
❓❔🤔❓ Entweder schafft die CPU die FPS oder nicht. 🤷
Ok, habe mich wohl nicht richtig ausgedrückt ... bin noch nicht so lange im Thema Gaming ...

Habe ich irgendeinen Vorteil wenn ich mir einen 9800X3D kaufe und meinen 9700X ersetze ... wenn ich auf 144 FPS limitiere?
 
Oh man, da werde ich ja schon schwach meinen 5800X3D inklusive Plattform zu verkaufen und aufzuspringen. Das Ding ist ein Monster und wäre der 4090 nur ein gerechter Partner. Aber auch wenn meine 4090 bei 1440p immer mal wieder limitiert wird, ist es eigentlich nicht so gravierend, dass sich das wirklich lohnt. Die zusätzliche compute Leistung für gelegentliches enkodieren oder cpu rendering wäre aber auch endlich ein Argument. Argghhh.
 
Zurück
Oben