Test 9800X3D vs. 7800X3D & 7600X3D im Test: Die günstigsten AMD Ryzen „X3D“ für Sockel AM5 im Vergleich

stefan92x schrieb:
Aber er ist langsamer als der 7950X in Anwendungen, während es in Spielen umgekehrt aussieht.
Ich finde für beides gibt es gute Argumente. Bei gleichem Verbrauch ist der x3d ja nur 2 % schneller. Oder wenn man den 7950x voll laufen lässt - was ja beim x3d nicht geht - ist er eben 7% schneller. Keine Ahnung, ob das viele Leute machen. Aber ich behaupte, dass der Unterschied zwar messbar aber im produktiven Alltag nicht spürbar ist.
Nicht nur, weil 7% nicht viel sind, sondern auch weil nicht immer alle 16-Kerne voll ausgelastet werden. Braucht man z.B. nur 7 Kerne voll, ist der Unterschied nahe null. Daher "in der Praxis kein Nachteil" und damit "gleichwertig" aus meiner Sicht.

Beim 9800x3d ist das natürlich noch einmal anders, hast Du natürlich auch recht: Da bekommt man den "schnellsten 8-Kerner der Welt", der sogar schneller als ohne Zusatzcache und damit in vielen echten Anwendungen (Cinebench, wissen viele nicht, ist in der produktiven Praxis gar nicht sooo weit verbreitet ;-))King ist. Das ist natürlich noch einmal etwas Anderes.
 
Hardy_1916 schrieb:
Schade, dass s der 7950X3D immer noch nicht ins Testfeld geschafft hat.
Trotz besserer Fertigung wird die Konkurrenz bereits ungespitzt in den Stahlbeton gerammt.
Da sollte es zumindest so aussehen, als gebe es einen Nutzen für diese als Allrounder. /s
 
Bevorzugen würde ich aktuell den 9800X3D, doch aktuell bin ich noch sehr zufrieden mit meinem 5800X. Ich werde erstmal noch eine Generation abwarten und frühestens dann 2026 einen 11800 X3D kaufen, dann vielleicht schon mit DDR6.
 
  • Gefällt mir
Reaktionen: MGFirewater
Cr4y schrieb:
Dass "+20% FPS in 720p" im CPU-Test im realen Einsatz (1440p + hohe Details) dann im Grafikkarten-Limit kaum übrig bleiben, sollte ggf. ab und an mal wiederholt werden.
Genau das.

Deswegen finde ich einen Test der auch höhere Auflösungen mit abbildet durchaus sinnvoll, was bleibt dann von der enormen Leistung übrig.
Wenn ich übertrieben die Grafikkarte mit zig CPUs kombinieren kann und es nicht wirklich was ausmacht ist mir egal was Theoretisch 20-30% schneller ist, liegt vielleicht auch am Alter.
 
Zuletzt bearbeitet:
LamaMitHut schrieb:
Das der 9800X3D den 245k im Multicore besiegt ist wohl die finale Demütigung von Intel.
Ist das nicht ein R7 gegen ein i5?

Edit:

Der R7 9800X3D ist 5% vor dem i5 (!) 245K (319€ im Preisvergleich), dafür allerdings gleich 27% hinter der eigentlichen Konkurrenz, dem i7 265K … das was der X3D in Spielen vorne ist, ist der i7 in Anwendungen vorne.

Und dann dürfen wir hier natürlich nicht vergessen, dass der i7 aktuell bei 399€ im Preisvergleich liegt, der R7 bei 700€+ wenn überhaupt lieferbar …

IMG_0115.jpeg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, stevefrogs und darth_mickrig
Cr4y schrieb:
Dass "+20% FPS in 720p" im CPU-Test im realen Einsatz (1440p + hohe Details) dann im Grafikkarten-Limit kaum übrig bleiben, sollte ggf. ab und an mal wiederholt werden.
Das sollte das Mindeste sein. Eher wie unten erwähnt, sollte man einfach beide Parteien bedienen.
Also auch wenigtens in 1440p benchen. Sind beide bedient und Thema erledit.
Zwirbelkatz schrieb:
Es wird jüngst unter JEDEM Prozessortest totgeredet
Kann ja jeder seine Meinung dazu haben und es gibt offensichtlich zwei davon.
Problem ist eben, das keiner in 720p zockt und was soll ich dann mit diesem Testszenario anfangen?
Ich will wissen wie die CPUs in realen Bedingungen abschneiden. Punkt.

Lösung ist doch ganz einfach siehe oben: Immer wenigstens WQHD mit benchen und gut ist.

Solange poste ich unter dem CPU-Test weiter und nicht irwo abseits versteckt etc. denn es gehört darunter.
Weil es zu einem Test und zur Wahrheit DAZUGEHÖRT sowie der Vollständigkeit halber.

Es lesen auch nicht nur "Enthusisasten" die CPU-Tests. Da erachte ich es schon als Verantwortung von CB,
Klarheit und Vollständigkeit mit einzubringen. Denn diese Laien oder nicht so Computerchecker,
kaufen sonst etwas, und erhalten nicht das, was im Test suggeriert wird.
 
  • Gefällt mir
Reaktionen: blackraven
Dedenne1987 schrieb:
Favorit für mich ganz klar der 7800x3d.

Durchschnittlich 13% mehr FPS im Gaming mir durchschnittlich 35% mehr Leistungsaufnahme überzeugen mich beim 98er nun mal gar nicht.
Daa packst du beim 78 CO-20 drauf und auf den 98 CO -40 und der 98 ist schneller und Verbraucht genauso viel
Warum schreibe ich das so? die 9er scheinen besseres UV Potenzial zu haben
 
Zuletzt bearbeitet:
@DevPandi

Butter bei die Fische, wie viele Leser hier wohl Diablo 2 mit einer 4090 und 450FPS in 1440p zocken damit sie einen Unterschied zum 5800x3d merken würden? Kaufen die Leser wirklich eine 4090 nur für das max. an der Bildrate bei möglichst niedriger Auflösung oder 20 Jahre alten Games zu erreichen? Vielleicht bei irgendwelchen Tunieren ja, aber doch nicht "at Home"!?

Ich hab hier einen 240hz, 4K Oled, das alleine sagt über mich wohl schon das mein Favorit eher die Bildqualität statt der Bildrate / Reaktionszeit ist. Meine Erwartungen an ein Grakaupgrade sind daher besser Bildraten mit RT oder höheren Details oder generell mal 240hz bei 4k zu erreichen.

Da sehe ich keine signifikante Steigerung im Platformwechsel zu AM5 für den Preis. Absolut bleiben dann doch keine 10FPS mehr übrig. Zugegeben, die Liste der Variablen ist groß, daher kann man das auch nicht so pauschalisieren, aber da sucht sich ja jeder gerne seine TOPs raus um bei den Argumenten zu punkten.
 
Zuletzt bearbeitet:
ich glaube jetz könnten wa mal aufrüsten.. :)
 
Also meine Meinung ist, dass man einen sachlichen, mindestens teil-wissenschaftlichen Test nicht mit "Hype" oder "Meinung" diskreditieren sollte. Es sind in erster Linie Messergebnisse.

Dass keiner in 720p spielt, stimmt schon sachlich nicht, da es DLSS gibt.

qu1gon schrieb:
Weil es zu einem Test und zur Wahrheit DAZUGEHÖRT sowie der Vollständigkeit halber.
Dafür gibts Grafikkartentests.


CB hat sich sogar die Mühe gemacht, beides für die Leser zu verknüpfen:
GPU braucht CPU 2023 (AMD): Welche CPU für welche GPU kaufen?
Ich mag mir vorstellen, dass eine Redaktion mit begrenzten Ressourcen ab einem gewissen Punkt einen abnehmenden Grenznutzen erkennt.


Dass man eine RTX 4090 braucht, um die Unterschiede zu bemerken, stimmt allenfalls für die Ultra-Settings, die in der Regel zugrunde gelegt werden. Man kann eine Grafikkarte nachrüsten. Man kann deren Settings sehr weit verändern. Bei einer CPU kann ich die Settings äußerst begrenzt ändern.
 
  • Gefällt mir
Reaktionen: Pro_Bro, Quidproquo77, Slim.Shady und 6 andere
@Reset 6400 bei so niedrigen timings wie nur möglich, ist das beste was geht.
8000er ram ist geldverschwendung.

preisbewusst 6000cl30
 
  • Gefällt mir
Reaktionen: bad_sign und MiroPoch
Zwirbelkatz schrieb:
Dafür gibts Grafikkartentests.


CB hat sich sogar die Mühe gemacht, beides für die Leser zu verknüpfen:
GPU braucht CPU 2023 (AMD): Welche CPU für welche GPU kaufen?
Ich mag mir vorstellen, dass eine Redaktion mit begrenzten Ressourcen ab einem gewissen Punkt einen abnehmenden Grenznutzen erkennt.
Das ändert nichts daran. Es gehört trotzdem immer mindestens erwähnt, am besten mit gebencht,
weil die Zeiten ändern sich und 2023 ist eben nicht ende 2024 bzw. es werden eben neue CPUs getestet,
dann testen man halt wenigstens WQHD noch mit, ob CB da Kapazitäten hat, weiß ich nicht und ehrlich gesagt ist es mir auch egal. Ich erwarte das von einem solchen mMn Top-IT-Onlinemagazin.
Das gehört halt zum Job bzw. der soll ja möglichst gut gemacht werden.
Das mit dem Grenznutzen, kann ich in dem Fall absolut nicht erkennen. Dafür ist das Thema zu wichtig.
 
blackraven schrieb:
generell mal 240hz bei 4k zu erreichen.
… Meinen Beitrag hast du an der Stelle scheinbar nicht verstanden oder es geht dir eher darum, dass du hier in irgendeiner Form versucht Recht zu behalten, weil dir widersprochen wurde.

Auf der einen Seite kommst du hier mit einem 4K-OLED mit 240 Hz, schreibst von Qualität und im nächsten Satz willst du bei 4K generell 240 Hz erreichen? Ehrlich und auch etwas direkt geschrieben, muss ich mir an der Stelle durchaus die Frage stellen, ob du über deinen Beitrag wirklich nachgedacht hast, oder ob es halt wirklich nur darum geht, hier irgendwie "Recht zu behalten".

Wie willst du mit einem Zen 3 Prozessor, der in Spielen sogar hinter dem 5800X3D liegt, denn wirklich die, sagen wir mal bereits 120 fps zuverlässig erreichen für deinen Monitor, wenn der 5800X3D bereits bei den Avg. fps kaum über 120 fps kommt und bei den P1 mit 74 fps fast 50 % langsamer ist?

Selbst wenn die RTX 5090 in 4K nativ in der Lage wäre, 200 - 240 fps zu liefern, würde dein Prozessor die RTX 5090 massiv ausbremsen. Selbst wenn sie bei Full RT nur 100 - 120 fps schafft, würde dein Prozessor in bestimmten Szenen dazu führen, dass du die Grafikkarte gar nicht nutzt.

Und genau um das geht es, dir nützt die beste Grafikkarte nichts, wenn für das eigentliche fps Ziel, und das hast du hier jetzt effektiv benannt - bereits die CPU zu schwach ist und in Zukunft bei neueren Spielen es vermutlich noch mehr sein wird.
 
  • Gefällt mir
Reaktionen: Pro_Bro, Slim.Shady, Taxxor und 5 andere
qu1gon schrieb:
(...) die Zeiten ändern sich und 2023 ist eben nicht ende 2024 bzw. es werden eben neue CPUs getestet
Da hast du recht, wobei sich am Grundprinzip der Funktionsweise nichts ändert.

Damals hieß es, man würde den Test mit Intel wiederholen. Jedenfalls meine ich mich daran zu erinnern. Dann gabs die Fehlermeldungen von Raptor Lake, die bescheidenen Ergebnisse in Spielen (!) von Arrow Lake und viele viel Intel-BIOS, sowie AGESA und W11-Updates.

Ja - wie sollte man unter diesen Bedingungen konsistente, lesenswerte Prozessortests erstellen.
 
Bei AM4 würde der preisbewusste Käufer zum 5700 X3D greifen, bei AM5 zum 7600 X3D. Dass der letztere sogar den 5800 X3D deutlich hinter sich lässt, ist beeindruckend mit 2 Kernen weniger.
 
Der 9800X3D könnte meine nächste CPU in etwa einem Jahr werden.
Soll ein komplett neuer Rechner werden, aber erst wenn GTA 6 final angekündigt ist.
Der neue PC soll dann GTA 6 schon gut stemmen können.
 
Zurück
Oben