Test 9800X3D vs. 14900K mit RAM-OC im Test: Welche CPU ist die beste Gaming-Wahl für die RTX 5090?

ToaStarr schrieb:
das schreibt ernsthaft jemand der in einem Thread zur RTX 5090 und der dazu passenden (leistungsstärksten) CPU zu dem Hinweis, dass niemand in 720p rendert schreibt, dass die Zielauflösung und/oder die DLSS/FSR/XeSS Preset-Einstellung entscheidend seien.

Mir scheint irgendwie, dir ist die grundlegende Funktionsweise von DLSS und Co. irgendwie nicht klar. Oder Du trollst.
 
  • Gefällt mir
Reaktionen: r_p
Ned Flanders schrieb:
Du elendiger Opportunist du! ;-)
man pickt sich einfach immer das raus, was am besten ist ;) ist doch natürlich ;)
 
iPat1337 schrieb:
Warum wird so oft 6000@CL30 RAM für den Ryzen empfohlen
-Weil das Out of the box mit einer Sekunde eingestellt ist (Expo / xmp laden) und zu 99% ohne Probleme laufen wird.
-Jeder der sich nicht Stunden lang in RAM OC einlesen möchte, maybe 🤷
 
  • Gefällt mir
Reaktionen: Dai6oro
Gortha schrieb:
PS: Sehe du hast leider noch mit AGESA 1.2.0.2a getestet. Gibt sogar für dein Board schon AGESA 1.2.0.3, aber ob das die Performance wie 1.2.0.2b hat, weiß ich nicht.

Gerade noch bei einem User aus der AMD Community nachgefragt.
Bei den Versionen konnte er kaum einen Unterschied ausmachen.

VG
 
  • Gefällt mir
Reaktionen: Gortha
I Interesse N Null T Technik E Ekelhafte L Leistung Abkürzung Intel ,AMD OC = Ohne CEO Bill Gates "640 KB Ram reichen jedem Menschen ein Leben lang."
Ergänzung ()

alkaAdeluxx schrieb:
-Weil das Out of the box mit einer Sekunde eingestellt ist (Expo / xmp laden) und zu 99% ohne Probleme laufen wird.
-Jeder der sich nicht Stunden lang in RAM OC einlesen möchte, maybe 🤷
XMP ist Intel
 
Esenel schrieb:
Gerade noch bei einem User aus der AMD Community nachgefragt.
Bei den Versionen konnte er kaum einen Unterschied ausmachen.

VG
Ohh dann hatte ich noch alten Mist im Kopf, wengen den anfänglichen Falschaussagen zum Latenz-Killer... sorry. 1.2.0.2b ohne Latency Killer(Aida Latency Ausleseoptmierung) ist also 1:1 schnell wie 1.2.0.2a?

Wäre halt nur noch 1.2.0.3 zu testen :D :P

Noch eine Frage, ist der Intel bei 7800MT/s Dual-Ranked gefahren? Wieviel GB hat das Intel-Kit?
Der AMD wurde mit den beiden Kits ja "nur" Single-Ranked betrieben.

PS: Wenn 1.2.0.3 für mein Brett raus kommt, mache ich mal Vergleiche zu meinem aktuellen 1.2.0.2a.
 
Zuletzt bearbeitet:
"Latency Killer" in jeglicher Form (Hersteller nennen es alle anders) haben nur Einfluss auf die AIDA Latenz Benchmarks, ansonsten ist das Schrott.

Beim Gaming (Benchmarks dazu gibt es schon) verliert man sogar was, also wenn möglich einfach Auto lassen (bei ASUS wäre das z.B. dann Mode2).
 
  • Gefällt mir
Reaktionen: Veitograf, cm87, Pilstrinker und 3 andere
Für eine 4090 oder, (Achtung Clickbait Alarm) 5090 wäre es eigentlich viel interessanter in 4k+ Auflösungen zu testen, denn das ist was in der Praxis zählt. Aber leider bleibt da nicht viel Vorteil übrig.
Mit MFG , soll ja sowieso die CPU Last drastisch sinken, also können die CPU Hersteller eigentlich einpacken.

Aber das Marketing wird die irrsinnigen FPS schon für Kundenfang nutzen, da bin ich sicher.
 
@Woody17
Ok ich nehme ARK Ascendet und stelle 4K nativ max Details ein. So wie ich gern spielen würde.
Mit der 4090 bekomme ich keine 30 FPS.

Wie soll ich die nun die Leistungsfähigkeit des 9800X3D zeigen der 100 FPS schaffen würde, man es aber nicht sehen kann weil du lieber eine ausgelastete Grafikkarte sehen willst.

Es ist ein CPU Test, kein Spieletest, kein Grafiktest und kein nur für persönlich nach deinen Wünschen gemachter Test. Außerdem zocken die wenigsten 4K nativ. Viele sind noch eher im Bereich Full HD oder WQHD und 144 Hz unterwegs. Die möchten gerne wissen womit sie viele FPS schaffen.
 
  • Gefällt mir
Reaktionen: Maldiel, Veitograf und Gortha
Pizza! schrieb:
Wie soll ich die nun die Leistungsfähigkeit des 9800X3D zeigen der 100 FPS schaffen würde, man es aber nicht sehen kann weil du lieber eine ausgelastete Grafikkarte sehen willst.

Es ist ein CPU Test, kein Spieletest, kein Grafiktest und kein nur für persönlich nach deinen Wünschen gemachter Test.
Kommt halt darauf an, welche Ausgangslage man abdecken will, meiner Meinung nach braucht es ganz klar beide Tests. Für Upgrader wie mich ist bspw. ein reiner 720p Test irreführend, da er mir suggeriert, dass die CPU XY deren 30% schneller ist als CPU ABC, zu Hause bei 4K sehe ich davon dann aber nix. Da hilft mir ein 4K Test natürlich einzuordnen, ob sich das Upgrade überhaupt lohnt. Beispiel gerade erlebt mit meinem 13600K, der in 4K mit einer 4090 nur 3-5% hinter einem 9800X3D liegt. Ergo meine Aufrüstpläne vorerst verworfen.

Wenn man lediglich die CPU alleine bewerten will, macht der 720p Test natürlich mehr Sinn. Auch in Bezug darauf, dass man vielleicht aktuell mit einer 4080 in ein GPU Limit rennt bei 4K und in drei Jahren mit einer 6080 dann diesen GPU Limit so stark verschiebt, dass die Unterschiede wieder zu Tage gefördert werden.

Eigentlich alles recht banal und beide Tests haben ihre Berechtigung. Je nach Aussage eben...
 
  • Gefällt mir
Reaktionen: Woody17
Ihr scheint es nicht zu verstehen, mit DLSS und Co in 4K/UHD arbeitet man nicht mehr ausschließlich nativ.
Es gibt außerdem Spiele, die in kurzen Szenen sehr fordernd sind. Genau dann sieht man den Untschied zwischen einem 13600k und dem 9800X3D auch in "UHD". Wobei der 13600K ja noch sehr schnell ist. Es gibt genug langsamere CPUs da draußen, wo man es krasser sieht.
 
  • Gefällt mir
Reaktionen: Veitograf
AnkH schrieb:
720p Test irreführend, da er mir suggeriert, dass die CPU XY deren 30% schneller ist als CPU ABC, zu Hause bei 4K sehe ich davon dann aber nix. Da hilft mir ein 4K Test natürlich einzuordnen, ob sich das Upgrade überhaupt lohnt.

AnkH schrieb:
Eigentlich alles recht banal und beide Tests haben ihre Berechtigung.
Jain.
Das Banale ist, du musst einfach nur in den Test der Grafikkarte gucken. Das was du willst existiert bereits. Das muss man nicht nochmal testen!

Der 720p Test zeigt die CPU schafft 100 FPS, dann macht die CPU auch in 4K 100 FPS.

Du musst dann in den Grafikkartentest gucken ob deine Grafikkarte im selben Szenario auch 100 schafft.

Spiel XY:
Neue CPU: 100 FPS
Deine CPU: 75 FPS (siehe CPU Test)
Deine GPU: 70 FPS (siehe GPU 4K Test)

Ergebnis: Lohnt sich nicht und dafür braucht keinen erneuten 4K Test im Bereich CPU.

Also erst schauen was deine Grafikkarte in deiner gewünschten Auflösung im GPU Test schafft.
Dann suchst du im CPU Test dir die CPU aus, die auch deine gewünschten FPS schafft.
 
  • Gefällt mir
Reaktionen: Gortha und Veitograf
lWllMl schrieb:
da es nur 2 nvidia karten mit mehr als 16gb vram gibt, ist mir das völlig egal, mein 5900X hat mich noch nicht enttäuscht,

Quadros mal ausgelassen fallen mir da spontan: Titan RTX, Titan V CEO Edition, 3090, 3090Ti, 4090 und 5090 ein. Das sind nach meiner Rechnung sechs Karten :)

Kommt am ende immer auf die Spiele und das Setting an. In so einigen Spielen war der Sprung vom 5800x auf den 7800x3d bei mir sehr deutlich, mit einer 6800XT. Gibt aber auch spiele und Settings, wo es keine große Rolle spielt
 
Pizza! schrieb:
@Woody17
Ok ich nehme ARK Ascendet und stelle 4K nativ max Details ein. So wie ich gern spielen würde.
Mit der 4090 bekomme ich keine 30 FPS.

Wie soll ich die nun die Leistungsfähigkeit des 9800X3D zeigen der 100 FPS schaffen würde, man es aber nicht sehen kann weil du lieber eine ausgelastete Grafikkarte sehen willst.

Es ist ein CPU Test, kein Spieletest, kein Grafiktest und kein nur für persönlich nach deinen Wünschen gemachter Test. Außerdem zocken die wenigsten 4K nativ. Viele sind noch eher im Bereich Full HD oder WQHD und 144 Hz unterwegs. Die möchten gerne wissen womit sie viele FPS schaffen.
Der Titel ging doch voll in die highend GPU Richtung und die meisten kaufen sich diese Karten um in hohen Auflösungen noch mit möglichst maximalen Details zu spielen. Viele VR Spieler haben sich z.B. die 4090 geholt weil es dort auf wirklich maximale Power ankommt und viel VRAM. Und da stellt sich doch die Frage, kann ich für diese Karte in diesen Auflösungen noch etwas durch CPU Aufrüstung und Memory OC gewinnen.
Diese Frage beantwortet einem aber keiner, weil alle die CPUs nur in 720p testen.

Trotzdem danke für den Test.
Wie gesagt, es deutet sich an, dass Nvidia voll auf den MFG Zug springen will und dort könnte die CPU dann noch unwichtiger werden.
 
Warum habt ihr eigentlich den alten Raptor Lake Refresh genommen und nicht den neuen ArrowLake? Da laufen die DDR4-8000 problemlos.

Wird der ArrowLake noch ergänzt?
 
@DKK007
Weil der noch langsamer als der 14900K ist?
 
  • Gefällt mir
Reaktionen: Gortha
@MaverickM Ist er nicht mehr, er ist im aktuellen PCGH Parcour gerade mal 16,4-8% langsamer als der 9800X3D und auf dem Niveau eines 14900KS. Und selbst das ist Spieleabhängig.
Tja Microcode und Spiele Updates bewirken so einiges, damit ist auch Arrow Lake für Spiele keine schlechte Wahl. 10 bzw 8% bei den Percentilen. Im vorherigen Test war er 13% hinter dem 14900KS.
Screenshot 2025-02-10 123826.png


Aus dem CB Test war der 9800X3D noch 38% bei den AVG und 32% bei den 1% Lows schneller, so schnell können sich Dinge ändern.
 
es gibt auch eine Welt in der man CPUs nicht nur fürs Gaming einsetzt und da sieht es so aus:

1739188284783.png


1739188479740.png
 
  • Gefällt mir
Reaktionen: Quidproquo77
Zurück
Oben