Test 9800X3D vs. 14900K mit RAM-OC im Test: Welche CPU ist die beste Gaming-Wahl für die RTX 5090?

Nuklon schrieb:
Es geht darum welche CPU die beste ist. Es geht nicht um den Balken.
Korrekt. Und eine Aussage dazu kann ein 4K-Test eben viel weniger effektiv machen, da die GPU zu limtieren pflegt.
Nuklon schrieb:
Ein 4K Test hätte festgestellt das ein 9800X3D rausgeschmissnes Geld ist und es 95% der Fälle auch eine halb so teure CPU tun würde.
Das kann das Fazit sein, wenn du das Geld nicht ausgeben willst, ja. Eine Aussage bzgl. der Leistungsfähigkeit der CPU ggü. anderen hast du dann aber nicht. Und die wollen Reviews eben machen.
 
  • Gefällt mir
Reaktionen: Kai85
Und mit einer 360p Testreihe und der 4090 könnte man schon heute einen Artikel zur kommenden 6090 vorschreiben, oder wie habe ich das zu verstehen, liebe CB-Redaktion? ;)

Da die 5090 in etwa so realistisch zu kaufen ist wie eine 6090, ein quasi legitimes Verfahren ;)
 
Laphonso schrieb:
Die 5090er freuen sich bereits auf die 10800x3D CPUs :D
Bis der kommt dauerte aber noch. Willste 2 Jahre wenn’s schlecht läuft die 5090 ausbremsen?

Ich sehe schon das bei dir nen 9950X3D in die Signatur wandert. 😁
 
sNo0k schrieb:
[ ] Du hast den Sinn von CPU-Tests verstanden...
Du kannst eine CPU nicht testen, wenn Du dich im GPU-Limit befindest!
Du Blitzbirne…
Insofern ist doch schon die Artikelüberschrift unsinnig. Nicht verstanden, oder???
Ergänzung ()

heroesgaming schrieb:
Erwartbare Aussage. Gleichwohl bleibt die Kritik an 720p-Tests für CPUs eigentlich Unsinn ... :P

Nicht böse gemeint, aber man liest es halt ernsthaft unter jedem CPU-Test. Es ist schlicht falsch. Geh' einfach davon aus, dass die Unterschiede Richtung 4K immer kleiner werden und ggf. verschwinden.
Siehe oben, die Überschrift ist halt schon irreführend und wären hier ein oder zwei Praxistests halt schon ganz gut gewesen- dann hätte nämlich auch das Fazit ist differenzierter ausfallen müssen…
 
Zuletzt bearbeitet:
Schön wäre noch der Vergleich mit Intels Ultra 9 285k.
Natürlich würde der das Schlusslicht bilden, aber dann wären alle High End CPUs im diesem Vergleich und man würde auch die Effizienz des 285k sehen.
 
  • Gefällt mir
Reaktionen: estros und Kai85
Puh, ich weiß ja nicht. 7800 C36 ist bei Intel bestenfalls Durchschnitt und definitiv nicht „ scharf“. Vor allem, wenn ich die Speicherlatenz von 56,4 ns sehe … das ist halt gar nichts für ein Apex Encore.

Ich komm mit meinem getunten 6800 bei CL30-40-40-40 ja schon auf 57 ns - auf einem Z790 Aorus Master und mit weniger Core Takt. Scharf wäre 8400 C36 bei 51-52 ns. Beim 14900K wurde noch einiges an Potential liegen gelassen.
 
Fighter1993 schrieb:
Willste 2 Jahre wenn’s schlecht läuft die 5090 ausbremsen?

Ich sehe schon das bei dir nen 9950X3D in die Signatur wandert. 😁
@Fighter1993 Nee nee, der 9800x3D ist gesetzt, es sei denn der 9950x3D kommt noch vor der 5090 🤣

Ich rechne aber in Q1 2026 aber tasächlich mit einem 10800x3D
 
lxmichi schrieb:
Schön wäre noch der Vergleich mit Intels Ultra 9 285k.
Natürlich würde der das Schlusslicht bilden, aber dann wären alle High End CPUs im diesem Vergleich und man würde auch die Effizienz des 285k sehen.
Die Effizienz sieht man im dem Test nicht, da man die nur bei gleicher Leistung Messen kann.
 
Chaz schrieb:
Du würdest teilweise deutlich mehr als 5% bei einer 5090 und auch schon bei der 4090 verlieren, je nach Spiel und CPU-Limit. PCGH hat dazu bereits einen Test mit der 4090 in 4K (!) gemacht und die wurde teilweise deutlich von schlechteren CPUs eingebremst.
sicher in 4K? 2880p war wohl unspielbar? 😀 mehr als 5% im vergleich zu was? ändert aber auch alles nichts, wenn ich die 5080 nehme werde ich irgendwo einbußen in kauf nehmen müssen, und dann rüste ich die cpu irgendwann auf und habe die 5080 im rechner und ärgere mich, so oder so, wollte ich eigentlich nur auf folgendes hinaus: ich kaufe mir doch keine schlechtere grafikkarte weil die bessere grafikkarte ein paar prozent verliert, solange ich meine cpu noch nicht aufgerüstet habe... die schlechtere grafikkarte wäre dann auch auf gar keinen fall irgendwo besser als die bessere graka, günstiger jaoa 😂
 
Mich hätten auch die Leistungen und der Stromverbrauch der CPUs bei 1440p und UHD interessiert. 720p ist zwar bekannt gut wenn man die CPU zum limitierenden Faktor machen will, aber selbst First Person Shooters wird doch kaum jemand mehr in 720p spielen, vor allem nicht, wenn man eine 4090/5090 (oder auch eine 4080/5080) hat. In E-Sport Titeln, bei denen es auf maximale FPS ankommt und die in 720p gespielt werden, ist das wahrscheinlich etwas anderes. Da ist eine 9800 X3D mit optimiertem RAM auf jeden Fall die richtige CPU, egal welche GPU im System ist.
Und, wie verhält es sich denn bei einer 7900 XT oder XTX? Die gibt's ja auch noch, und sind sogar erhältlich 😀!
 
Laphonso schrieb:
Ich rechne aber in Q1 2026 aber tasächlich mit einem 10800x3D
Vielleicht hab ich das auch falsch im Kopf, aber hieß es in der aktuellen Gerüchte Lage nicht Zen 6 für frühestens Ende 2026. Das würde auch zu der Intel Roadmap passen. Panther Lake für 2025 H2 (vielleicht nur Mobile) und größerer Sprung mit Nova Lake für 2026 H2 (Desktop und Mobile).
Bin nämlich auch aktuell am Überlegen, ob ich in ein paar Monaten meinen 5800X3D gegen den 9800X3D tausche. Wenn Zen 6 noch 2025 kommt, würde ich nochmal umdenken (Zen 6 klingt deutlich interessanter als Zen 5), bin jetzt aber erst von Ende 2026 ausgegangen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
RotkohlRitter schrieb:
Vielleicht hab ich das auch falsch im Kopf, aber hieß es in der aktuellen Gerüchte Lage nicht Zen 6 für frühestens Ende 2026.
Dann bin ich es der, der sich wohl irrt, weil ich in dem Kontext Zen6 zusammen mit RDNA5 gelesen habe, dann wird das wohl doch eher Ende Q3 oder im Q4 2026 etwas.
 
  • Gefällt mir
Reaktionen: RotkohlRitter
Bei CPU Gaming-Tests kann man Computerbase schon lange vergessen, eben wegen der 720p Problematik. Das auch noch in absoluten FPS darzustellen statt ausschließlich in %, ist umso mehr falsch, da es falsche Erwartungen verspricht. Wir haben mittlerweile so tolle CPUs auf dem Markt, die halten Generationen von GPUs, wenn man sie nicht bei 720p betreibt.
Dabei habe ich nicht mal was gegen CPU-Limit Tests, aber diese sollten gesondert von der Realität sein und die theoretische Leistung der Modelle/Architekturen gegenüberstellen.

Eine Kaufempfehlung zu aktuellen CPUs für Gaming Rechner hole ich mir schon lange woanders.
 
  • Gefällt mir
Reaktionen: JoeDante
Teisi schrieb:
Gerade bei den Core Ultras scheinen schnellere ArbeitsspeicherRiegel evtl. sogar CUDIMM ja doch einen Unterschied zu machen... Warum testet das so gut wie niemand?

Und zu den AMDs - habt ihr euch die INTEL 1% Lows angeguckt?
Also ich finde AMD ist da ziemlich mies drin - mir sind konstante Frames lieber als ständige Sprünge drin zu haben^^ Und bei über WQHD interessiert AMD gleich gar nicht mehr <- warum? Weil sie da nicht schneller sind, im Gegenteil maximal gleich auf UND ich dann bei allem was nicht Gaming ist, auch noch Ultradeutliche Abstriche machen muss...

AMD ist Müll - solange die ihre Software / Treiber nicht auf die Reihe bekommen, bei den Grakas ist es das selbe - Hardware = Toll - Software = Müll
Originelles Posting.^^
 
Kezkat schrieb:
fps sind die eine sache, aber für paar fps mehr generell darauf verzichten das ALLES schneller läuft?:)
Also, um dass mal klar zu stellen. Nichts läuft da schneller.

Ein 7950X (3D) schlägt einen 14900K in Spielen und Anwendungen. Der 9950X noch deutlicher.

Damit ein Ladevorgang erstmal schneller gehen könnte, auf einem 24Kernigen 14900K als auf einem 8Kerner 9800x3D, dafür müsste erstmal ein CPU limit beim laden existieren (selten) und dann noch dass spiel/anwendungen, explizit beim Laden mehr als 16 Threads vernünftig unterstützen...sehr sehr sehr selten. Viele Dinge lassen sich nicht gut paralellisieren.
 
Zuletzt bearbeitet:
estros schrieb:
Wir haben mittlerweile so tolle CPUs auf dem Markt, die halten Generationen von GPUs, wenn man sie nicht bei 720p betreibt.
Das kommt darauf an, was und wie du spielst und vor allem, ob du immer die neuste High-End Karte nutzt.
Im Falle der 4090 gilt das nämlich nicht immer. Hier mal ein paar Beispiele von PCGH mit 5700X3D (als kleiner Bruder des 5800X3D, der Top Gaming CPU 2022 von vor 3 Generationen) gegenüber dem 9800X3D in UHD. Da sieht man, dass der 5800X3D/5700X3D den Sprung von High-End RTX 3000 auf RTX 4000 stellenweise nicht so gut überlebt hat.
1738617573215.png

1738617681905.png
 
  • Gefällt mir
Reaktionen: Laphonso
ToaStarr schrieb:
Insofern ist doch schon die Artikelüberschrift unsinnig. Nicht verstanden, oder???

Nein, ist sie nicht. Sie ergibt absolut Sinn.
Wer im Glashaus sitzt...
 
ToaStarr schrieb:
Siehe oben, die Überschrift ist halt schon irreführend und wären hier ein oder zwei Praxistests halt schon ganz gut gewesen- dann hätte nämlich auch das Fazit ist differenzierter ausfallen müssen…
Man kann die Überschrift aber auch anders lesen, etwa nach dem Motto "Die beste Grafikkarte braucht die beste CPU". Und die beste Spiele-CPU lässt sich mit Tests in hoher Auflösung halt ggf. nicht ermitteln.
Dass dagegen jener Prozessor, der in 720p und 1080p am besten abschneidet, dies auch in 4K tun wird - wenngleich der Abstand dann klein bis nicht mehr sichtbar ist - ist klar. Denn einer CPU ist die Auflösung am Ende ja egal, es geht nur darum, Unterschiede überhaupt abbilden zu können.
 
Ranayna schrieb:
Der Verbrauchsbalken ist toll, der gefaellt mir in den Diagrammen sehr.
Aber wie kommt denn Horizon: Forbidden West da zustande? Was macht das Spiel anders damit es unter Intel nicht - wie alle anderen - so viel mehr Strom verbraucht?

Das Spiel lastet den Intel einfach nicht aus. Warum auch immer.
Man beachte die roten Linien für den am höchsten ausgelasteten Thread/Core.
Intel:
1738617900615.png


AMD:
1738617920046.png


VG
 
  • Gefällt mir
Reaktionen: KlaasKersting, Moeller13 und Ranayna
Zurück
Oben