Test 9800X3D vs. 14900K mit RAM-OC im Test: Welche CPU ist die beste Gaming-Wahl für die RTX 5090?

Wer Intel heutzutage kauft um zu zocken, dem ist echt nicht mehr zu helfen.
Mein neuer Preis/Leistungs Sieger ist der 7600X3D.

1738653925880.png
 
  • Gefällt mir
Reaktionen: danyundsahne
sNo0k schrieb:
[ ] Du hast den Sinn von CPU-Tests verstanden...
Du kannst eine CPU nicht testen, wenn Du dich im GPU-Limit befindest!
Im Gegensatz zu den bisherigen CPU Tests, gings hier doch darum, ob die beiden CPUs die 5090 (in der Praxis) ausbremsen. 720p verhindert zwar (meist) ein GPU Limit, aber es ist praxisfern.

Insgesamt ist das hier ein Abklatsch vom 9800X3D Test ohne neue Infos. Gerade mit dem Titel hätte man durchaus auch mal andere Auflösungen testen dürfen und über die Praxisrelevanz sprechen dürfen.
Es wäre durchaus mal interessant gewesen wenn man sich mal die Frametimes bei der Wald und Wiesen Auflösung WQHD anschaut. Gerade bei den Frametimes ist der Vorsprung von AMD gar nicht mehr so gigantisch.

Ebenso finde ich es schon albern nicht den aktuellen Core Ultra zu nutzen, der fast die gleiche Leistung mit einer halb so großen Stromaufnahme schafft.
 
  • Gefällt mir
Reaktionen: AtsmPrime und gesperrter_User
MalWiederIch schrieb:
Überraschend, dass man am Ende in Spielen gerade einmal 15% hinten liegt - bei den 15% der RTX 5080 zur 4080 sprechen alle von einem warmen Aufguss ...
Von einem hochpreisigen Nachfolgeprodukt kann erwartet werden, dass es seinen Vorgänger abhängt ...
MalWiederIch schrieb:
und hier wird wegen läppischen 15% der Untergang von Intel
... hier aber sprechen wir von einem Konkurrenzprodukt eines anderen Herstellers zu einem vergleichbaren (oder, je nach Speicher- und Boardausstattung, deutlich niedrigeren) Preis.

Anders gesagt: Du vergleichst Äpfel mit Birnen, auf Basis dieses Argumentes lässt sich das vermeintliche Untergangsgerede bzgl. Intel nicht ad absurdum führen. Dieser Versuch scheitert also ...
MalWiederIch schrieb:
Dieses Wort gibt es nicht, schon gar nicht in dieser schiefen Konjugation. Du meinst "heraufbeschworen" oder "herbeigeredet", nehme ich mal an.
MalWiederIch schrieb:
Und dann muss man noch überlegen, dass man bei 100€ weniger zum 9800X3D gleich über 50% mehr Rohleistung erhält dank 24 vs 8 Kernen. Muss man eben abwägen, ob einem die gerade einmal 15% lediglich im CPU Limit da so wichtig sind.
Das wiederum ist ein valides Argument. Der Anwendungsbereich eines Rechners sollte beim CPU-Kauf aber ohnehin immer primäre Beachtung finden. Aus diesem Grund steckt in meinem PC etwa ein 7950X, obwohl ich zum gegebenen Zeitpunkt mit einem 7700X praktisch gleiche Spieleperformance zum schmaleren Kurs bekommen hätte.
MalWiederIch schrieb:
Die sind doch ziemlich gleichauf laut CB Leistungsrating, der 285K im Schnitt sogar leicht vorne:

Anhang anzeigen 1579112

Ein 9800X3D mit nur 8 Kernen ist da natürlich mit über 65% sehr weit abgeschlagen etwas hinter einem Ultra 5 …
Wie gesagt, der vorgesehene Anwendungsbereich eines Rechners ist entscheidend. Wer das nicht beachtet, macht ohnehin etwas grundlegend falsch ...
MalWiederIch schrieb:
Du willst den selbsternannten „Watt-Gurus“ doch nicht mit Fakten kommen? Wie säuft der dir kein Loch in den Geldbeutel? :evillol:
Gibt durchaus auch noch andere Faktoren als die Kosten, die ein hoher Stromverbrauch negativ beeinflusst - so etwa Kühlbarkeit und stattfindende Elektronenmigration - gerade bei Raptor ist die Haltbarkeit ja durchaus ein Thema.
MalWiederIch schrieb:
Habe „damals“ auch beim 13700K kurz nach 7800X3D Release gerechnet - 3.000 Stunden im CPU Limit hätten es sein müssen um den Aufpreis des 7800X3D gegenüber des 13700K wieder reinzuholen - und das bei 5% mehr Leistung im CPU Limit, jedoch gleich 50% weniger Rohleistung dank lediglich 8 Kernen …
Again, es gibt gute Argumente für CPUs mit mehr Kernen. Es kommt eben darauf an, was man damit macht. Eine Gaming-Maschine ist mit 7800X3D oder 9800X3D ggü. Intel-CPUs jederzeit besser bestückt, in anderen Szenarien sieht es ggf. anders aus.
MalWiederIch schrieb:
der Stromverbrauch fällt einfach zu wenig ins Gewicht sofern nicht arbeitslos und 24/7 am Zocken …
Mit solcher Polemik stärkst du dein Argument nicht, sondern ziehst es vielmehr ins Lächerliche :)
MalWiederIch schrieb:
Bei nur 15% im CPU Limit ist das wirklich eher das was auffällt - in der Realität sieht man aber, dass man die kWh wirklich mit der Lupe suchen muss. Die laufen ja nicht ansatzweise 24/7, dementsprechend klein der Stromverbrauch und noch kleiner die Differenz zwischen einzelnen Modellen auf der Stromrechnung ;)
Stimmt zwar durchaus, nach wie vor ist die Stromrechnung aber nicht der einzige Faktor, den ein hoher Verbrauch beeinflusst. Und selbst vollkommen isoliert betrachtet, ist eine höhere Effizienz in der vorgesehenen Anwendung ein Qualitätsmerkmal. Schließlich geht es hier ja darum, Produkte zu vergleichen und hier besteht eben ein (sehr deutlicher) Unterschied, der das erlaubt.
MalWiederIch schrieb:
Erbsenzählerei eben, vor allem wenn man 580€ für lediglich 8 Kerne und die dementsprechende Rohleistung zahlt - mit der entsprechenden 2.000€ GPU freut man sich da garantiert über die 3-5 gesparten Euro im Jahr gegenüber einem 24-Kerner :p
Dem Spieler reicht eben gegebenenfalls eine bessere Bildrate, über die er sich freuen kann. Mir scheint, dass du, neben dem (durchaus validen) Verbrauchsargument, in deinem Beitrag fast durchgehend darauf abstellst, dass ein Prozessor mit mehr Kernen potenziell mehr leisten kann. Das stimmt zwar theoretisch auch, ist aber möglicherweise einfach irrelevant, wenn eine CPU hauptsächlich oder ausschließlich für Gaming-Zwecke erworben wird. Dort sind X3D-CPUs dann eben die Effizienz- und Leistungskönige. Das kann man absolut auch einfach akzeptieren - für dich und deinen Anwendungsfall kann ein 13700K ja dennoch die bessere CPU sein. Vielleicht wäre dann am Ende eher ein 9950X3D etwas für dich? Der dürfte dann wirklich in so ziemlich jeder Lebenslage schneller sein, es sei denn eine Anwendung profitiert massiv von den Platzeffizienz-Kernen der Intel-Konkurrenz.
 
  • Gefällt mir
Reaktionen: darkcrawler, CadillacFan77, Zwirbelkatz und eine weitere Person
Teisi schrieb:
Gerade bei den Core Ultras scheinen schnellere ArbeitsspeicherRiegel evtl. sogar CUDIMM ja doch einen Unterschied zu machen... Warum testet das so gut wie niemand?

Und zu den AMDs - habt ihr euch die INTEL 1% Lows angeguckt?
Also ich finde AMD ist da ziemlich mies drin - mir sind konstante Frames lieber als ständige Sprünge drin zu haben^^ Und bei über WQHD interessiert AMD gleich gar nicht mehr <- warum? Weil sie da nicht schneller sind, im Gegenteil maximal gleich auf UND ich dann bei allem was nicht Gaming ist, auch noch Ultradeutliche Abstriche machen muss...

AMD ist Müll - solange die ihre Software / Treiber nicht auf die Reihe bekommen, bei den Grakas ist es das selbe - Hardware = Toll - Software = Müll
Was bist du für ein hardcore Fanboy.

Jetzt sollte jedem klar sein das die Vorherrschaft von Intel bei Gaming zu ende ist.
Kommt mal langsam aus euren blauen Höllen raus und akzeptiert das einfach.
 
  • Gefällt mir
Reaktionen: eXe777 und Snoop7676
  • Gefällt mir
Reaktionen: -MK und Vulvarine
ThePlayer schrieb:
Warten wir mal den Frühsommer ab wenn der 9800x3d dann gut verfügbar ist und der Straßenpreis sinkt.
Wieso bist du dir so sicher, dass das passieren wird?
 
  • Gefällt mir
Reaktionen: eXe777, RotkohlRitter und Esenel
Hätte gerne auch die neue Intel-CPU mal gesehen nach den Updates hier und da.
 
Atma schrieb:
Dann hast aber einen schlechten IMC erwischt. Was sind bei dir starke Cores? SP?

Von Funktionen und Cores abschalten halte ich nichts, hab ich nie gemacht. Und 6 GHz im Gaming sollten mit jedem halbwegs gutem i9 Raptor Lake Sample drin sein ;)

SP 120 und wie oben geschrieben war mir ein AVX stabiles System mehr Wert, als die letzten paar MHz aufm Core.

SavageSkull schrieb:
Insgesamt ist das hier ein Abklatsch vom 9800X3D Test ohne neue Infos. Gerade mit dem Titel hätte man durchaus auch mal andere Auflösungen testen dürfen und über die Praxisrelevanz sprechen dürfen.
Es wäre durchaus mal interessant gewesen wenn man sich mal die Frametimes bei der Wald und Wiesen Auflösung WQHD anschaut. Gerade bei den Frametimes ist der Vorsprung von AMD gar nicht mehr so gigantisch.

Ebenso finde ich es schon albern nicht den aktuellen Core Ultra zu nutzen, der fast die gleiche Leistung mit einer halb so großen Stromaufnahme schafft.

Du bist herzlich dazu eingeladen, dir selbst die drei gewünschten CPUs und Plattformen zu kaufen, bei allen Dreien das maximale OC auszuloten und alle gewünschten Auflösungen durchzutesten.

Ich habe das in meiner Freizeit aus Spaß gemacht.
Niemand hindert dich daran ;-)

Vg
 
  • Gefällt mir
Reaktionen: simosh, Quidproquo77, bad_sign und 2 andere
Beeindruckend wieviel mehr Leistung bei deutlich geringerem Verbrauch AMD da in Spielen abliefert.

Lohnt es sich noch auf den Ryzen 9 mit 3D-Chip zu warten ? Wieviel mehr wird der bringen ?

Gut, aktuell muß man eh jetzt wohl noch Monate warten bis man an eine 5080 in UVP-Nähe kommt :(

Diese Grafikkarten-Situation aktuell ist ein Schlag ins Gesicht.
Schade das AMD nicht zumindest für die 5080 Paroli bieten wird.
 
  • Gefällt mir
Reaktionen: -MK
MalWiederIch schrieb:
gesparten 20-30kWh in 2-3 Jahren getan? Wir sprechen hier schon von gerade einmal 3-5€ im Jahr:
Hast du einen Industriestrompreis oder einfach nur so deine Rechnung frisiert?

Bei durchschnittlichen 0,35€/kWh sind es mit deinen Zahlen nämlich eher 7-10,50€, also mehr als das doppelte von deiner Summe. Solltest du der Fairness halber schon ordentlich rechnen 😉
 
  • Gefällt mir
Reaktionen: Corpus Delicti
Sooooo,
dann fehlt ja nur noch die RTX 5090 :freak:

Davon ab, ist das CPU-Limit doch bei diesen Komponenten eh zweitranig.

Man kauft sich doch kein PC im Wert von 5k€ um dann in 720p zu zocken. Da geht es doch um 4k oder VR und dort hat die CPU eh nur Langeweile.

Über Effizienz lässt sich streiten! Aber leider ist die Ausstattung von Intel-Chipsätzen immer noch alternativlos zu deren von AMD. Wo man mit spitzer Zunge behaupten könnte, AMD wäre eine reine Zockerbude.

Nur meine bescheidene Meinung 😇
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Veitograf
@Kezkat du willst jetzt also implizit aussagen, dass ein 9800x 3D langsam in Anwendungen ist, und daher nicht smooth läuft...? Ohne dazu auch nur irgendwie plausible Daten liefern zu können.

Wie ich schon begründet habe, ist dass sogut wie ausgeschlossen, dass bei einem Spiel irgendeine CPU schnellere ladezeiten hat als ein 9800x 3D. Wenn du dass behaupten magst, dann beweise es bitte.
 
  • Gefällt mir
Reaktionen: Veitograf
Crifty schrieb:
Das vielleicht nicht aber stattdessen wird 6000er RAM weiter optimiert:
den gibts es doch schon länger? ich warte auf 2x32gb module , da ich ich nen 9950x ohne 3d cache kaufen werde und der profitiert noch mehr von niedrigen latenzen.
@MehlstaubtheCat
gibt es schon tests oder prognosen ob 6000CL26-36-36-96, 6400cl 30-36-36-96 (wenn es denn läuft) oder oc 6200 cl28-37-37-96 schneller ist?
 
Bei dem Test fehlt mir das Wichtigste überhaupt: die Auslastung der CPU und GPU.
Und das auch im Vergleich zu einer 4090 und Core Ultra.
Man wusste doch bereits, dass eine 4090 teilweise ausgebremst wird, bei einer 5090 ist das noch viel schlimmer.
Die 25% Mehrleistung der 5090 hätte man auch einfach so im Kopf auf alte Benches der 4090 draufpappen können, wenn es darum geht, sich einfach nur für AMD oder Intel als Untersatz entscheiden zu wollen.
Man stellt sich doch die Frage: was für einen schnellsten Prozessor einer Generation/Technologie benötige ich, wenn mit die dickste Grafikkarte ins System schnallen möchte, und wo bremse ich diese dann noch immer mit aus?
Und da ein 9800X3D bremst, würde man ja gerne wissen, wie schlimm es bei den anderen ausschaut, oder ob die es dank anderer Technologie oder alleine durch die Anzahl der Kerne besser lösen?
Der Test hört also bereits da auf, wo es gerade erst spannend wird, schade.
 
Zuletzt bearbeitet:
Esenel schrieb:
Ein 8 Kern 3D ist da mMn einfach wesentlich robuster aufgestellt.
Aber lassen wir uns überraschen :-)
Man hat auf jeden Fall das potentielle Problem nicht, dass das Spiel auf den falschen Cores läuft. Somit ganz sicher keine Bastelarbeit.
 
  • Gefällt mir
Reaktionen: Esenel
Dafür lahmt das DIng dann sonst wie Sau. Ich bin jedes Mal geschockt wie lahm sich 8 Kern Kisten anfühlen wenn man vom 16 Kerner kommt.
 
Mecke_Dev schrieb:
Wie seit 15 Jahren:
Du willst einfach zocken? AMD
Du willst production und mehrere Dinge gleichzeitig machen? Intel
Das ist sicher nicht seit 15 Jahren so. Von Zen 1 - 3 war die Regel eher genau umgekehrt. Anwendungen AMD, Gaming Intel.
Ergänzung ()

@VRAM Ich benutze kein Windows, vielleicht merke ich es deswegen nicht. Aber bei was genau soll sich das langsamer anfühlen? Den Unterschied sehe ich höchstens wenn ich ein Task habe der parallelisierbar ist (Komprimierung, Code Compilation...). Bei z.B. Browsing kannst du es kaum merken, da Javascript nur Single Threaded ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MGFirewater
MGFirewater schrieb:
gibt es schon tests oder prognosen ob 6000CL26-36-36-96, 6400cl 30-36-36-96 (wenn es denn läuft) oder oc 6200 cl28-37-37-96 schneller ist?
Es ist nicht so wichtig, was der RAM kann,
sondern viel mehr wie viel die CPU auf dem Infinity Fabric (IF)"kann"!

3000 (6000MT/s) ist mit 3:2 Ratio 2000 IF am "besten"
3100 (6200MT/s) ist mit 3:2 Ratio 2066 IF am "besten"
3200 (6400MT/s) ist mit 3:2 Ratio 2133 IF am "besten" (Fehler hab ich korrigiert @Verangry)
3300 (6600MT/s) ist mit 3:2 Ratio 2200 IF am "besten"

Ich hatte bisher nicht einen Ryzen (7000 u. 9000)
der 2200 IF stabil gelaufen ist und es war weit über 1000 Stück.

Somit fällt 3300 (6600MT/s) für mich da raus.

Somit werden sehr wahrscheinlich 3100 (6400MT/s) ist mit 3:2 Ratio 2133 IF
mit niedrigen Timings im "Over all" Benchmarks der beste Kompromiss sein!

Ich hab hier einen Zahlenfehler korrigiert! Danke an @Verangry

Gruß
Mehlstaub
 
Zuletzt bearbeitet: (Zahlendreher korrigiert!)
  • Gefällt mir
Reaktionen: SavageSkull und MGFirewater
Zurück
Oben