9950X3D schneller als 9800X3D? Core-Parking-Probleme behoben?

Ich frage mich bei solchen Diskussionen ja immer :"Was ist das verdammte Problem?" Die Spiel laufen absolut flüssig, es ist die schnellste Spiele-CPU die es gibt? Ich sehe hier einfach 0,0 Probleme?

Ich frage wirklich. Wo ist das Problem? Ich werde es auch nie verstehen, warum man als Besitzer einer 4090, sich jetzt ne 5090 kaufen will? Damit Spiele satt mit 200 fps mit 220 fps laufen?

Ich gönne da jedem, keine Frage, aber warum verbrennt man unnötig Geld? Ich habe nen 5800X und ne 4080 und ich spiele alles auf MAX/Ultra in WQHD? Welchen MEhrwert habe ich von einem 9800X3D oder einer 5090? Es ist mein wirklicher Ernst. Erklärt es mir bitte. Wenn es nur der "Will haben Faktor ist...ok..akzeptiert (denh abe ich gerade mit einem MacMini M4) aber sonst?
 
  • Gefällt mir
Reaktionen: derfernseher, Arboster und tollertyp
Firefly2023 schrieb:
Wenn es nur der "Will haben Faktor ist...ok..akzeptiert
Da ist was dran:D Bis vor knapp´ner Woche war ich so zufrieden mit meinem PC und v.a. CPU, weil der MSFS 2024 wirklich top bei mir lief. Aber als ich sah, dass die 4090 zurzeit wieder im Preis so stieg, dachte ich ´hey, verkauf doch deine und nimm das Geld als Anzahlung für die 5090´. Gut möglich und sehr wahrscheinlich, dass ich auch ohne Anzahlung die 5090 im Visier hätte. Ich muss aber auch sagen, dass ich neugierig auf die Technik bin und ahne, irgendein Feature wird kommen, auf welches ich dann auch nicht verzichten möchte und auf mehr Frames auch nicht, bin da jetzt echt verwöhnt und wenn ich sehe, dass Wukong oder Cyberpunk im spieleigenem Benchmarktest bei grafisch vollem Anschlag bei Weitem keine 120 Frames reißen, da kann ich es kaum abwarten, dass es bald besser wird. Die Verbesserung muss also auf jeden Fall ersichtlich und spürbar sein!:hammer_alt: Deshalb hab´ ich mir keinen 13900/14900K geholt, die Differenz war es mir einfach nicht Wert, außer natürlich bei einem super günstigen Preis... Und ob die 9950X3d CPU in 4K mit der 5090 soviel mehr reißen wird als der 12900K, muss sich auch erst noch zeigen, aber jetzt halte ich es kaum aus abzuwarten, weil die 5090 vor der Tür steht und ich mein System jetzt doch nochmal refreshen möchte :D
 
derfernseher schrieb:
Im Endeffekt ist das Schicksal also schon besiegelt und der 9800X3d bleibt die Nummer 1 für Gamer? Also kein abwarten...?
sollte die ps6 oder 7, oder die dazu passende xbox, mehr als 8 Kerne haben, wird es vielleicht mehr Spiele geben die mehr als 4 Kerne nutzen.
bis dahin bleiben es eher 4 Kerne die Spieler brauchen. manchmal 8
 
  • Gefällt mir
Reaktionen: tollertyp und derfernseher
madmax2010 schrieb:
bis dahin bleiben es eher 4 Kerne die Spieler brauchen
Daher kann ich auch mit meinem Zweit-PC ´übertakteter i7 4790K gepaart mit 3090RTX´ noch zig Games in 4K und 60+ Fps spielen, Raytraycing runter, Lossless Scaling on und auf geht´s :hammer_alt:
 
nah, aktuelle 4 Kerne sind schon sehr viel schneller als vor 10 Jahren.
und haben deutlich mehr Instruktionen
 
  • Gefällt mir
Reaktionen: derfernseher und nutrix
Firefly2023 schrieb:
Ich frage mich bei solchen Diskussionen ja immer :"Was ist das verdammte Problem?" Die Spiel laufen absolut flüssig, es ist die schnellste Spiele-CPU die es gibt? Ich sehe hier einfach 0,0 Probleme?

Ich frage wirklich. Wo ist das Problem? Ich werde es auch nie verstehen, warum man als Besitzer einer 4090, sich jetzt ne 5090 kaufen will? Damit Spiele satt mit 200 fps mit 220 fps laufen?
Ganz einfach, weil einige Spiele auf 4K UHD mit allen Details eben keine 200 FPS liefern, sondern weniger. Ich sag mal nur MSFS 2024 mit einer Meta Q3 oder Pimax Crystal und Tiefflug in einer Stadt mit 30-40 FPS.
Manche mögen kein DLSS und spielen lieber nativ...
Firefly2023 schrieb:
Ich gönne da jedem, keine Frage, aber warum verbrennt man unnötig Geld? Ich habe nen 5800X und ne 4080 und ich spiele alles auf MAX/Ultra in WQHD?
Und andere spielen auf 4K, Du bist ja nicht die Referenz hier. Und weil es das Hobby ist, das aktuelle zu haben? Von den Leuten, die nicht nur mit der GPU spielen, sondern auch Anwendungen wie Rendern und KI machen, mal ganz zu schweigen.
 
  • Gefällt mir
Reaktionen: Pisaro und derfernseher
Ich bin genau wegen dieser Thematik vom 7950X3D auf den 9800X3D gewechselt.

Ich musste immer überprüfen (Game Bar), ob die Zuweisung korrekt funktioniert hat.

Bei ganz neuen Spielen hat es in 7/10 Fällen korrekt funktioniert. Bei Titeln, die schon einige Monate am Markt sind in 9/10 Fällen.

Ich hatte selbst vor Jahren einen 12900K, bevor ich auf AMD mit AM5 umgestiegen bin.

Der FS2024 läuft auch mit 8/16 extrem performant in 4K Ultra.

Ich nutze kein DLSS, sondern TAA+ Frame Generation. Damit geht schon einiges.

In 98% der Fällen wird auch der 9950X3D nur ein CCD nutzen und somit als 9800X3D laufen.

Die fehlenden Kerne wirst Du im Alltag, wenn Du keinen Usecase für viele Kerne hast, niemals merken.

Die IPC ist bei ZEN5 extrem hoch.

In Spielen hast Du mit einem 9950X3D nahezu keinen Vorteil, es sei denn, dass dieser OOTB auch wieder mit mehr Takt kommt.

Der 7950X3D durfte mit 5,2Ghz, statt 5Ghz auf dem Cache CCD takten.
 
  • Gefällt mir
Reaktionen: derfernseher
Wie viele Cores eine CPU fürs Gaming brauche, das kann man anhand der aktuellen sowie nächsten Konsolen-Generation ablesen. Die Games werden zu 99% vorzugsweise dafür optimiert.

Acht Cores und 16 Threads sind es aktuell. Bezüglich der Sony PlayStation 6 ist von 12 Cores und 32 Threads die Rede. Die Aufstockung um 4 Cores gegenüber der aktuellen Konsolen-Generation (8 Cores | 16 Threads) habe ich kommen sehen: Wie jene 32 Threads sich zusammensetzen sollen...
https://x.com/Zuby_Tech/status/1539350040787001344

Jedenfalls... Es erfordere keine 16-Core-CPU. Ein hochgetakteter Zwölfkerner lange aus, insofern man auf thermisch kritische Brechstangen steht.
 
  • Gefällt mir
Reaktionen: derfernseher
derfernseher schrieb:
Daher kann ich auch mit meinem Zweit-PC ´übertakteter i7 4790K gepaart mit 3090RTX´ noch zig Games in 4K und 60+ Fps spielen, Raytraycing runter, Lossless Scaling on und auf geht´s :hammer_alt:
Ist dir schon mal aufgefallen, dass CineBench nicht die Zahl der Kerne anschaut und alle CPUs mit gleicher Kern-Anzahl exakt gleich einstuftUnterschiedliche CPUs mit gleicher Kernzahl bekommen da tatsächlich unterschiedliche Ergebnisse. Das sogar reproduzierbar.
Das Verrückte ist: Das ist bei anderen Benchmarks in der Regel auch so...

Der Thread war schon sinnlos, aber mit solchen Aussagen machst du ihn noch sinnloser...

Wieso nutzt du eigentlich keinen Threadripper 2990WX? Der hat doch 32 Kerne und 64 Threads. Der lässt den 9950X3D doch alt aussehen...
 
derfernseher schrieb:
auch weniger Threads als mein 12900K
Emotional wäre natürlich ein 12 Kerne CCD mit 3D Cache darunter mega :D

Aber nur 11% vor einem 13600K in Anwendungen macht das + an Kerne nicht wirklich schön :(
1734941836181.png


Da die 9000er X3D nicht mehr weniger Takt haben, fallen diese auch nicht mehr so weit zurück in Anwendungen.
Wenn also ein 9800X3D 13% vor einem 14600K ist, dann sind die weniger Kerne trotzdem so schnell in Anwendungen :daumen:

1734941983488.png
 
t3chn0 schrieb:
Ich musste immer überprüfen (Game Bar), ob die Zuweisung korrekt funktioniert hat.

Ja, einmal beim ersten Start des Spiels.

t3chn0 schrieb:
In Spielen hast Du mit einem 9950X3D nahezu keinen Vorteil, es sei denn, dass dieser OOTB auch wieder mit mehr Takt kommt.

Shader Compilierung ob es einem das Wert ist muss man selber wissen! Ich hab bei manchen Spielen mit 16 Kernen auf Volllast schon Krämpfe beim Warten, weil man es nicht mehr gewohnt ist.
 
Firefly2023 schrieb:
Das Video ist ja mal absolut nichtssagend. Ich habe beide hier und DLSS sieht auf beiden identisch aus.
Das ist doch prima, hast Du dann mit Deiner 4080 auch die exakt gleichen FPS bei den gleichen Szenarien?

Und denk daran, ich sprach von VR.
 
Nein, die FPS sind tatsächlich unterschiedlich, aber in beiden Fällen eben in Bereichen die als absolut flüssig zu bezeichnen sind, in beiden Fällen mit DLSS und FG und klar , je nach Gebiet, zwischen 120 (2020) und so 75-90 (2024). Wobei ich sagen muss, dass der 2024 wieder von der Platte fliegt, er überzeugt leider so gar nicht. Ich warte da noch so 3-5 Patches ab. Zum großen Teil ist Grafik nämlich schlechter, was am Streaming liegt, trotz einer stabilen 250000er Leitung, kommen die Daten nicht schnell genug nach.
 
Firefly2023 schrieb:
Nein, die FPS sind tatsächlich unterschiedlich, aber in beiden Fällen eben in Bereichen die als absolut flüssig zu bezeichnen sind, in beiden Fällen mit DLSS und FG und klar , je nach Gebiet, zwischen 120 (2020) und so 75-90 (2024).
Auf dem Monitor bei Dir mit WQHD ja. Aber das sieht dann, wie im Video, gemessen über eine VR Brille (Prixmax Crystal 2880 x 2880 Pixel pro Auge, das ist mehr als das doppelte als bei Dir) wieder anders aus, und da gehts selbst mit einer 4090 runter auf bis zu 30 FPS, was ich so bei einigen Flugsim Foren so laß. Die gieren sehr wohl nach mehr Leistung. Oder denk an die Leute, die den MSFS sogar im Multimonitorsetup spielen.
 
Ich muss das mal bei meinem Bruder testen, er hat ne Meta3. Aber selbst 30 FPS die stabil laufen reichen für den FS, wenn es nicht gerade Tiefflug Missionen mit der F-18 sind.

Ich bleibe dennoch dabei, dass man, sollte man einen 7800X3D haben und eine 4080/4090 nicht aufrüsten braucht, wenn man den „Will haben“ Zwang nicht hat.
 
Firefly2023 schrieb:
Ich muss das mal bei meinem Bruder testen, er hat ne Meta3. Aber selbst 30 FPS die stabil laufen reichen für den FS, wenn es nicht gerade Tiefflug Missionen mit der F-18 sind.
Dir vielleicht. Es gibt andere, die reagieren sehr empfindlich auf Geruckle im niedrigen FPS Bereich. Aber das ist natürlich ein volles Luxusproblem. Und mir mußt Du das nicht sagen mit den 30 FPS, ich hab seinerzeit mich mit Crysis und Gothic 3 mit weniger als 30 FPS im Spiel gequält, und trotzdem durchgezockt.
Firefly2023 schrieb:
Ich bleibe dennoch dabei, dass man, sollte man einen 7800X3D haben und eine 4080/4090 nicht aufrüsten braucht, wenn man den „Will haben“ Zwang nicht hat.
Man kann für alles Kompromisse finden, wie so immer im Leben.

Fakt ist, mal kann mit entsprechenden Setups sehr wohl an eine Leistungsgrenze kommen. Ob man unbedingt immer die bestmögliche Renderqualität beim Spielen braucht, ist eine andere Frage. Schöner siehst auf alle Fälle aus.
 
  • Gefällt mir
Reaktionen: derfernseher und iron_monkey
iron_monkey schrieb:
Shader Compilierung ob es einem das Wert ist muss man selber wissen! Ich hab bei manchen Spielen mit 16 Kernen auf Volllast schon Krämpfe beim Warten, weil man es nicht mehr gewohnt ist.
Shader Compilation, keine Ahnung. Habe zuletzt nur Stalker 2 gespielt, da habe ich keinen großen Unterschied zwischen 13700K und 9800X3D gemerkt. Dauert mir bei beiden CPUs zu lange, aber muss man heutzutage wohl in Kauf nehmen.
 
Zurück
Oben