News Glaubhaftes Gerücht: AMD Ryzen 9 9950X3D & 9900X3D Ende Januar im alten Design

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.839
  • Gefällt mir
Reaktionen: dasBaum_CH, K3ks, t3chn0 und eine weitere Person
Also alles wie gehabt.
Bin gespannt ob sich die Leistung im Game soviel erhöht, das man drüber nachdenken muss.


weil die wenigsten Spiele von mehr als acht Kernen profitieren
Ich finde das mittlerweile sehr seltsam.
Bei der Grafik werden die Spieler immer anspruchsvoller, wenn du AAA spielen willst, wird kein Hehl daraus gemacht, das du alle zwei Jahre eine neue GPU benötigst.
Bei der Kernen wird schon gefühlt seit einem Jahrzehnt gesagt, mehr als 4, 6 braucht man nicht.
Da wird zwar die Leistung immer mehr, aber wann hat mal ein Spiel (eine Simulation, zB AoE, Anno) einen echten Vorteil von 10+ Kernen?

Wenn die Spiele mal "in der Breite" gemacht werden und nicht immer nur von mehr Takt und IPC und profitieren.

2007 haben wir gerechnet, das 2*3Ghz langsamer wäre als 4*2,4 GHz ;)


PS:
Vertipper gleich im zweiten Absatz.
 
Zuletzt bearbeitet:
Naja, AMD hätte ja weiterhin die Möglichkeit, später auch eine Variante mit V-Cache unter allen DIEs vorzustellen. Müssten sich ja bloß einen Namen ausdenken --- X3D Dual (weil zwei vorhanden sind) oder X3D Omni (weil sie überall vorhanden sind) böten sich an.

Persönlich würde ich zu einem gemischten Aufbau nur dann greifen, wenn man ein Zen5 und Zen5C-DIE miteinander kombiniert: Denn dann erhält man immerhin etwas! (nämlich massive Multicoreeffizienz in perfekt parallelisierbaren Programmen)
 
  • Gefällt mir
Reaktionen: stefan92x und gesperrter_User
War mit zu rechnen leider, wahrscheinlich wird das Teil einfach zu heiss werden.
 
Jan schrieb:
Das gelingt in der Regel, allerdings nicht immer: Stalker 2 (Test) wurde beispielsweise zum Start in der vergangenen Woche nicht als Spiel erkannt und lief ohne manuellen Eingriff in der Game Bar auf dem falschen Chiplet.

Damit das nicht passiert, würde es reichen, wenn das Chiplet mit X3D von allen Anwendungen priorisiert wird, und nicht nur von Spielen. Wenn AMD es also schafft das X3D-Chiplet hoch genug zu takten, brauchen die diesen Game Bar-Work-Arround gar nicht.

Ich hoffe, AMD geht diesen Weg, damit diese Game-Bar-Geschichte endlich ein Ende hat.
 
  • Gefällt mir
Reaktionen: Cruentatus und stefan92x
Wäre sehr schade. Eine Halo-CPU kann auch Features besitzen die aktuell nicht genutzt werden. Ist doch egal ob es teurer wird. Die Enthusiasten würden die Preise zahlen.
 
  • Gefällt mir
Reaktionen: klpp und Kommando
Jan schrieb:
Nutzer müssen in diesem Fall über das Overlay der Xbox Game Bar manuell die Zuordnung vornehmen.
Ist das eigentlich bei jedem Neustart (des PCs oder auch nur Spiels) der Fall oder merkt sich die Xbox Game Bar-App die Einstellungen pro Anwendung dauerhaft, ähnlich wie die anwendungsgesteuerten Einstellungen im AMD- oder nVidia-Grafiktreiber?
 
Super, wenn die beiden raus kommen, dann werden die non 3d chips unattraktiver und man kann sich ein was schönes für einne guten preis holen. Ich freu drauf :D
Bin aber auch sehr gespannt wie die Leistungsdaten von den beiden werden. Nur weil sie scheinbar wieder nur einen die mit 3d besetzten, dass die dinger nicht trotzdem noch überraschen.
 
Convert schrieb:
Ja, als Threadripper, natürlich dann auch auf dem teuren Threadripper-Sockel^^

https://www.computerbase.de/news/pr...t-bald-auch-fuer-threadripper-und-apus.90186/
Omni...
CDLABSRadonP... schrieb:
X3D Dual (weil zwei vorhanden sind) oder X3D Omni (weil sie überall vorhanden sind) böten sich an.
...bietet sich entsprechend eher an.

BTW:
Die bisherigen TRX50er-Mainboards sind, gemessen daran, wie nischig sie sind, übrigens ziemlich gemäßigt bepreist. Da wird bei den Mainstream-Plattformen mit den dortigen "HighEndBoards" (hahaha) deutlich mehr Abzocke betrieben.
 
  • Gefällt mir
Reaktionen: public_agent
Jut, dann ist ein Upgrade auf nen 12-Kerner weiterhin unattraktiv. Spart mir Geld. Top! :)
 
Convert schrieb:
Damit das nicht passiert, würde es reichen, wenn das Chiplet mit X3D von allen Anwendungen priorisiert wird, und nicht nur von Spielen. Wenn AMD es also schafft das X3D-Chiplet hoch genug zu takten, brauchen die diesen Game Bar-Work-Arround gar nicht.
Ja, der "Vorteil", den es letzte Generation gab (und der auch dort nur eine Lachnummer war, deshalb die Anführungsstriche) ist mittlerweile Geschichte.
 
  • Gefällt mir
Reaktionen: Convert
Meiner erinnerung nach wurden von Testseiten gerne auch auf 12 und 16-Kerner verwiesen. Zukunftssicherheit...
Dass ein neuer 8-Kerner besser ist als ein 12/16er wird in den Tests meist auch erwähnt.
Da passt dann etwas nicht so ganz zusammen.
Somit hatte Intel lange Zeit mit ihren 4 Kernen recht: Mehr brauch man nicht.
Aktuell sind wir bei 8. Und ich wage zur Vorhersage, dass dies die nächsten 5 Jahre sicher reichen wird.
Selbst in 10 Jahren bin ich überzeugt, dass ein dann aktueller 8-Kernen nur bei wenigen Spielen spürbar schwächer abschneiden wird.
 
Vielleicht stoße ich etwas auf Unverständnis, vielleicht ist es auch nur ans Thema "angelehnt"... aber ich habe immer mal wieder mit dem Ryzen geliebäugelt. Das Problem ist das leidige W-Lan -Thema der Mainboards. Ich kann naturlich nicht alle durchtesten, aber diverse Erfahrungsberichte verfluchen die AMD/ MediaTek WiFi-Chips. Gleiches gilt auch für die Realtek Chips. Es gibt wohl auch andere Nischen wie QualComm oder Killer WiFi (6/7)... Das Einzige was mich zum Kauf und ans System hält ist im Grunde der Intel WiFi Chip (AX210) auf meinem System. Ich weiß, dass ich bspw bei AsRock / Nzxt einfach(er) den m2 WiFi Chip tauschen kann - aber ich will eine "ou of the Box -Lösung" und nicht daran rumbasteln...
 
michi_z1981 schrieb:
Wenn die Spiele mal "in der Breite" gemacht werden und nicht immer nur von mehr Takt und IPC und profitieren.
Das grundlegende Problem: Multithreading für Game Engines ist verdammt schwierig.

michi_z1981 schrieb:
Bei der Kernen wird schon gefühlt seit einem Jahrzehnt gesagt, mehr als 4, 6 braucht man nicht.
For 10 Jahren haben die meisten Spiele 2 Kerne gebraucht und von mehr als 4 seltenst profitiert.
Mittlerweile gibt es eine Vielzahl Beispiele, die auf einem Vierkerner ohne SMT nicht laufen und mindestens 6 Kerne (oder 8 Threads) benötigen.
 
  • Gefällt mir
Reaktionen: Kommando
Steini1990 schrieb:
Wäre sehr schade. Eine Halo-CPU kann auch Features besitzen die aktuell nicht genutzt werden.
Glaube der Markt für CPUs, die 100€+ kosten für nahezu 0% Performancegewinn haben, ist eher gering. Wir werden es aber wohl nicht herausfinden, wer eher recht hätte.
 
  • Gefällt mir
Reaktionen: ReVan1199
War absehbar wenn man kurz vorher ein Feature wie den "AMD Turbo Mode" für Ryzen 9000 einführt welcher SMT und ein 1x CCD deaktiviert.
 
  • Gefällt mir
Reaktionen: t3chn0
Dito schrieb:
Meiner erinnerung nach wurden von Testseiten gerne auch auf 12 und 16-Kerner verwiesen. Zukunftssicherheit...
Dass ein neuer 8-Kerner besser ist als ein 12/16er wird in den Tests meist auch erwähnt.
Da passt dann etwas nicht so ganz zusammen.
Somit hatte Intel lange Zeit mit ihren 4 Kernen recht: Mehr brauch man nicht.
Aktuell sind wir bei 8. Und ich wage zur Vorhersage, dass dies die nächsten 5 Jahre sicher reichen wird.
Selbst in 10 Jahren bin ich überzeugt, dass ein dann aktueller 8-Kernen nur bei wenigen Spielen spürbar schwächer abschneiden wird.
Das ist ja nicht schwierig. So lange es keine Konsolen mit mehr als 8-Kernen gibt.

10 Jahre halte ich für zu weit nach vorne geschaut. Aber ja, man wird auch dann noch mit 8 Kernen zocken können. Genauso kann man ja auch heute noch mit 4 Kernen zocken.
 
Zurück
Oben