Test AMD Ryzen 9 9950X3D im Test: Kompromisslos schnell

Termy schrieb:
Warum wird denn bitte eine Unzulänglichkeit von Windows als Negativpunkt für die CPU aufgeführt?
Vielleicht wg. dem Gesichtspunkt "Praxistauglichkeit"?

Um mal dazu einen Autovergleich zu ziehen (ich weiß, das hinkt immer!): Was nützt der Sportwagen mit mehreren 100en PS, wenn die Reifen nicht die Leistung auf die Straße kriegen?
 
Termy schrieb:
Warum wird denn bitte eine Unzulänglichkeit von Windows als Negativpunkt für die CPU aufgeführt?

Da Microsoft bei der Konkurrenz nicht so hinterher hinkt. Bei der Einführung der P und E Cores lief der Windows Scheduler wesentlich besser als bei der Einführung der X3D CCDs und non X3Ds besser. Was jetzt immer noch der Fall ist.
 
  • Gefällt mir
Reaktionen: dergraf1 und Catrovacer
Kloin schrieb:
Geiler Prozessor aber so ganz verstehe ich nicht warum so hart gefeiert wird. Für den Leistungsanstig säuft der ganz schön viel mehr im Vergleich zum Vorgänger. Aber wer 7000er hat kann die Gen eh auslassen.
Vor allem, was ich absolut nicht verstehe... bei einer CPU in 2025... wieso kann die mehr Leistungsaufnahme haben und z.B. dennoch langsamer sein als die 8 Kern CPU mit X3D?! Es muss doch möglich sein, dass die anderen 8 Kerne z.B. runter getaktet werden etc. etc... auch im Idle Betrieb sollte das doch partiell langsam mal möglich sein, dass man evtl auch Kerne temporär ausschaltet?!

Für mich ist das hier gezeigte eine Enttäuschung. Zu hoher Stromverbrauch, teilweise gar kein Vorteil gegenüber dem 8 Kerner und innovationsloses Energie-/Kernmanagment!
 
  • Gefällt mir
Reaktionen: mscn
denhope schrieb:
Wie muss man sich das mit der Game Bar vorstellen? Reicht es wenn diese einfach im Hintergrund läuft oder muss ich dort irgendetwas manuell machen wenn etwas nicht passt? Wäre super wenn mir hier jemand das etwas genauer erklären könnte.

PC läuft und ich installiere ein Spiel, dann starte ich das Spiel, dann drücke ich Windowstaste+G, dann gucke ich ob ein Kästchen zum anhaken da ist, denn dann läuft es nicht als Spiel, also Häckchen setzen, ist kein Feld da, läuft es bereits als Spiel!
Danach aus dem Spiel raus und zurück -tabben (wenn Häckchen gesetzt werden musste), und im Afterburnaa gucken wo die Last liegt, passt es ok, sonst Spiel neustarten... nie wieder dran denken!

Die Gamebar nutze ich eh wegen meinem Gamepad und das ist wie das Steamoverlay im Spiel nur schon unter Windows...

denhope schrieb:
Habe ich mit der größeren CPU einen Vorteil wenn ich zwar hauptsächlich zocke, aber auf einem zweiten Bildschirm Youtbe/Twitch schaue oder 20-30 Chrome Tabs offen habe und viele Programme im Hintergrund laufen (Spotify, Discord, Wallpaper Engine etc.) - also zahlen sich die 16 Kerne da aus oder ist das irrelevant? So wie ich das verstehe aus vielen Youtube Videos werden die anderen Kerne dann "schlafen" gelegt, oder wie ist das?

Über etwas Klarheit wäre ich sehr dankbar :-)

Ich habe da ehrlich gesagt nicht drauf geachtet, weil beim zocken selten mal was nebenher läuft.
Der Treiber sollte aber eigentlich, vorausgesetzt im UEFI ist der Treiber als Entscheidungsinstanz gewählt, die Programme als solche erkennen und dem non x3d Chiplet zuweisen, notfalls könnte man hier auch wirklich "losfrickeln" und die Prozesse manuell an Kerne binden.

Was aber ein nice to have ist, sind 16 Kerne beim Shader kompilieren, das hatte ich bisher nicht sehr oft aber es sollten niemals weniger werden... rational betrachtet ist der 8 Kerner aber die bessere Wahl (reine Gaming CPU), sobald der Preis deutlich unter UVP fällt.
 
SVΞN schrieb:
Ein durch und durch toller Allrounder.

Jetzt können wir uns aber gedanklich endlich Ryzen X („Medusa Ridge“) mit Zen 6 („Morpheus“) widmen.

CCDs mit bis zu 12 Zen-6-Cores im Desktop, Desktop-CPUs mit 24 Zen-6-Cores, mehr L3-Cache schon bei den regulären Modellen…

Das wird die Krönung für AM5 und voraussichtlich die letzte Gen für den Sockel.

Ich freue mich extrem darauf. :)

Liebe Grüße Sven
Starke CPUs, danke fürs tolle Review - und ansonsten das, was Sven sagt. Vor der nächsten Generation mit mehr Kernen pro CCD werde ich von meinem 7800X3D auch nicht mehr upgraden. Auch wenn mich der 9800X3D zum Launch mal kurz angelächelt hatte.
 
  • Gefällt mir
Reaktionen: Cinquedea, SVΞN und fox40phil
karl_laschnikow schrieb:
Da Microsoft bei der Konkurrenz nicht so hinterher hinkt.
Nochmal: wieso soll das ein Problem der Hardware sein? Es ist ja nicht so, dass AMD hier den Scheduler vermurkst hätte oder so... :freak:
 
  • Gefällt mir
Reaktionen: eXe777, craxity und karl_laschnikow
@Termy Insbesondere, weil es unter Linux einfach läuft… Performance ist stellenweise sogar besser, wenn auch selten.
 
  • Gefällt mir
Reaktionen: eXe777, karl_laschnikow und Termy
Volker schrieb:
Theoretisch merkt der sich das. Aber Windows ist halt im Spiel ...
Wir hatten so auch öfter mal Fälle, wo die das dann vergisst. Auch beim Vorgänger 7950X3D schon so.
Hab bis her keine Probleme. Einmal den Haken gesetzt und es funktioniert und bleibt bestehen. Als test dann Taskmanager aufrufen und bei Prozesse auf x3d suchen, soweit ich mich erinnern kann.
 
  • Gefällt mir
Reaktionen: iron_monkey
Nixdorf schrieb:
Aus dem Artikel:

Dass es nicht nur am "Chiplet-Design" liegt, sondern auch an "im Desktop", zeigt der 7945HX. Bei dem hat Notebookcheck im Idle 8,3 W gemessen. Die Ursache für die höhere Leistungsaufnahme im Idle kann man also nicht nur auf die durch die Chiplets bedingte Kommunikation zwischen Dies schieben. Da spielen andere Aspekte der Desktop-Plattform und absichtlicher Verzicht auf Stromsparpotenziale zugunsten besserer Latenzen mit rein.
Notebookcheck misst viele komische Dinge, was Verbrauch und Laufzeit angeht.

Die haben auch schon Notebooks mit Durchschnitt Idle 9w und Minimum Idle 6,5w angegeben, während sie dem selben Notebook mit ~70Wh Akku dann 12h Video Playback bescheinigen.

Grenzen der Physik ausgehebelt.
 
radoxx schrieb:
Ich sehe da aber bei Zen6 großes Potential. 12 Kern CCDs und eine völlig neue Anbindung der Chiplets zueinander werden da potentiell den größten Sprung seit einigen Generationen zulassen. Ich hoffe Intel kann dem etwas konkurrenzfähiges entgegen stellen.
nur das lässt mich aktuell daran zögern schon jetzt auf den 9950x zuwechseln und stattdessen dann im frühjahr 2027 einen 10800x3d zu kaufen. also ein 12kern cpu auf einem ccd mit x3d cache und vorallem besseren io-die für einen schnelleren flck takt. einen reinen 8-kerner würde ich mir 2025 nicht mehr kaufen. x3d hin oder her.
 
  • Gefällt mir
Reaktionen: fox40phil, radoxx und iron_monkey
Salamimander schrieb:
@Termy Insbesondere, weil es unter Linux einfach läuft… Performance ist stellenweise sogar besser, wenn auch selten.

Ich weiß und sehe es genauso. Aber ausgehend von CB die durch Umfragen wissen dass die Mehrheit Windows nutzt, ist es ein Nachteil. Auch wenn wenn das Fazit nicht rein auf die Hardware bezogen ist.
Ein viel viel extremes BSP war Bulldozer.
Auf dem Papier war die Arch gut, im Alltag mit OS das ganze Gegenteil.
 
Termy schrieb:
Nochmal: wieso soll das ein Problem der Hardware sein? Es ist ja nicht so, dass AMD hier den Scheduler vermurkst hätte oder so... :freak:
Computerbase bewertet hier das Produkt aus Kundensicht und dazu gehört im Kundenalltag auch dieser Nachteil. Außerdem kann man durchaus argumentieren, dass auch der Hardwarehersteller eine Verantwortung dafür hat, den Softwaresupport sicherzustellen. Zum Beispiel scheint Intel die Zusammenarbeit mit Microsoft hinzubekommen.
 
nuestra schrieb:
Der neue unangefochtene König.
Hilf uns, wo soll der unangefochten sein? 🥱
1741711739722.png
 
  • Gefällt mir
Reaktionen: iron_monkey
fox40phil schrieb:
Vor allem, was ich absolut nicht verstehe... bei einer CPU in 2025... wieso kann die mehr Leistungsaufnahme haben und z.B. dennoch langsamer sein als die 8 Kern CPU mit X3D?! Es muss doch möglich sein, dass die anderen 8 Kerne z.B. runter getaktet werden etc. etc... auch im Idle Betrieb sollte das doch partiell langsam mal möglich sein, dass man evtl auch Kerne temporär ausschaltet?!

Für mich ist das hier gezeigte eine Enttäuschung. Zu hoher Stromverbrauch, teilweise gar kein Vorteil gegenüber dem 8 Kerner und innovationsloses Energie-/Kernmanagment!
Wieso werfen alle dem 9950X3D hohen Stromverbrauch vor, wenn dieser weniger als der 265k in Anwendungen verbraucht und dabei deutlich schneller ist?
 
  • Gefällt mir
Reaktionen: Inxession
GOOFY71 schrieb:
Eine eierlegende Wollmilchsau, im Gaming sowie in Anwendungen gleichermaßen sehr gut.
Der 285K ist doch quasi gleichschnell, abgesehen von dem Totalausfall Homeworld. Intel hat ca. 20% aufgeholt seit dem letzten Rating.
Screenshot_2025-03-11-17-52-22-36_40deb401b9ffe8e1df2f1cc5ba480b12.jpg
 
  • Gefällt mir
Reaktionen: mscn, SavageSkull und fox40phil
TomAkar schrieb:
Hab bis her keine Probleme. Einmal den Haken gesetzt und es funktioniert und bleibt bestehen.

Es passiert öfter, dass nach einem Update der Gamebar die/das Checkbox/Häckchen verschwindet, dann wird es automatisch erkannt und die Option verschwindet ganz.

Es gibt garkeine "Probleme", dass ist maximal eine Einstellung die mit der Zeit automatisch per Update der Gamebar, bis auf einige Ausnahmen, nachgepflegt wird. Man stellt in jedem neuen Spiel mindestens 50 mal soviel an der Grafik und Steuerung rum, um die "Probleme" damit im Spiel zu beheben, das bleibt auch vielleicht erhalten und muss nach einem Update ggf. angepasst werden oha soviel "Probleme"... kauft ihr euch nun alle Konsolen?
 
  • Gefällt mir
Reaktionen: TomAkar
Quidproquo77 schrieb:
Der 285K ist doch quasi gleichschnell, abgesehen von dem Totalausfall Homeworld.
Bei Intel hat sich seit den MC und Windows Updates auch viel getan, ich habe mir auch nicht umsonst einen 265KF geholt. Bin begeistert von dem Leistungssprung zu meinem 3950X. Genau genommen ist der AMD 9950X3D aber über Intel.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und iron_monkey
Danke für den Test.
Mir wurde damit eigentlich nur bestätigt, dass ich mir den 9950x kaufen werde. Als UHD Zocker limitiert in meinen Games ohnehin die GPU. Außerdem habe ich absolut keine Lust mich ständig mit der Game Bar rumzuärgern, nur weil ein Spiel meint auf den "falschen" Kernen zu laufen.
Ein 16 Kerner mit 2x 3d Cache wäre eigentlich die Lösung.
 
  • Gefällt mir
Reaktionen: fox40phil, MGFirewater und craxity
Zurück
Oben