Test AMD Ryzen 9 9950X3D im Test: Kompromisslos schnell

Ich bin mir zu 100% sicher, das wenn man den 9950X3D und den 7950X3D mit dem gleichen "niedrigen" PBO laufen lässt, dann lässt der Zen5 den Zen4 komplett links liegen. Das ist doch bei GPUs auch an der tagesordnung, das die fernab jeglichen Sweepspot laufen. Extremer mehrverbrauch nur für die letzten paar MHZ
 
  • Gefällt mir
Reaktionen: craxity
hans_meiser schrieb:
Ich finde es auch nicht prickelnd. Allerdings kann man im BIOS recht leicht auf den Eco mode umschalten (105W) was natürlich Leistung kostet, aber auf dessen Sitzbankmarkierungen bin ich gespannt.
Das habe ich mich auch schon gefragt. Bin nach langer Suche auf diesen Test gestoßen: Hardware Unboxed

Die Effizienz steigt hier im ECO mode stark an. Aber so ganz überzeugt es mich auf den schnelle Blick im Vergleich zum 7950x3D noch nicht. Das Problem mag auch sein, dass der 7950x3D manchmal besser vor allem in Anwendungen abschneidet, als der 9950x3D im ECO Mode, ich dann aber nicht den direkten Vergleich pro Watt sehe. Ärger mich aber gerade nicht einfach den 7950x3D für damal um die 550 EUR auf Vorrat gekauft zu haben... Jetzt wo der Preis vom 7950x3D so gestiegen ist, bezahlt man wahrscheinlich gleich für den 9950x3D, wenn er im ECO gleichauf oder besser als der 7950x3D sein sollte.
 
  • Gefällt mir
Reaktionen: Crabman und hans_meiser
heroesgaming schrieb:
In dieser Generation wird die Top-CPU längst mehr als 16 Kerne haben und die Single-CCD-Lösung auch nicht mehr nur 8, just saying :P

Spiele werden von mehr Kernen aber routinemäßig erst dann profitieren, wenn die Konsolen auf CPUs jenseits von acht Kernen umsteigen. Das darfst du dann in den Jahren erwarten, die 2027 folgen :)
Warum bist du dir da so sicher? Könnte doch sein, dass es trotzdem 8-, 12- und 16-Kerner geben wird für den Desktop. Mir wäre es lieber wenn stattdessen beide CCDs dann 3D-Cache haben statt nur einer wie es bei den jetzigen CPUs >8 Kerneder Fall ist ;)

Mit profitieren meine ich nicht, dass sie so sehr profitieren sollen wie es bei 8- statt 4-Kernern derzeit ist. Ich meine so'n kleines bisschen, wo halt 8 Kerne natürlich immer noch optimal sind aber mehr Kerne trotz diminishing returns trotzdem gaanz leicht zulegen. Außerdem hilft es wenn im Hintergrund noch einiges läuft.

Mit mehr Kernen für Desktop-CPUs darf AMD ruhig bis zum Erscheinen von AM6 warten :evillol:
 
Kann mir mal bitte jemand helfen und das Thema mit der Game Bar erklären?

Ist das sehr aufwendig zu überprüfen und umzustellen, falls mal die falsche CPU Ebene im Spielen aktiv ist?
 
Cinquedea schrieb:
Warum bist du dir da so sicher? Könnte doch sein, dass es trotzdem 8-, 12- und 16-Kerner geben wird für den Desktop. Mir wäre es lieber wenn stattdessen beide CCDs dann 3D-Cache haben statt nur einer wie es bei den jetzigen CPUs >8 Kerneder Fall ist ;)
Weil bereits bekannt ist, dass Medusa - die nächste Ryzen-Generation - mit einem Zwölfkern-Chiplet daherkommen wird ;)
 
Wie kann eine solche CPU eine Empfehlung bekommen? Der 7800X3D bringt in Spielen die gleiche Leistung und in Anwendungen eine deutlich bessere Effizienz. Die deutliche Mehrleistung ist für 90% der Nutzer irrelevant, die deutlich schlechtere Verlustleistung jedoch nicht. Zur Verdeutlichung: Wenn ich auf Encoding angewiesen bin, dann nutze ich eine GPU und nicht die CPU. Beim Rendering sieht es mittlerweile genauso aus. Es bleibt noch etwas wie Kompilierung, was ich jedoch wesentlich besser auf externe Build-Systeme auslagern kann, wenn ich professionell unterwegs bin. Also fällt mir kein Szenario ein, das die deutlich erhöhte Verlustleistung gegenüber den Vorgängern rechtfertigt. Eine Empfehlung kann ich nicht nachvollziehen. Diese CPU ist ein deutlicher Rückschritt.
 
scotch.ofp schrieb:
Tja, fürs reine Gaming ist ein 9800 die deutlich bessere Wahl.
Wer nur Leistung für Anwendungen braucht ist eventuell mit Intel besser bedient.

Rechner die beides an der Leistungsgrenze brauchen sehe ich in der Praxis eher weniger.

Aus meiner Sicht eher enttäuschend vor allem durch den hohen Stromhunger.
Wenn man sich allerdings den Test von Igor anschaut relativiert sich der Strombedarf. In Realbedingungen ist die CPU eine der wenn nicht sogar die effizienteste.
 
heroesgaming schrieb:
Weil bereits bekannt ist, dass Medusa - die nächste Ryzen-Generation - mit einem Zwölfkern-Chiplet daherkommen wird ;)
Also ist das bestätigt? Gut zu wissen ;)
So ein 12-Kerner mit 3D-Cache würde mir vollkommen ausreichen, 16 Kerne für Games sind ein bisschen viel und macht das ganze Konstrukt nur unnötig heißer (von den Temperaturen her).
 
Quidproquo77 schrieb:
Die Spiele-Werte aus zwei Testberichten sind für dich erfundene Fakten?

Ich nutze kein Linux.

Ja, ist ja spezifiziert, kannst auch ganz normalen RAM nehmen, spielt keine Rolle, der Speichercontroller macht bei mir DDR5 8666 CL38 mit.

Massives OC? Das ist spezifiziert. Stock.

Ich habe mir nur die Werte im Detail angeschaut und die sind 15% besser als im Launchtest. Welche CPU schneller ist, liegt an der Spieleauswahl. Home World mit 20FPS auf der Intel CPU habe ich exkludiert, richtig.

Abstruser Vorwurf. Jeder kann sich seinen eigenen Parcours bauen und wenn ein Spiel 7% ausmacht und 3x so schnell auf AMD läuft, dann verfälscht das das Gesamtergebnis.

Cherrypicking wäre sich irgendwelche Kirschen rauszusuchen, nicht einen Benchmark von 16 zu exkludieren.

Beleg doch mal bitte deine „15 Prozent besser als im Launch“ Aussage.

Hier im Test wird eindeutig erwähnt, dass Core Ultra keine Verbesserung zu Dezember letzten Jahres durch Updates hat, und selbst da waren es nur wenige Prozent.
 
  • Gefällt mir
Reaktionen: eXe777
Als Intel Nutzer bin ich einfach Baff was für eine Rakete diese AMD CPUs mittlerweile sind, könnte ich mein 13900k in Rente schicken, würde ich mir sowas gönnen.
Jedem AMD Besitzer, viel Spaß damit. AMD macht aktuell fast alles richtig, auch die Grakas sind richtig gut, für die normalen Gamer herschafft, absolut genug!
 
  • Gefällt mir
Reaktionen: Apple ][, Alphanerd, Inxession und eine weitere Person
@dernettehans .. auf was genau willst du hinaus? Dass ein 16 Kerner mehr Energie frisst als ein 8 Kerner ist doch logisch. Und natürlich kauft man sich keinen 16 Kerner um im BIOS 8 Kerne davon abzuschalten.

Also wer sich das Monster kauft, weiß doch was er bekommt.
Höchste Gaming Leistung + höchste Anwendungsleistung bei massivem Stromverbrauch.

Wer nur zocken will und ab und zu mal eine Anwendung startet ist mit dem 7800X3D oder 9800X3D besser dran.

Intel fällt diese Gen komplett raus. Wobei die Plattform Updates schon einiges in die richtige Richtung getrimmt haben.

@Volker
@Jan

Bitte einen Beitrag über die Wichtigkeit der GameBar und deren Funktion.

Danke
 
Vulvarine schrieb:
Kann mir mal bitte jemand helfen und das Thema mit der Game Bar erklären?
Und genau daran krankt diese CPU und das sollte in den Benchmarks "sichtbarer" sein, schließlich gibt es seitens AMD keinen Hinweis darauf, dass das notwendig ist.

@Vulvarine vielleicht hilft dir das hier weiter: https://support.xbox.com/de-DE/help...p-and-play/get-to-know-game-bar-on-windows-10

Wie immer gilt: was man damit macht entscheidet, wie stark man davon profitiert.
Die -15% "relative Game Performance" sind mir spätestens dann egal, wenn ich Lanesharing höre oder die dürftige Ausstattung der ITX-Boards sehe (und Highend hört halt nicht bei der Wahl des Prozessors auf).

Mit meinem Workload als Softwareentwickler ist der 285K die bessere Wahl:

1741759659071.png

Der Schwerpunkt meiner Arbeit liegt im roten Bereich rechts, nicht zu meinen täglichen Aufgaben zählt (fast der komplette) grüne Bereich.

Und:
1741760855811.png

1741759945774.png
1741760094420.png

1741760133906.png

Für mich ist der 9950X3D kein Upgrade und schon gar keine Revolution, gemessen am Preis und der verfügbaren (ITX-)Boards. Quelle https://www.techpowerup.com/review/amd-ryzen-9-9950x3d/10.html
Ergänzung ()

Der_Unbekannte schrieb:
Hier im Test wird eindeutig erwähnt, dass Core Ultra keine Verbesserung zu Dezember letzten Jahres durch Updates hat, und selbst da waren es nur wenige Prozent.
Hier im Test tut man auch so, als wäre die Installation und Verwendung der GameBar eine Selbstverständlichkeit. Was sagt das über den Test aus?
 
Zuletzt bearbeitet:
Auf den Test war ich jetzt am meisten gespannt.
Klasse CPU.
Wobei ich jetzt nicht wirklich ein Update zum vorhandenen 7950X3D brauche.
 
mscn schrieb:
Hier im Test tut man auch so, als wäre die Installation und Verwendung der GameBar eine Selbstverständlichkeit. Was sagt das über den Test aus?
Dass die Autoren davon ausgehen, dass ihr Publikum gewisse Vorkenntnisse mitbringt, sowohl was frühere X3D-CPUs betrifft als auch die CCD-Problematik im Allgemeinen, Stichwort etwa auch Threadripper.

Keine Frage, dass man diese Software verwenden muss bzw. sollte ist absolut ein Nachteil. Hier sehe ich AMD auch in der Pflicht, dies künftig durch Software-Optimierungen überflüssig zu machen. Angeblich möchte man das via Chipsatztreiber ja zunehmend weiter tun. Wie effektiv das sein wird, wird die Zukunft zeigen.

Am Ende hast du schon recht, jeder muss die CPU wählen, die für ihn am besten ist. Ich persönlich habe großen Respekt für das Vorgehen, sich den eigenen, für die CPU vorgesehenen Workload über mehrere Tests hinweg detailliert anzuschauen und auf dieser Basis eine Kaufentscheidung zu fällen. Wenn dann der 285K als beste Alternative herauskommt - gut :)
 
Leute Leute, noch 5 Stunden und ein paar Minuten. Repetiert eure Tastaturen, auf zur Jagt :D
 
heroesgaming schrieb:
Dass die Autoren davon ausgehen, dass ihr Publikum gewisse Vorkenntnisse mitbringt
Ich habe nicht gezählt aber selbst in diesem Beitrag hier kam mehrfach die Frage auf, was konkret damit zu tun ist. Wir reden nicht einmal über den Teil der Leute, die sich gar nicht in Foren wie diese verirren.

Insofern gehört das so hart abgewatscht, dass AMD mal mit einer Lösung kommt - denn neu ist dieses Problem nicht. Dass Microsoft noch die A-Karte haben soll, wenn die GameBar das nicht immer richtig macht, setzt diesem Quatsch noch die Krone auf.

Intels Beitrag zum Scheduler war auch nicht "optimal", als sie ihre neuen CPUs vorgestellt haben.
Wie gewillt war die "Fach"Presse, Kompromisse in Form von "Anwendung X auf bestimmte Cores pinnen" einzugehen?

Nichts anderes macht die GameBar von Microsoft und das nur, weil es AMD "ab Werk" noch immer nicht liefern kann.

Edit: der 285K wurde es vor allem wegen der Neugier aber vor allem: wegen der Boardauswahl.
An meinem Z890I habe ich 2x TB4 mit PD (das ist der für mich größte Vorteil gegenüber USB4): da kann ich bequem mit je 1 Kabel Bildschirme anschließen (und gleichzeitig mit Strom versorgen), die über die iGPU laufen.

Dass sich der 285K auch gegen den 9950X3D (mit meinem Workload) so gut schlägt, hatte ich beim Kauf nicht erwartet.
 
Zuletzt bearbeitet:
...ich verstehe den Hype nicht, auf das Rumgetüddel mit der Gamebar hätte ich definitiv keine Lust: Wenn ich eine Zockermaschine bzw. eine Kiste für Standardaufgaben will kann ich unbesehen zu einem der X3D-Achtkerner greifen, für wirklich CPU-lastige Multicore-Anwendungen halt einen der 'normalen' 16-Kerner, ob AMD oder Intel spielt hier höchstens bzgl. möglicher Upgradepfade eine Rolle. Eine Schnittmenge (zockende Kernel-Compilierer?) sehe ich kaum, der 9950X3D ist m.E. eine Lösung auf der Suche nach einem Problem...
 

Anhänge

  • Screenshot_20250312_080747_Chrome.jpg
    Screenshot_20250312_080747_Chrome.jpg
    184 KB · Aufrufe: 21
  • Gefällt mir
Reaktionen: MGFirewater und derfernseher
Zurück
Oben