News AMD Ryzen: 9950X, 9900X, 9700X & 9600X mit Zen 5 und +16 % IPC im Juli

NIGHTFIL schrieb:
Grund: Wenn Intels Folien stimmen und die neuen E-Cores sind wirklich so stark wie die alten P-Cores, dann wird Arrow Lake ein Multicore Monster mit 24C/24T.
Selbst der kleinste Arrow Lake ist mit 14C/14T geplant. Ob da ein 6C/12T oder 8C/16T von AMD mithalten kann bezweifle ich stark.
Das wird alles eine Frage des Preises. Der hier genannte "kleinste" Arrow Lake ist der Nachfolger des 13600K, und der kostet derzeit fast 100€ mehr als der 7600X. Somit sind die beiden nicht im gleichen Marktsegment, der 7600X passt eher zum 13400. Schon der 13600K ist im Vergleich mit dem 7600X ein "Multicore-Monster", aber das verhindert wegen des höheren Preises den Erfolg des AMD-Sechskerners nicht.

Sehen wir uns das doch mal chronologisch an: Falls der 9600X in Spielen um 16% vor dem 7600X landet, dann liegt er erstmal auf dem Niveau des 13700K. Bei angenommenen knapp 300€ Startpreis ist dann erstmal die Intel-Alternative mit ähnlichem Preis der 13600K. Abhängig davon, ob es in Spielen mehr oder weniger als +16% sind, ist das dann mehr oder weniger attraktiv. Drei Monate später kommt der Nachfolger des 13600K, aber zu welchem Preis? Und bis zum Nachfolger des 13400 vergehen dann vermutlich drei weitere Monate. Auf welchem Preis liegt dann der 9600X noch? Und der Nachfolger des 13400 müsste dann für Gleichstand schon um +27% in Spielen zulegen, was man aus 14% schnelleren P-Cores noch nicht wirklich ableiten kann.

Wie sieht es bei der Multicore-Leistung aus? Derzeit liegt der 7600X im Multicore-Index 6% vor dem 13400F. Der Nachfolger des 13400 wird womöglich auch wieder ein 6+4-Modell, dann als 10C/10T. Mit etwas Kristallkugel-Mathematik sehe ich da das neue Modell im CB R23 künftig statt +5% immer noch nur um +9% vor dem 9600X. Das wäre nicht einmal genug Zuwachs, um im Index den bisherigen Rückstand auszugleichen. Wenn es nur 4 E-Cores sind, die deutlich schneller werden, dann ist der Effekt weniger stark ausgeprägt als bei den 16 des Topmodells.
 
Nixdorf schrieb:
Bei angenommenen knapp 300€ Startpreis ist dann erstmal die Intel-Alternative mit ähnlichem Preis der 13600K. Abhängig davon, ob es in Spielen mehr oder weniger als +16% sind, ist das dann mehr oder weniger attraktiv.
Das mit dem Preis ist natürlich echt ein Thema. Wir hatten so einen krassen Preisverfall auf den CPUs...
Aktuell gibt es den 7800x3d für 315€!

Für 300€ braucht AMD den 9600x gar nicht erst veröffentlichen.
 
Zumal der 9800x wohl gleich stark wie der 7800x3d zu sein scheint. Genau das sehe ich auch so. Mehr kann AMD da nicht verlangen. Also so gesehen keine Chance. Und wenn die Serie nicht gut einschlägt dann werden die User erst recht nix kaufen. Durch die längere zurück Haltung sinkt auch dann mit der zeit der Preis. Wenn dieser sich so garnicht verkauft sinkt doch meist der Preis um was los zu werden. Für neu Käufer mit Sicherheit durchaus eine Option um die hohen Preise zu entkommen. Kommt halt drauf an ob die CPUs so richtig was taugen. Für die wo eh planen am5 zu kaufen kann also etwas warten nicht schaden. Durch das hat man wenig Kosten am Ende. Sollte dieser aber gut nachftagt sein dauert es länger bis der Preis sinkt.
Es gibt also mehrere Option für mich.

ist die CPU nicht der bringt einfach auf Zen 6 warten

ist die CPU gut dann auf einen guten preis warten und dann kaufen
oder wenn gut dann gleich direkt kaufen aber dafür halt mit nem höheren preis

je nach dem wie ich vorgehe, kann ich es machen wie ich will. allerdings wenn ich dann direkt danach auf Zen 6 Wechsel und Zen 5 nur als Übergang zu sehen ist, ist wohl besser auf einen günstigen preis zu warten, damit bei der CPU kaum drauf gezahlt wird.

wie ich mich entscheiden werde, hängt aber vom ganzen ab.
ich hatte aber auch noch die Option zu schauen was Intel so dazu legt. Aber gelesen das diese auch nicht so wirklich gut sein wird. Nun ich lasse mich einfach überraschen. Da wo die meiste Leistung für den Stromverbrauch ist, da wird es mich dann auch hinführen. Ich habe auch kein Problem damit auf Zen 6 direkt zu warten. Ich lasse mir also alle Optionen offen.
 
DerRico schrieb:
Für 300€ braucht AMD den 9600x gar nicht erst veröffentlichen.
na klar doch wieso auch nicht, die 7xxx sind im selben verfahren gefertigt werden einfach verramscht und dann gibt es nur noch 9xxx und aus zen4 werden nur noch Epycs gefertigt, ich denke nicht das es joch wirklich Zen4 CPUs ende diesen jahres gibt, und wenn dann sind die teurer wie die Zen5.
Ausgenommen APUs für AM5 solange es noch keinen Zen5 Apu nachfolger für AM5 gibt
 
Ja wenn dann gibt es gebraucht günstige Zen 4 CPUs und so. Ausgenommen sind die threadripper. Da ist kein einziges von dennen günstig geworden. Sogar Zen 2 threadripper oder sowas kostet so viel wie beim Release. Also man kann so viel ausgeben oder auch nicht. naja man gewöhnt sich schon noch dran das es 0 Wertverluste gibt. Die Systeme könnten 10 Jahre alt sein und würden noch immer so viel kosten. Was für eine gute wert Anlage,kann man so sagen. Wobei eine 10 Jahre altes threadripper gewiss keiner für den Preis den es mal am Anfang gekostet hatte jemals ausgeben würde.
 
Icke-ffm schrieb:
na klar doch wieso auch nicht, die 7xxx sind im selben verfahren gefertigt werden einfach verramscht
Huh? Waren die Zen5-CCDs nicht in einer neuen Strukturbreite?
(Die IODs sind unverändert)
Ergänzung ()

latiose88 schrieb:
Da ist kein einziges von dennen günstig geworden. Sogar Zen 2 threadripper oder sowas kostet so viel wie beim Release.
Zen1 - Threadripper sind allem Anschein nach kräftig im Preis gefallen...
 
DerRico schrieb:
Für 300€ braucht AMD den 9600x gar nicht erst veröffentlichen.
Die Preisfrage sehe ich wie gesagt als wichtigstes Kriterium. Der 7600X ist für 359€ (!!!) an den Start gegangen. Bei gleichem Startpreis für den 9600X kann AMD ihn gleich in der Fabrik lassen. Bei 299€ (Startpreis 5600X) platziert er sich in einem gerade noch erträglichen Segment, aber der 7800X3D ist einfach zu stark für nur wenig mehr. Bei 265€ (Startpreis 3600X) sind wir dann in einem guten Bereich, aber ein so niedriger Startpreis wäre eine echte Überraschung.
 
  • Gefällt mir
Reaktionen: DerRico und Verak Drezzt
Araska schrieb:
Huh? Waren die Zen5-CCDs nicht in einer neuen Strukturbreite?
(Die IODs sind unverändert
nein habe irgendwo gelesen das AMD bestätigt hat das der IOD gleich Zen4 ist und Zen5 den selben Prozess wie Zen4 verwendet, meine das war sogar auf CB
Nixdorf schrieb:
Bei gleichem Startpreis für den 9600X kann AMD ihn gleich in der Fabrik lassen.
ich könnte mir gut vorstellen das sie den sogar für 399€ starten lassen, die wollen Geld verdienen und das geht mit hohen Preisen und entsprechenden Rabatten am besten. ein OEM zahlt dann eben 5€ mehr und die dummen Erstkäufer gleich 40€ irgendwann sind die Preise wieder normal, der DIY Markt wird für AMD immer uninteressanter da lässt sich kein geld verdienen selbst wenn die den doppelten Preis zahlen
 
Araska schrieb:
Ergänzung ()


Zen1 - Threadripper sind allem Anschein nach kräftig im Preis gefallen...
aha irgendwann geht auch mal der Preis nach unten. Zumindest threadripper 2990wx ist beim Preis gefallen. Wenn man preiswert einen der Zen 3 oder Zen 4 will muss man dann bis Zen 6 oder Zen 7 warten. Aber das lohnt sich ja dann nicht mehr wirklich es sei denn man steht auf 32 Kerne.
ich denke mal das ist nur für Liebhaber gedacht.
nun denke mal so lange wird es bei den ryzen ja nicht dauern bis diese beim beim Preis gut fallen und so.
 
Was ist denn das für ein Rohrkrepierer. Kein extra Takt, kein extra Cache, dafür weniger Verbrauch? Wen interessiert Verbrauch im Desktop? Alleine die Grafikkarte frisst schonmal 450 watt, als ob da 20 watt weniger beim Ryzen irgendwas ausmacht. Absolute Fehlleistung seitens AMD, dabei besitze ich den 5950x. Umsteigen kommt für mich nicht infrage.
 
restock schrieb:
Absolute Fehlleistung seitens AMD, dabei besitze ich den 5950x. Umsteigen kommt für mich nicht infrage.
Verstehe ich nicht - wobei: Wildes Gebashe um 2h morgens - vielleicht schon ;-)

Es gibt mehr Takt bei einigen Modellen und - das wissen wir noch nicht, die überproportional höheren Ergebnisse bei Multicorelasten deuten aber darauf hin - auch mehr Takt bei intensiven Workloads.

Es gibt mehr L1 Cache und vor allem fast doppelt so schnellen Cache.

Verbrauch ist im Desktop weniger relevant, bis zu einer bestimmten Grenze, da stimme ich zu. Aber eben auch nicht egal. Ob beim Gamen 50 oder 70 Watt durchgehen ist mir nicht so wichtig - immerhin ja auch 40% mehr.

Zusätzliche 100 Watt, wie bei einem offenen 14900er oder meinem alten 10900er merke ich aber. Macht das Zimmer noch wärmer und vor allem kostet es Geld. Die Stromkosten wären messbar über die 4 Jahre Nutzung, aber die 5 Euro im Monat machen für mich keinen Unterschied.

Kühlung macht aber einen. Kühlung kostet Geld, zusätzliche Planung beim Bau und macht alles komplexer und - wenn wie bei Intel High-End - wenn es Wasser sein muss, auch langfristig anfälliger.
Also mir zumindest ist das nicht voll egal.

Eine 7900xtx braucht übrigens im gemischten Gaming so 270-300W, die 4090 macht es für 220-260W. Die 450 schaffen schon theroretisch nur die wenigsten Modelle.
Ob der Rechner mit 300W insgesamt (AMD x3d) oder mit 400W läuft (Intel High-End "offen"), merkst Du, wenn Du nicht gerade in einem zugigen Schloss in Nordnorwegen lebst. Bei Nutzung eine Mid-Range Karte oder bei Spielen mit niedriger Grafiklast verschiebt sich das noch mehr und der Anteil der CPU am Gesamtverbrauch / Wärmeentwicklung steigt massiv an.
 
Also ich hoffe schon das die CPU etwas sparsamer wird. Ich will ja den ryzen 9 9950x bei 142 Watt anstelle der 200 Watt betreiben. Ich weiß noch den 7950x bei wem wo der dann bei richtiger last 200 Watt gezogen hat. theoretisch könnte der 7950x ja 230 Watt ziehen aber das war zu keiner Zeit der Fall gewesen. Vermutlich wäre dann die CPU zu heiß geworden wenn dies so gewesen war. Wenn nun die CPU sparsamer geworden und dennoch mehr Leistung hat, sinken die Leistungskosten beim drosseln um einiges.
ich schreibe nicht nur von 20 Watt sondern schon von 60 Watt unter last. Und ja das merkt man sehr wohl.
Aber 11 % bei mir sind wahrlich kein riesen Sprung. Da ich aber kein handbrake nutze sondern eine andere Anwendung und gewiss auch kein h265 sondern h265, könnte es hier wohl villeicht zu andere Ergebnissen kommen. Ich hoffe auf mehr leistung als die 11 %. Dann lohnt sich das auch wirklich. Will ja auch was von der mehr Leistung spüren und nicht auf der Stelle treten.
 
DerRico schrieb:
Verstehe ich nicht - wobei: Wildes Gebashe um 2h morgens - vielleicht schon ;-)

Es gibt mehr Takt bei einigen Modellen und - das wissen wir noch nicht, die überproportional höheren Ergebnisse bei Multicorelasten deuten aber darauf hin - auch mehr Takt bei intensiven Workloads.

Es gibt mehr L1 Cache und vor allem fast doppelt so schnellen Cache.

Verbrauch ist im Desktop weniger relevant, bis zu einer bestimmten Grenze, da stimme ich zu. Aber eben auch nicht egal. Ob beim Gamen 50 oder 70 Watt durchgehen ist mir nicht so wichtig - immerhin ja auch 40% mehr.

Zusätzliche 100 Watt, wie bei einem offenen 14900er oder meinem alten 10900er merke ich aber. Macht das Zimmer noch wärmer und vor allem kostet es Geld. Die Stromkosten wären messbar über die 4 Jahre Nutzung, aber die 5 Euro im Monat machen für mich keinen Unterschied.

Kühlung macht aber einen. Kühlung kostet Geld, zusätzliche Planung beim Bau und macht alles komplexer und - wenn wie bei Intel High-End - wenn es Wasser sein muss, auch langfristig anfälliger.
Also mir zumindest ist das nicht voll egal.

Eine 7900xtx braucht übrigens im gemischten Gaming so 270-300W, die 4090 macht es für 220-260W. Die 450 schaffen schon theroretisch nur die wenigsten Modelle.
Ob der Rechner mit 300W insgesamt (AMD x3d) oder mit 400W läuft (Intel High-End "offen"), merkst Du, wenn Du nicht gerade in einem zugigen Schloss in Nordnorwegen lebst. Bei Nutzung eine Mid-Range Karte oder bei Spielen mit niedriger Grafiklast verschiebt sich das noch mehr und der Anteil der CPU am Gesamtverbrauch / Wärmeentwicklung steigt massiv an.
Ich glaube du bist da hinsichtlich 4090 misinformiert. 220-260 Watt? wo hast du das denn her?
Die Belastung im Ruhemodus ist durchaus gering, ich spreche aber von 90-100% Auslastung, denn dafür holt man sich ja auch eine 4090. Du würdest ja auch keinen Porsche kaufen, um damit nur in der 30er Zone zu fahren.
Unter Volllast verbraucht sogut wie jede 4090 irgendwo zwischen 400 und 450 watt, dafür gibt es ja auch den neuen 12vhpwr connector. Soweit ich weiss würden die meisten 4090 Modelle nichtmal booten, wenn du versuchst mit deutlich weniger Stromzufuhr hochzufahren.
 
na dann ist ja gut das ich mich nicht mehr so für GPU interessiere.Ich würde wohl im moment eine rtx 4090 bei rund 30% auslasten.Irgendwie sowas kann man so sagen.Ich laste ja noch nicht mal eine gtx 1650 wirklich voll aus.Im moment würde ich diese GPU als rund je nach dem welches Spiel ich so zocke zwischen 40-80 % einordnen.80 % ist das anspruchsvollste Game.Wobei ich ja einen 144 fps limit drinnen habe.Die GPU könnte eigentlich 160 fps.Somit laste ich die gtx 1650 niemals zu 100 % aus.
Man kann daher nur runter brechen ,vielleicht sind es ja bei der rtx 4090 sogar nur 20% Auslastung.
Auf jedenfall wäre das die falsche GPU für 1080p und so.
 
restock schrieb:
Unter Volllast verbraucht sogut wie jede 4090 irgendwo zwischen 400 und 450 watt, dafür gibt es ja auch den neuen 12vhpwr connector. Soweit ich weiss würden die meisten 4090 Modelle nichtmal booten, wenn du versuchst mit deutlich weniger Stromzufuhr hochzufahren.
Was soll der Quatsch denn hier?
Die Meisten lassen ihre 4090 mit ca. 300 Watt laufen, weil es sich kaum lohnt die mit über 400 Watt laufen zu lassen.
Zu wenig ist auch nicht genug, denn bei weniger als 60% Powerlimit tritt ein relativ großer Leistungsverlust ein, wenn die GPU eigentlich mehr bräuchte z.B. Cyberpunk in 4K aber nur 200 Watt Limit.

Außerdem muss die Karte wie jede andere Grafikkarte passend angeschlossen werden. Ist ja wohl klar, dass die Karte den Betrieb verweigert wenn der Stromanschluss viel zu wenig liefern kann, aber mit dem Verbrauch nicht unbedingt was zu tun haben muss.

Auch wenn der 9700X anscheinend nicht schneller als der 7800X3D wird, bin ich mal gespannt ob es Vorteile durch den Takt gibt und was am Ende verbraucht wird.
8 Kerner mit 5,5 GHz und ca. 50 Watt wäre brutal wenn man das gegen den 14700K stellen würde.
Oder das Teil schöpft das Powerlimit aus und zieht bis zu 88 Watt.
 
Und was genau meinst du hier mit Quatsch? Man kauft sich eine 4090 für 4K für anspruchsvolle Games, nicht um ein powerlimit von 60% zu betreiben. Da kannst du auch gleich eine 4070 kaufen und hunderte Euro sparen. Würdest du dir einen Porsche kaufen und dann den Turbolader ausbauen?
Ich weiss wirklich nicht, was hier für wirre Meinungen geäußert werden.
Meine 4090 läuft auf ca. 430watt in Cyberpunk in 4K.
 
restock schrieb:
Ich glaube du bist da hinsichtlich 4090 misinformiert. 220-260 Watt? wo hast du das denn her?
Das ist keine Frage der Information sondern das Ergebnis harter Messungen ;) Meine 4090 läuft mit 790mV. Da wird ein bisschen Quality Upsampling und bei "langsamen" Spielen FG dazugeschaltet und die FPS auf 100 begrenzt - das ist bei meinen Spielen für meine Wahrnehmung flüssig. Und da die Karte ganz viel Luft hat, selbst bei der niedrigen Spannung, gibt es auch keine Framedrops.

Dann gibt es Spiele wie DOTA, da braucht die Karte rund 90 Watt, bei Anno rund 250. Das Gaming Maximum mit den Einstellungen liegt bei rund 275Watt, mehr bekommt sie einfach nicht ;-). Ich spiele aktuell aber kein Spiel, welches die bräuchte.

Zu Deinem Porsche-Handbremsenargument: Die Karte ist mit diesen Einstellungen selbst in Time Spy immer noch die schnellste Karte: Sie ist spür- und messbar schneller als eine voll ausgefahrenen 4080 oder 7900xtx (die bei mir allerdings auch stark gedrosselt läuft und dann eine tolle Karte ist), bei weniger Verbrauch. Also die absolut schnellste Karte mit den meisten FPS/ Watt und damit geringsten Lautstärke / Wärme. DAS ist für meine eigene Definition High-End und geil.

Ich habe übrigens auch ein Auto rund 680PS und fahre nie über 150. Auch da geniesse ich die Leistung still, sparsam und krawallfrei einfach für mich.

Bevor sich hier jemand auf den Schlips getreten fühlt: Mir ist bewusst, dass die meisten Leute etwas Anderes suchen und eher sagen: Ich spare die 600€, die Leistung kriege ich mit den Beschränkungen ja auch mit einer 4080 / 7900xtx! Oder: Wenn 4090, dann auch volle Auslastung!
Für mich steht einfach das Experimentieren, basteln und leise spielen meiner nicht besonders anspruchsvollen Titel im Vordergrund. Und wie Du an meiner Kartensammlung sehen kannst, auch ein bisschen die Sammelwut 🤪
 
  • Gefällt mir
Reaktionen: M11E und Stoerdienst
@restock
Mit Quatsch mein ich, dass dein "eine 4090 darf man nur max Powerlimit nutzen" hier nichts zu suchen hat. Kannst ja gerne in den Nvidia Thread kommen.

Es ist das Ryzen 9000 Thema.
Ich kann's kaum erwarten, ich will die Tests sehen :jumpin:
 
Paar kleine Updates von David Huang:

https://x.com/hjc4869

"Zen5 has reduced the size of some internal structures to the level of Zen3, and some structures have even shrunk to about half of Zen3/4 under single-threaded observation, which is a bit sweaty.

This dual front-end design is like the reincarnation of the bulldozer in some places, but it has not made the same mistakes as before. Although there are trade-offs in scale, the single thread does not suck back IPC like the bulldozer 😅

The single-threaded improvement of the mobile version seems mediocre. I will try the desktop version when I have a chance."

"ranging from -5% to +24%, average is below 16% but similar to what AMD provided to OEM internally years ago. So it's nothing out of their expectation."

"The top configuration 5.1GHz should be just over 3000, and the 5GHz I measured was just 3000. The performance improvement of GB integers is greater than SPEC."

"There were already people from OEM telling on Weibo that Strix Point has an average of 10% uplift in integer IPC several months ago, and I validated that data was correct at least with current ucode.

I'm not interested in FP perf at all (especially 1T) so I didn't test it."

"The floating-point performance of the desktop should be slightly stronger. All Strix Point cores cut the SIMD throughput in half, and even damaged some AVX/SSE instructions, making it inferior to Zen4."
 
Und da ist auch der Blogpost, der erste halbwegs genaue Test zu ZEN5 anhand eines Strix Point Sample (Ryzen AI 9 365):

https://blog.hjc.im/zen5-preliminary-review.html

IPC in SpecINT: ~10%; SpecFP nicht getestet.

IPC in Geekbench 6 (INT+FP) ~15%

Allerdings hat Strix point wohl die SIMD Einheiten halbiert. Da ZEN5 sie generell verdoppelt heißt das Strix Point SIMD = ZEN4 SIMD.
 
Zurück
Oben