News APU mit Zen 5 & „RDNA 3.5“: AMD bestätigt „Strix Halo“ mit neuer GPU per ROCm-Code

@Nightspider
Im Konsolen und hier noch relevanter im Notebooksegment macht man das durchaus.
Gerade das Notebooksegment ist hier entscheident.
 
Hört sich erstmal krass an, aber bei genauerer Betrachtung: Wofür eigentlich?

Arrow Lake Halo, das vor ewigen Zeiten mit 320EUs geleakt wurde, wurde angeblich gecancelt, da Intel keinen Markt sieht. Und ganz ehrlich: Ich sehe ihn auch nicht.

Klar ist das ganze die mit Abstand stärkste APU, aber momentane Gerüchte sprechen von der CES 2025 als Launch Termin. Und wie krass sind dann 40 RDNA3.5 CUs noch? 4060-4070 Laptop Leistung 2 Jahre nach eben jenen? Ist dann schon gar nicht mehr so krass. Dazu noch Dinge wie das 256Bit Speicherinterface, das Teil im Desktopsockel ist unmöglich und auch für OEMs wird es zum Kostentreiber.

Ob so eine APU Lösung wirklich effizienter ist (im Idle wahrscheinlich schon, aber unter Last?) muss sich auch noch zeigen. Gerüchte sprechen bei Strix Halo von 120W TDP, also Gaming Laptop/Workstation Territorium. Ob das ganze Abnehmer finden würde? Ich sehe es ehrlich gesagt nicht.
 
  • Gefällt mir
Reaktionen: karamba, Nitschi66 und Col. Jessep
K3ks schrieb:
40CU wären wirklich verdammt geil, wies dann mit dem Speicherdurchsatz der GPU aussieht... Ne kleine, sparsame Daddelkiste oder ein Daddelbook wäre halt mega. :daumen:
E: Aber 16C dafür wäre doch zu viel und dann der Preis. :(
Dürfte die Speicherbandbreite ja gut überfordern. Vega M hatte ca. 20 CU und 180+ GB/s, das wäre hier sicherlich auch nicht verkehrt, ziehen doch schon die 12 CUs der Ryzen 6000er Serie an Vega M vorbei.
Ergänzung ()

SirKhan schrieb:
Eine APU Strix Halo mit 40 CUs und HBM wäre extrem interessant.
Ohne HBM braucht man vermutlich sehr schnellen DDR5 + großen Cache (Infinity Cache).
GPUTime SpyTime Spy ExtremeFire StrikeExtremeUltraWild LifeWL ExtremeNight RaidPCIe Test
MB/s
Vega 8 iGPU7483451.8318184194.6101.4906.419
R9 Fury Nano4.6562.20912.9076.6643.57932.40010.19632.9739.650,00
Arc A3103.4351.5657.6443.8011.90921.7686.11825.054
Vega M2.2851.0036.2853.0651.61814.1634.05320.3386.470,00
RTX 3050 Laptop SC****5.3032.485n.a.n.a.n.a.30.9239.96240.67913.180,00
Radeon 680M @Single Channel1.62978012.0916.1203.0290015.214
Radeon 680M @dual Channel2.7261.28512.0716.0733.02215.7554.47724.565

Vega 8 = Ryzen 5 3500U, 15W-25W, 2x DDR4-2400
Radeon 680M = Ryzen 7 6800H, ca. 45W, DDR5-4800

R9, Arc, Vega M, RTX 3050 Laptop = 4 GB VRAM
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nitschi66 und SaschaHa
49 CUs...wenn die Speicheranbindung entspreched ausgelegt wird ist das im Prinzip das Gegenstück zu den Apple M-Teilen und die Weiterentwicklung der Konsolen-APUs.

Kann sein dass es einen Markt dafür gibt - allerdings ist das Apple-Universum wohl weniger preissensibel.
Bin gespannt was da am Ende bei rumkommt.
 
Naja mit 16C/40CU bist Du genau in der M3 Max Ecke, per Salvage nimmst Du noch Pro mit und Strix Point dann normale M3 bis M3 Pro. Hört sich für mich nach einem sinnvollen Lineup an. Vorausgesetzt man hat ein monolithisches Die (und einen entsprechend geringen Strombedarf) hätte man eine schöne Windows-Version des M3-Plattform. Also ich würde die Dinger als MiniPCs in Scharen verbauen.
 
  • Gefällt mir
Reaktionen: Trony
@Vaanir
Das wären kaum mehr CUs als die PS5 und sogar weniger als die Series X hat.

@scheichs
Der M3 Max hat im Vollausbau 5120 Shader (128 Shader pro GPU "Kern" verglichen mit 64 Shadern pro CU).
Da passt eher der Vergleich mit dem M3 Pro.
 
guzzisti schrieb:
Kann sein dass es einen Markt dafür gibt
Mein Intel NUC mit Vega M hat den Vorbesitzer schlappe 1.000€ gekostet
 
andi_sco schrieb:
Vega 8 = Ryzen 5 3500U, 15W-25W, 2x DDR4-2400
Nur als Anmerkung: Da muss man bei Vergleichen aufpassen. Vega 8 von Ryzen 2000/3000 ist tlw. deutlich (!) langsamer als Vega 8 von Ryzen 4000/5000 (Die Vega 8 von Ryzen 5000 ist je nach Spiel sogar schneller als die Vega 11 von Ryzen 2000/3000). Da empfehle ich Notebookcheck als Ratgeber hinzuzuziehen.

Ging aber in dem Post ja wahrscheinlich ohnehin vorwiegend um den Single/Dual Channel Vergleich der 680M mit Desktop GPUs, nehme ich an (?)
 
Ja, allein die Vega 6 im 4500U mit LPDDR4X schlägt die Vega 8 deutlich.
Hauptaugenmerk soll aber tatsächlich auf dem Vergleich Vega M und Radeon 680M liegen.
 
Trelor schrieb:
Der M3 Max hat im Vollausbau 5120 Shader (128 Shader pro GPU "Kern" verglichen mit 64 Shadern pro CU).
Da passt eher der Vergleich mit dem M3 Pro.
Da hast Du Recht! Rein IPC technisch hatte ich auch die M1 und M2 Max im Kopf. Die liegen im 3D Mark halt auf mobile RTX 4060/4070 Niveau. Dort sehe ich auch Strix Halo.
 
R O G E R schrieb:
Nicht das Strix Halo die neuen APUs für die Next-Gen Konsolen werden :-)
Ich hatte Mal die Idee dass das Teil für eine Steambox sein könnte. Aber würde das tatsächlich für Valve funktionieren? Mit dem Steam deck sind sie in eine Marktlücke gestoßen aber auf dem desktop müsste so ein Teil sich mit dGPUs herumschlagen.

Ich kann mir auch keinen Grund erklären warum die GPU einer Spielkonsole durch ROCm unterstützt werden sollte.

ghecko schrieb:
Das Cache allein die enge Bandbreite von 2CH DDR5 komplett kompensieren kann, bezweifle ich stark.
Sehe ich ähnlich.
ghecko schrieb:
Entweder HBM oder mehrere LPDDR5 channel, on package oder off package, beides schließt den Desktop ziemlich sicher aus. Nur HBM könnte man beim Desktop gesockelt einsetzen.
HBM ist IMO auszuschließen, zu teuer und AFAIK für CPUs bei Spielen und PC-Anwendungen nicht geeignet.

DDR5 halte ich für unwahrscheinlich. 2 Channel sind zu wenig und ich sehe keine Anwendung für eine APU in TRX50.

Aber IMO LPDDR5x ist eine reele Option. Aber nur in einer neuen Plattform, aber wie soll sich das rechnen?

bad_sign schrieb:
CB nennt es hier nicht, frühere Gerüchte sprechen von 256 Bit SI, also definitiv ohne Sockel
Welche Bandbreite inklusive Infinity Cache haben dGPUs mit einer vergleichbaren Anzahl von CUs?

Man kann es sich lange schön rechnen es würde mit 2 Kanälen reichen.
crustenscharbap schrieb:
Da bin ich echt gespannt. Auch ob der DDR5 RAM da mit macht. Ich hoffe diese APU kommt für den Desktop.
Garantiert nicht für AM5. Und auf TR50 fällt es mir sehr schwer Anwendungsfälle zu erkennen.
crustenscharbap schrieb:
Die neuen 9000er APUs würden ja die Ryzen 8600G und 8700G obsolet machen. Ich würde mir da gerne was basteln aber wenn ich 40 CUs lese, dann warte ich vielleicht noch.
Warten kann man immer. Aber welchen Preis erwartest Du bei doppelter anzahl von CPU-Kernen und 2,5 x mehr CUs wie bei Phoenix? Wie soll die GPU mit Bandbreite versorgt werden? Und wie soll dass in den Sockel AM5 passen?

Und wenn man anfängt zu überlegen, AMD würde separaten Grafikspeicher pder einen riesigen Cache reinpacken, wird der Spaß nicht billiger.

Der Nachfolger von Phoenix ist StrixPoint1 bei dem von 16 CU die Rede ist.

guggi4 schrieb:
Ich hab mal in meine Glaskugel gesehen und ein paar Kommentare zum Launchartikel notiert:
Einen hast Du vergessen:
  • Was will man damit? Meine xxx ist viel schneller.
    für xxx den Namen einer Grafikkarte eintragen

guggi4 schrieb:
  • verlöteter RAM kommt mir nicht ins Haus!
2 x LPCAMM wäre schon schick, aber welche Plattform bietet das an?

Philste schrieb:
Hört sich erstmal krass an, aber bei genauerer Betrachtung: Wofür eigentlich?
Der Leak hat es nicht einfacher gemacht. Spielkonsolen halte ich nun für sehr unwahrscheinlich. Was will man auf einer Spielkonsole mit ROCm?

Für allem auf welcher Plattform soll das Teil laufen?

scheichs schrieb:
Vorausgesetzt man hat ein monolithisches Die (und einen entsprechend geringen Strombedarf)
Strix Point mit 4P+8E und 16 CUs wird mit 228 mm² gehandelt. Monolithisch wären das schnell mehr als 300 mm². Dabei ist die Chipfläche nur ein Teil des Problems, es sind auch die Kosten so ein Design zu erstellen.

Die Gerüchte (MLID) sprechen von Chiplets. Aber auch hier steckt der Teufel im Detail. Ich bezweifle dass dies ohne Fanout möglich ist. Fanout soll allerdings erst mit Zen 6 kommen.

scheichs schrieb:
hätte man eine schöne Windows-Version des M3-Plattform.
Das Designprinzip der M-Plattform von Apple ist, die gesamte Funktion in das SoC und dessen Package zu stecken und die Plattform sehr kompakt zu halten. Die Erweiterbarkeit hat Apple über Bord geschmissen.
scheichs schrieb:
Also ich würde die Dinger als MiniPCs in Scharen verbauen.
Wie viel darf der Chip den Kosten?
 
  • Gefällt mir
Reaktionen: guggi4
Zu den technischen Möglichkeiten und Wahrscheinlichkeiten wurde hier ja schon viel gesagt.

Wirtschaftlich denke ich, dass AMD genau so ein Produkt braucht. Die mobilen GPUs sind mal wieder totaler Fail mit einem Marktanteil nahe null und Besserung ist nicht in Sicht. Die OEMs wollen nicht, die Kunden kaufen NV.
Die CPUs sind aber halbwegs etabliert und wenn AMD mal ein bisschen was liefern kann, wird es auch gekauft. Ich habe hier nach Jahrzehnten Intel Mobilprozessoren mal einen 5700U und: Er ist nicht scheisse. Effizient, buggt nicht - einfach in Ordnung. Kein Vergleich zum mobilen Athlon den ich als Student mal hatte - der war gar nicht mobil und hat nur genervt.

Warum also nicht die Vorteile im Bereich GPU ggü. Intel nutzen bzw. die Vorteile ggü. NV im Bereich CPU und beides zusammenführen? Das könnte genau der Bereich sein, in dem etwas zu holen ist.
Mit den Klebechips lässt sich relativ leicht faktisch jede Variante darstellen, APU-Erfahrung gibt es reichlich...Ich könnte mir so einen "Ryzen 9700G/U mit integrierter Radeon "7600+" wunderbar vorstellen.
 
Conqi schrieb:
Wenn die nicht sehr niedrig takten, wird das aber auch vom Verbrauch her allmählich kritisch zu kühlen. Damit kommt man von der Leistung her schließlich schon in die Nähe von PS5 und Series X.
Joa ne, und jetzt guck die mal die lächerlich kleinen Kühler einer PS5 an...
1706046679334.jpeg

So 250W gehen mit anständigem Kühlkonzept schon weg.
Muss ja auch nicht so klein sein wie ne PS5. Solange das kein Laptop wird.
Laptops sind momentan so iwo um die 75W rum die weggekühlt werden können?

Xilence19 schrieb:
Bitte mit 4-8GB HBM on-package als cache. Das wäre der Hammer :D
Und dann? Cache voll, alles Stockt und lagt?
Wenn schon dann 32gb HBM drauf! für GPU und System. Das wäre mal Fett.
Aber eben $$$
 
Haldi schrieb:
Und dann? Cache voll, alles Stockt und lagt?
Anders als eine GPU hat eine APU eine noch recht gute Anbindung zum Hauptspeicher. Wenn der HBM also als VRAM dient und Dinge mit weniger Priorität in den Hauptspeicher geschoben werden, könnte das durchaus besser sein als eine GPU mit der gleichen Menge VRAM.
Desktop-CPUs ziehen hingegen noch keinen wirklichen Nutzen aus HBM, dafür wäre das echt Verschwendung.
Und ich will die Möglichkeit nicht aufgeben, RAM nachzurüsten.
Nur HBM sehe ich also eher kritisch.
 
Conqi schrieb:
Ich frage mich generell wie viel Effizienz man bei so einer großen APU noch gewinnt gegenüber einer dedizierten CPU und GPU. Man wird es sehen.
Gar nicht so super viel. Guck dir Mini PCs mit RX 6400 und R5 5800H an und Mini PCs mit R7 7840HS. Letzter braucht ca 70W und der mit der RX6400 ca 85W. Beide sind in etwa gleich schnell.

Zu den RAM. Ich denke auch, dass der nicht reicht. AMD hat sich schon was gedacht warum alle Oberklassen APUs 12 CUs haben. Man sieht ja auch bei Vega dass die Spiele mit einem 3800er Ram spürbar flotter als mit einem 3200er laufen.

Ich frage mich auch wie soll das mit 40 CUs klappen? Und wie viel Strom zieht das ganze. Wenn die CPU 70W und die GPU 100W braucht, dann haben wir nicht viel gewonnen. Es gibt ja bereits Mini PCs und Laptops mit RX7600. Die performen doch super.

Derzeit ist die dGPU noch die bessere Wahl. Wirklich gute iGPUs bekommen wir nur mit verlötetem im Chip integriertem RAM. Selbst CAMM schafft nur 8533 MT/s. Damit kommen wir maximal auf 67GB/sek x2. Eine RX 6600 schafft 224 GB/sek. Warum man bis heute nur 2 RAM Module verbaut ist mir auch ein Rätsel. Warum nicht 8x4GB mit 6000MT/s?
 
Zuletzt bearbeitet:
crustenscharbap schrieb:
Warum man bis heute nur 2 RAM Module verbaut ist mir auch ein Rätsel
DRAM braucht sau viele Pins im Sockel. PCIe ebenfalls. Das macht die Sockel größer und die Mainboards teurer, da mehr Layer notwendig sind.
Das alles will man sich im Konsumerbereich sparen, weil die wissen wie empfindlich die Leute auf Preissteigerungen abseits GPUs von Nvidia reagieren.
 
  • Gefällt mir
Reaktionen: Benji21, Obvision, Nitschi66 und 4 andere
Zurück
Oben