Chismon schrieb:
Gut möglich, dass es Huynhs Entscheidung war oder die vom AMD Marketingoberfritzen (vermutlich mit Wissen von Huynhs und Su).
Letztendlich ist es die Verantwortung von Jack Huynh. Die Marketing Leute (David McAfee, Frank Azot) unterstehen ihm.
Lisa Su wird sich etwas gedacht haben als sie Jack Huynh auf den Stuhl von Rick Bergman gesetzt hat. Davor war Jack Huynh für das SemiCustom Geschäft verantwortlich.
Ich war zuerst ein bisschen genervt als Jack Huynh mit dem Spruch "Software rückt für AMD ins Zentrum" auftrat. Dann kam ja der große Auftritt auf der Funktausstellung mit der Midrangestrategie, gegen den die Ankündigung von UDNA schier unterging.
Im Zuge der Diskussion um RDNA4 habe ich mir alles noch Mal genau angesehen. Alles was Jack Huynh zu UDNA gesagt hat ergibt Sinn. Ob es Jack Huynh mit der Midrange Strategie ernst meint oder sie nur ein Ablenkungsmanöver war, wissen wir es wenn wir Performance und Preis von RDNA4 kennen.
Chismon schrieb:
Die AMD CES 2025 Präsentation schien ja auch noch einmal kurz vorher ungekrempelt worden zu sein (evt., weil man mehr Details über die nVidia CES 2025 Präsentation vorher noch in Erfahrung bringen konnte?), zumindest hatte ich den Eindruck.
Oder bei irgend jemanden hat der Verstand eingesetzt. Wenn ich nur zwei Dies habe und beim Lauch all in gehen muss, lasse ich meinem Konkurrenten der 5 Dies hat den Vortritt.
Chismon schrieb:
Naja, Marketing und GPU-Marktstarts waren bisher noch nie wirklich AMDs Stärke
Das ist eine Untertreibung.
Was Marketing angeht hat AMD mit Xilinx massiv Expertise ins Haus bekommen.
Bei den GPU-Marktstarts gibt es ein ganz verrücktes Konzept, das Produkt zu releasen wenn es fertig ist. Das Problem ist, dass den vermurksten Marktstart fast alle mitbekommen. Die nachgeschobenen Verbesserungen nur wenige.
Chismon schrieb:
, da kannst Du gerne noch weiter zurück gehen als zu RDNA3 (bspw. zu Fury oder Polaris, selbst RDNA1 mit der Preisanpassung im Nachhinein war da wohl suboptimal).
Gerade RDNA1 habe ich im Kopf. AMD hat die 5700XT und 5700 vorgestellt bevor Nvidia die 2000 Super vorgestellt hat. Scott Herkelman wollte ja mit seinem Jebaited andeuten, dass AMD absichtlich einen höheren Preis genannt hätte, wohlwissend dass Nvidia entsprechend die 2070 Super und 2060 super platziert.
RDNA 3 hat AMD abgesehen von der fehlenden Performance und verschwundenen Effizienz dadurch vermurkst, dass die unbedingt die 999 USD wollten. Deswegen die unpassenden Produktnamen.
Chismon schrieb:
Ja, es sollten wohl 3 Chips werden, aber (Big) Navi 41 wurde wohl zusammen gestrichen (wegen MCM Design mit gemutmasst ähnlichen Schwachstellen noch wie bei RDNA3, die nicht mehr korrigierbar waren).
Ich habe gestern Abend mir Mal die CDNA3/RDNA4 Diskussion auf Anandtech angesehen.
Der Patentantrag US20220320042A1 "Die stacking for modular parallel processors" wurde dort im Januar 2023 als ein Patent zur MI300 interpretiert. Es gibt Unterschiede, es gibt Gemeinsamkeiten.
Alle gingen bis zum August 2023 davon aus dass RDNA4 mit einem GCD kommt, so wie RDNA3.
Die Geschichte mit dem Multi GCD Chip kam erst dann auf, als es darum ging die gecancelten Dies zu erklären.
Und dann machte der Patentantrag US20220320042A1 als Vorlage für das Topmodell Navi 41 die Runde, insbesondere Bild 7:
Es gibt eine Konfigurationsdatei aus der hervorgeht dass AMD bis zu 9 Shader Engines für RDNA4 geplant hätte. Das Monster da oben hat 3 Base Dies, 9 Shader Dies, 2 Bridge Dies und einen Multimedia & IO Die.
Als ich mir den Patentantrag im Herbst 2022 angesehen habe, war ich noch im Chiplet Fieber und war hin und weg. AMD hatte bis dahin mehrere Patentanträge mit Active Bridge Dies gestellt.
Im Laufe von 2023 ist mein Chiplet Fieber abgeklungen. Maßgeblich dabei geholfen hat zu überlegen, wie AMD die 4 Active Interposer Dies/IODs der MI300 verbindet. Da ist mir das breite Grinsen bewusst geworden, dass alle AMD Leute sich nicht verkneifen konnten, sobald sie auf Ponte Vecchio oder Sapphire Rapids angesprochen wurden. Als klar wurde dass AMD bei der MI300 im Gegensatzt zur MI250 einen Silizium Interposer verwendet, hat es mich letztendlich nicht mehr überrascht.
Obwohl AMD mehrere Patentanträge mit Active Bridge Dies gestellt hat, bin ich inzwischen sehr skeptisch ob diese jemals umgesetzt werden. Das Monster da oben ist viel zu teuer für eine Gaming GPU.
Rick Bergmann und David Wang haben im März 2023 erklärt, dass AMD keine Grafikkarten für mehr als 1000 USD machen kann außerdem hat David Wang erklärt warum AMD bei RDNA 3 kein Multi-GCD gemacht hat.
...
Herr Bergmann: Technisch gesehen ist es möglich, eine GPU mit Spezifikationen zu entwickeln, die mit denen von NVIDIA konkurrieren können. Wenn wir jedoch eine GPU mit einer TDP (Thermal Design Power) von 600 W und einem Referenzpreis von $1600 (ca. ¥219.000) auf den Markt bringen würden, würde sie vom durchschnittlichen PC-Gaming-Fan akzeptiert werden? — Wir haben darüber nachgedacht und uns entschieden, eine solche Strategie nicht zu verfolgen.
...
Herr Bergmann:
Wir haben nicht wie unsere Konkurrenten (NVIDIA) in den letzten Jahren eine '1600-Dollar-GPU' für PC-Gaming-Fans geplant. Stattdessen konzentrieren wir uns auf GPUs, die ein ausgewogenes Verhältnis zwischen Leistung und Kosten bieten und in der 1000-Dollar-Klasse liegen.
...
Herr Wang:
Chiplet-Architekturen können verwendet werden, um Hochleistungsprozessoren zu liefern und gleichzeitig die Herstellungskosten zu senken.
Wie Sie wissen, enthalten die heutigen High-End-GPU-Kerne mehr als 10.000 arithmetische Kerne (Gleitkomma-Recheneinheiten). Das ist mehr als das 1.000-fache der Zahl der CPU-Kerne. Würden GPU-Chips miteinander verbunden, wäre die Zahl der Verbindungspunkte so groß, dass eine zuverlässige Übertragung elektrischer Signale nicht gewährleistet werden kann. Daher ist es derzeit nicht nur vom Arbeitsaufwand, sondern auch von den Kosten her schwierig, den GPU-Die auf die gleiche Weise wie den CPU-Die miteinander zu verbinden. Es gibt wahrscheinlich nichts, was nicht machbar wäre, aber .......
Stattdessen ist es derzeit effizienter und kostengünstiger, eine große GPU (Core) zu bauen. Daher haben wir bei der aktuellen Generation (RDNA 3-Architektur) beschlossen, keinen "Multi-GPU-Die" zu realisieren.
...
Herr Wang: Wir planen, die aktuelle Raytracing-Pipeline in absehbarer Zukunft weiter zu verbessern. Beim Update von RDNA 2 auf RDNA 3 konnten wir die Leistung des Raytracing-Prozesses um bis zu 60 % verbessern, indem wir die Hardware-Verarbeitung von Rayflags, die Hardware-BVH-Neuordnung (Bounding Volume Hierarchy) und die Hardware-Verwerfung nicht benötigter Texturen eingeführt haben. Durch die Neuordnung der BVH (Bounding Volume Hierarchy) und den Hardware-Verzicht auf nicht benötigte Texturen konnte die Leistung des Raytracing-Prozesses um bis zu 60 % verbessert werden.
Die RDNA 4-Architektur (vorläufiger Name), die in Zukunft veröffentlicht werden soll, wird die aktuelle Raytracing-Pipeline ebenfalls verbessern, um die "Ausführungseffizienz zu erhöhen" und "ein hochflexibles Verarbeitungssystem zu realisieren". Allerdings werden wir natürlich das Gleichgewicht zwischen den Kosten und der Menge an "dedizierter Hardware" berücksichtigen, die für die funktionale Erweiterung installiert werden muss. Wie wir schon oft gesagt haben, liegt der Schwerpunkt darauf, einen High-End-Grafikprozessor für 999 Dollar verkaufen zu können (lacht).
...
Übersetzung aus dem japanischen mit DeepL, ein bisschen holprig, von mir nachbearbeitet.
Eine GPU wie in US20220320042A1 gezeigt, lässt sich nicht in einer 999 Dollar Grafikkarte realisieren. Alle Phantasien mit 9 Shadereinheiten, 150 oder gar 200 CU sprengen den Rahmen von 999 Dollar.
Falls es so eine HyperSuper-GPU tatsächlich jemals gegeben haben sollte, war sie im März 2023 schon begraben. Bevor Jack Huynh übernommen hat. Und in diesem extrem unwahrscheinlichen Szenario wäre der offensichtliche Grund zum Streichen gewesen, dass AMD angesichts des AI Hypes keine extrem knappen CoWoS Ressourcen für Gaming GPUs verwenden wollte.
Als im letzten Sommer auf CB über RDNA4 und das verschwinden der großen Dies und das auftauchen von Navi 48 diskutiert wurde, habe fand ich einen Fehler in RDNA4 erheblich logischer als diese Multi Die Geschichte. Und wenn es einen Fehler gab, war es für mich naheliegend, dass es mit dem Problem von RDNA3 zusammenhängt.
Aber da wir alle hier den wahren Grund nicht wissen, können wir nur spekulieren.
Weitere plausible Gründe sind IMO:
- AMD musste Ressourcen für UDNA freischaufeln
- AMD hat erkannt dass RDNA4 eine höhere AI Performance braucht und hat das Design nochmal angepasst. Die großen Dies verworfen, nur den kleinsten Die umgesetzt und dessen Design verdoppelt.
- AMD hat erkannt dass RDNA4 eine höhere Raytracing Performance braucht uns hat das Design nochmal angepasst. Die großen Dies verworfen, nur ...