pipip schrieb:
Ja je nach "Zeitstrahl" wird man den Kauf von ATI auch anders bewerten.
Was wäre gewesen wenn AMD den schweren Weg gegangen wäre und ein eigenes GPU-Team aufgebaut hätte? Oder wenn AMD nicht gewartet hätte, bis ATI alle Firmen mit GPU-Know-How aufgekauft hatte?
AMD wollte 2006 den schnellen Weg gehen und hat dabei sehr viel Geld in die Hand genommen.
Die offensichtlich bessere Option eines Zusammenschlusses mit Nvidia war nicht möglich.
Wie gesagt, die Geschichte war 2011 eigentlich schon gescheitert. Und trotzdem hat AMD noch Mal die Kurve gekriegt und letztendlich die Übernahme zu einem guten Ende geführt.
Wir sind einer Meinung, dass ohne die Verträge mit Microsoft und Sony hätte es AMD nicht geschafft.
Aber der Kauf von ATI ist nur ein Weg, um Grafik Know How zu bekommen. Und so wie die Sache gelaufen ist, war die verunglückte Übernahme ein wesentlicher Faktor bei den Problemen.
pipip schrieb:
AMD ist als Nummer zwei zu Intel entstanden und war quasi der zweite Versorger für x86 CPUs. AMD war gegründet um die "günstige" Lösung zu sein.
Das ist nicht richtig. AMD wurde 1969 gegründet, da gab es noch keine Microprozessoren.
pipip schrieb:
Ab einem Punkt hat sich AMD dann aber emanzipiert (eigener Sockel) und den Fokus auf HPC / Server gelegt.
Auch das ist, so wie Du es schreibst, falsch. Zwischen dem Second Sourcing das IBM von Intel gefordert hat und dem Entwickeln der Athlonplattform ist sehr viel passiert.
Intel hat AMD und die anderen X86-Anbieter von der eigenen Plattform ausgeschlossen. Damit musste AMD eine eigene Plattform entwickeln.
Die Geschichte zwischen Intel und AMD:
https://jolt.law.harvard.edu/digest/intel-and-the-x86-architecture-a-legal-perspective
DEC war wie alle Anbieter von Minicomputern vollkommen blind was den PC anbelangt. DEC hatte mit dem Alpha noch mal einen großen Wurf und hat auch rechtzeitig verstanden wie wichtig Linux ist. Aber das Kerngeschäft mit den Minicomputern ist weggebrochen, DEC wurde von Compaq übernommmen, und auch Compaq kam ins Straucheln, ...
Das alles hatte zur Folge, dass hervorragende Entwickler in Scharen DEC verlassen haben. Einige sind direkt oder indirekt (NexGen) bei AMD gelandet. Diese Leute (u. a. Jim Keller und Dirk Meyer) brachten sehr viel Prozessor und System Know How zu AMD. Das waren die Grundlagen für Athlon und Athlon64.
Auch damals hat AMD Intel auf dem falschen Fuß erwischt. Itanium sollte x86 und eigentlich auch alles andere ablösen, konnte aber die Erwartungen nicht im Ansatz erfüllen. Pentium 4 war nicht so dolle, höflich formuliert. Aber Intel hatte ein excellentes CPU-Architektur-Team in Israel. Deren Prozessordesigns haben Intel wieder nach vorne gebracht. Und Intel für mehr als das nächste Jahrzehnt geprägt.
AMD konnte nicht mehr an die Erfolge von Athlon und Athlon64 anknüpfen. Und so zog Intel langsam aber sicher davon. Dass das Bulldozer-Desaster sich eingebrannt hat, lag vor allem daran, dass Erwartungen sehr hoch waren. Alle erhofften sich einen großen Wurf, heraus kam ein müder Kullerball.
Forrest Norrod beschreibt diese Zeit bei AMD schlicht und einfach mit Bad Execution. Die eigene Halbleiterproduktion, die immer weiter zurückfiel, ist aus heutiger Sicht ein ganz wichtiger Faktor. Aber so bewusst war mir das damals nicht. Es ging damals meist um die Zeit die AMD zurücklag. Dass elektrischen Eigenschaften schlecht waren und die Fehlerrate zu hoch war, ist mir erst im Nachhinein klar geworden. Vielleicht stand es in den Artikeln, aber ich habe es damals nicht wahrgenommen bzw. nicht verstanden.
pipip schrieb:
So kam man auf die Idee "Redundanz" zu minimieren und war mit der Meinung aus CMT einen Art DualCore mit nur (ich glaube) 80% der Fläche zu realisieren... Das ist einfach total in die Hose gegangen. Wobei ZEN sich zum Beispiel von Phenom deshalb so unterscheidet, weil er einen Micro_OP_Cache bekommen hat und das Front-End stark verbessert wurde und man hier erst auf Intel nachgezogen ist. Wer weiß ob das bei einem CMT Design nicht auch geholfen hätte... Bin aber kein Experte...
Ich sehe es heute so: AMD hat gemerkt, dass sie mit ihrer Fertigung nicht gegen Intel ankommen. Deshalb hat AMD ganz neue radikale Wege versucht. Und vieles ist gescheitert.
Es kommt gar nicht so sehr auf die Details an. Chips&Cheese hat einen sehr guten Artikel zu Bulldozer.
Aber Zen und Bulldozer zeigen, dass man am meisten aus seinen Fehlern lernt. Im Interview bei Anandtech
beschreibt Mike Clark wie sie Zen hochgezogen haben und dabei vor allem auf die Power geachtet haben.
pipip schrieb:
Der Strategie-Wechsel war dann meiner Meinung zum Zeitpunkt der Konsolen Deals. Mit eigenen Produkten im Sinne von SIMD für X86 CPUs konnte man selten oder kaum den Kunden oder die Software-Hersteller ins Boot bringen. Man denkt an PowerNow! als Bsp. Und AMD hat seit Zen auch nichts mehr in diese Richtung geliefert. (zu mindestens wäre mir nichts bekannt). Stattdessen hat AMD den Fokus von HPC-Server auf "Bedarf" der Kunden fokussiert. Damit meine ich folgendes.
Der Strategie-Wechsel begann mit dem Rausschmiss von Dirk Meyer. Rory Read kam kurz vor dem Release von Bulldozer und hat das Unternehmen komplett umgekrempelt. Unter seiner Führung kamen Lisa Su, Mark Paper Master, Jim Keller und Raja Koduri. Wobei Raja Koduri rückblickend den undankbarsten Job hatte.
Den Stategiewechsel haben Lisa Su und Mark Papermaster initiert. Die Mannschaft die den Strategiewechsel umgesetzt hat war mit ganz wenigen Ausnahmen schon bei AMD.
pipip schrieb:
Braucht ein Kunde eine X86 CPU und eine IGP auf einem Chip aus einer Hand, können sie das mit AMD über ein Art Baukasten-System designen und dann das bei TSMC, GF oder Samsung fertigen lassen.
Eben habe ich einen Artikel von Golem ausgegraben. Jetzt verstehe ich was Du meinst. Das mit dem Baukastensystem etc. war Marketing Bla Bla. Funktionsblöcke und später komplexe IP bis hin zu CPU-Kernen gab es schon seit vielen Jahren. Da ist technisch nichts neues dran. Aber mit den Konsolendeals für PS4 und XBoxOne hat AMD Semicustom aus der Taufe gehoben. So sonderlich viele Customdeals hat AMD nicht geholt. Eigentlich waren es nur die Konsolen inklusive Steam Deck. Und vielleicht noch ein wenig Kleinkram.
Technisch hatte das keine Auswirkung. Eine X86 CPU und GPU auf einem Chip zusammenzupacken war der Kern von Fusion. Wo da ein neues Baukastensystem sein soll kann ich nicht erkennen. Wenn man aber berücksichtigt dass AMD IP von Sony dazugepackt hat ergibt dies aber eine schöne SemiCustom Geschichte. Aber es gibt keinen neuen Baukasten für AMD.
Alle Kosolen Chips sind bis heute monolithisch. Eine APU zu verbauen senkt die Systemkosten und beim begrenzten Power Budget einer Konsole sind einer Kombination aus CPU und dGPU Grenzen gesetzt. Da auf den Konsolen Games laufen, passen die APUs. Denn zu etwas anderem sind die AMD Client-APUs bis heute nicht zu gebrauchen. Und das ist die eigentliche Tragödie.
Ich weiß nicht was alle mit dem bei "TSMC, GF oder Samsung fertigen lassen" wollen. Seit FinFET sind die Chipdesigns an das PDK der jeweiligen Foundry gebunden. Denselben Chip bei TSMC und Samsung fertigen zu lassen, erfordert 2 eigenständige Chipdesigns. Die Unternehmen müssen bei TSMC ein NDA unterschreiben, das eine Sperrfrist festlegt, bis Chipdesinger, die mit dem TSMC PDK gearbeitet haben, mit dem PDK einer anderen Foundry arbeiten dürfen.
Ein weiterer wichtiger Faktor ist die Verfügbarkeit von IP. TSMC hat unangefochten das größte Angebot an IP. In jedem SoC steckt IP von Drittanbietern. Und wenn die IP nicht in der anderen Foundry verfügbar ist, muss man nicht nur das Chipdesign neu machen, sondern auch die RTL-Programmierung des Chips ändern.
Eine der wichtigsten Lektionen aus Bulldozer war, dass man erstklassige CPUs nur mit einer erstklassigen Halbleiterfertigung hinbekommt. Und nur mit erstklassigen CPUs kann man Geld verdienen.
Während der Evalierung wie es weitergehen soll, ist die Entscheidung gefallen es mit Chiplets zu versuchen. Und genau hier beginnt das neue AMD.
Anstatt die nächste CPU zu entwickeln hat AMD begonnen einen komplette Roadmap zu erstellen, Zen war von Anfang an nur der erste Schritt. Parallel zum Kern wurde das Know How entwickelt das notwendig ist um Chiplets zu verwirklichen, das Infinity Fabric.
pipip schrieb:
AMD hat daran gearbeitet, womit Intel mit Start von Zen2 durch AMD so hart auf die "Fresse" gefallen ist. Ihre Design war stark an eigene Fertigung geschnitten und die Fertigung hat maßgeblich das Design vorgegeben. Intel konnte gar nicht reagieren.
Ich verstehe nicht was Du damit sagen willst.
Jedes Chipdesign muss an die vorgesehene Fertigung angepasst werden. Alleine schon weil sie mit einem speziellen PDK erstellt werden muss. Nicht optimal an den verwendeten Prozess anzupassen bedeutet Potential zu verschenken.
Intel hatte das Problem, dass der 10 nm Prozess nicht ins laufen gekommen ist. Schon mit Zen hat AMD Intel gezwungen den Anteil der größere Dies (mehr Kerne) zu erhöhen. Das hat bewirkt dass Intel mit der verfügbaren Kapazität weniger Chips fertigen konnte.
Beides zusammen hat Intel gezwungen weitere Produkte an TSMC zu vergeben und hat letztendlich die Auftragsfertigung für andere Unternehmen bei Intel gekillt. Intel hat alle verfügbare Kapazität selbst benötigt. IIRC hat Intel erst 2020 ausreichend Kapazität gehabt.
pipip schrieb:
AMD war hochflexibel mit ihren Designs. Überall konnte AMD plötzlich innerhalb kurzer Zeit Produkte erschaffen.
Welches Chipdesign hat AMD in kürzester Zeit erschaffen?
Flexibel und schnell reagieren kann AMD nur mit den Chiplets.
pipip schrieb:
AMD hat Zen und Zen+ bei GF gefertigt, Zen2 dann bei TSMC und GF usw. AMD hat alle I/O Sachen ausgelagert und alle Sachen dessen bessere Fertigung Performance liefert ausgelagert.
IO skaliert nicht, sie hätte bei 7 nm praktisch dieselbe Chipfläche benötigt wie mit 14 nm.
pipip schrieb:
Es mussten I/O nicht ständig neu designt werden, die soviel ich von einem Interview weiß, teils sogar von Arbeitsgruppen händisch und nicht automatisiert an eine neue Fertigung angepasst werden muss.
AMD hat 3 Dies entwickelt und konnte damit Prozessoren von 8 bis 64 Kerne herstellen. Monolithisch wären 64 Kerne nicht möglich gewesen. Monolithisch hätte sich AMD das breite Produktangebot alleine schon wegen den Designkosten nicht leisten können.
AMD kann durch das Verwenden eines IOD für alle Server, auch kleine Server CPUs mit der vollen IO-Austattung der großen Server CPUs anbieten.
pipip schrieb:
Sie haben sich mit Zen durchgesetzt, nicht weil sie den Fokus auf X86 hatten sondern den Fokus der starken Skalierbarkeit. Skalierbarkeit bei den IPs (CPU Varianten, Bobcat, Zen, Bulldozer, ARM, GPU Varianten, VEGA,RDNA usw, demnächst XDNA?) untereinander, Skalierbarkeit bei der Herstellung durch Fertiger und Skalierbarkeit bei der Fertigungsgröße selbst.
Die Skalierbarkeit hängt an den Chiplets und auch am Infinity Fabric.
Das Infinity Fabric kam 2017 mit Zen und die Chiplets kamen erst 2019 mit Zen 2.
Bei den GPUs gibt es erst seit RDNA 3 Chiplets, aber eben nur so, dass ein GCD mehrere MCD hat.
Und RDNA 3 skaliert deswegen eben nur sehr begrenzt.
Auf dem FAD 2022 waren Infinity Fabric und SemiCustom ein Thema. AMD hat auf großer Bühne nochmal damit geworben die IP von Kunden mit der IP von AMD (CPU, GPU, ...) zu Custom Chips zu verschmelzen.
Ich habe von keinem neuen Projekt gehört.
pipip schrieb:
Und diese Skalierbarkeit bauen sie immer weiter aus. 3DCache, l3Cache für die GPU, und jetzt die Kombination von allem im MI300.
Der Infinity Cache erfüllt zwei Rollen. Bei RDNA ist seine Funktion die effektive Bandbreite zum Speicher zu erhöhen. Navi 21 konnte deshalb mit einem 256-bit-interface umgesetzt werden. Skalierung kann ich hier nicht erkennen.
In der MI300 erfüllt der Inifinity Cache die Rolle als schneller Zwischenspeicher zwischen den GCD. Hier ermöglicht es das Skalieren, weil mehrere GCD als eine GPU agieren können.
pipip schrieb:
Und wenn AMD die Fusion noch mit der Software schafft, hat man mit den MI300 HSA Beschleuniger, der je nach Workload die Last effektiv auf jene Funktionseinheit schiebt, die am besten jenen Workload zum jeweiligen Zeitpunkt verarbeitet.
Die MI300 hat aber einen ROCm Software Stack. HSA in Form von Heterogenous System Architecture ist tot. Wenn HSA leben würde, gäbe es Anwendungssoftware auf den AMD Client APUs. Aber davon ist nichts zu sehen. Die einzige Hoffnung ist dass ROCm für die APUs kommt.
pipip schrieb:
Und genau das alles ist meine Argumentation, wieso die Konsolen-Deals aus meiner "naiven" Sicht von außen als wichtig und wegweißend für heutige AMD Produkte halte.
Die Konsolen APUs sind Semicustom und die MI300 sind AMD-Standard-Produkte.
Wenn ein Kunde kommt und eigene IP mit CDNA kombinieren will, würde es AMD tun. Nur sind solche Deals nicht absehbar.
Die Konsolendeals haben Geld in die Kassen von AMD gespült. Wahrscheinlich haben Microsoft und Sony auch direkt das Entwickeln von RDNA und RDNA 2 finanziert.
pipip schrieb:
Das "Fusion is Future" ist zwar lange Programm und Ziel, die Umsetzung ist aber erst mit dem Fokus auf Skalierbarkeit der jeweiligen Funktionseinheiten entstanden, im Vergleich zum "Verschmelzen" der Komponenten zu einer generellen Funktionseinheit.
Schau Mal bitte nach was aus HSA geworden ist. Dass AMD APUs anbietet und das AMD CPUs und GPUs per Heterogeneous Integration erstellt haben nichts mit dem zu tun was AMD mit HSA versprochen hat. Hier ging es um Hard- und Software. Die Software ist AMD bis heute schuldig geblieben.
pipip schrieb:
Und ähnlich wie HT für Athlon64 wichtig war, sehe ich nicht den Zen Core als eigentlichen Meilenstein des heutigen Erfolgs von AMD an, sondern Infinity Fabric Bus als Protokoll, den scheinbar Intel ewig gebraucht hat um ähnliches zu "kopieren".
So, ganz AMD Ende ist Dir noch eingefallen was die Skalierbarkeit ausmacht.
Aber wie ich oben schon geschrieben habe gibt es das Infinity Fabric erst seit Zen.
pipip schrieb:
Jetzt mal ganz frech ausgedrückt.
Da fehlt schon noch einiges mehr.