News Intels AI-Ambitionen: HPC/AI-GPU Falcon Shores kommt nicht auf den Markt

karamba schrieb:
Bei KI Chips sieht man daran, wie schwer sich AMD mit guter Hardware schon gegen NV tut, dass man da mit einem halbgaren Produkt nicht auf den Markt kommen muss.
Das stimmt. Wirklich bitter daran ist aber, dass weder AMDs noch Intels (gecancelte) GPUs wirklich für AI gedacht waren, sondern ursprünglich noch mehr auf den klassischen HPC-Markt fokussiert haben. AI können die auch (und die entsprechenden Fähigkeiten wurden auch deutlich aufgebohrt), aber der ursprüngliche Fokus ist doch noch klar zu erkennen. Und genau da hat Nvidia ja auch eine Flanke offen gelassen, weil sie viel mehr Richtung AI optimiert haben.

Da haben sich AMD mit der MI250X und Intel mit Ponte Vecchio eigentlich ein Rennen darum geliefert, wer diese Gelegenheit nutzen kann. Wenn wir heute auf die für diesen Bereich immer noch relevante Top 500 schauen, sehen wir unter den ersten 10 3x MI250X, 2x MI300A. Nvidia hat je einmal A100, H100 und GH200 vertreten und Intel hat nur Aurora auf Platz 3, der entgegen aller Verpsprechungen niemals die Spitzenposition erreichen konnte. Dazu kommt noch der Fujitsu-Exot Fugaku.
karamba schrieb:
Dann lieber noch eine Runde drehen, ein brauchbares Produkt designen und mit eigener Fertigung auf den Markt bringen.
Geht ja nicht anders. Intel ist der einzige große Chiphersteller, der CPUs und GPUs nicht in Kombination anbieten kann. Das kann langfristig fatal sein.
 
  • Gefällt mir
Reaktionen: karamba
Endurance schrieb:
Naja, manche News-Artikel hier bekommen langsam Bild-Niveau. Hab auf CB schon viel besseres gelesen. Die Tests zur 5080 oder 5090 zum Beispiel.
Vertrauen aufbauen, Glaubwürdigkeitsproblem? So ein Quark. Intel hatte für AI noch fast nix als Produkt, ergo kein Vertrauen, ergo kann man nix zurückgewinnen. So einfach ist das.
Das passiert, wenn @Volker über Intel schreibt. Da werden selbst die dunkelsten Meldungen noch irgendwie so verpackt als wenn es aber dann bald klappen wird. Während man AMD damals in Grund und Boden gebasht hat als die erreichten Taktraten der Consumer Prozessoren unter dem beworbenen Boost lagen.

Btt:
Langsam wird klar warum Gelsinger gehen musste. Intern brennt es und man hat keinen klaren Plan oder Roadmap die man glaubhaft nach außen präsentieren könnte.
 
  • Gefällt mir
Reaktionen: Sam Miles
iNFECTED_pHILZ schrieb:
Das passiert, wenn @Volker über Intel schreibt. Da werden selbst die dunkelsten Meldungen noch irgendwie so verpackt als wenn es aber dann bald klappen wird.
Haben wir den gleichen Artikel gelesen? Schon im ersten Absatz stellt Volker in Frage, ob Intel seine Roadmap halten kann. In diesem Artikel ist nun wirklich kein pro-Intel Bias erkennbar.

Denn gibt es immer nur nach CPU-Tests, wenn AMD den armen @Volker mit AGESA-Update-Orgien in den Wahnsinn getrieben hat :evillol:
 
  • Gefällt mir
Reaktionen: sioh
Gabs Infos darüber, in welcher Fertigung Falcon Shores kommen sollte? Intel 3? TSMC 3?
 
stefan92x schrieb:
Und Fun Fact nebenbei: Die Vision, die Intel für Falcon Shores hatte (eine Architektur, die als CPU, GPU oder Kombination davon konfiguriert werden kann), die hat AMD mit MI300 umgesetzt und bietet alle drei Varianten an.
Das ergab sich bei der MI300A, dank eines guten Chiplet-Designs von alleine.

stefan92x schrieb:
Und in Sachen Chiplets/Packaging steht MI300 dem Wahnsinn von Ponte Vecchio auch in nichts nach. Nvidia wiederum schafft es sogar immer noch, ohne übermäßig aufwändiges Packaging die besten Chips zu liefern (steht da praktisch auf dem Stand von AMDs MI250X).
Ponte Vecchio ist Wahnsinn, und auch deshalb gescheitert.
MI300 ist ein gutes Chiplet-Design dessen Fertigung beherrschbar ist. Deswegen ist die MI300 ein Erfolg für AMD und kein Wahnsinn.
karamba schrieb:
Bei Intel hängt jetzt erstmal alles an 18A und gar nicht so sehr an KI Chips.
Aber nur weil Intel keine wettberewerbsfähigen "KI Chips" hat.
karamba schrieb:
Wenn 18A in die Gänge kommt, sehen die Zahlen plötzlich deutlich besser aus.
Nein. Da muss viel mehr kommen.
karamba schrieb:
Bei KI Chips sieht man daran, wie schwer sich AMD mit guter Hardware schon gegen NV tut, dass man da mit einem halbgaren Produkt nicht auf den Markt kommen muss.
Als damaliger Platzhirsch im Servermarkt hätte es für Intel ein leichtes gewesen sein sollen, diesen neuen Markt zu beherrschen. Es ist nicht einmal dass Intel den Markt übersehen hätte.*) Intel hat es in den letzten 20 Jahren in diesem Markt bestenfalls einzelne Achtungserfolge erzielt aber kein rundum überzeugendes Produkt geliefert. Und der Trend sieht gar nicht gut aus.

*) Intels Aussagen über GPUs und Beschleuniger haben doch AMD erst dazu veranlasst, sich nach einem Unternehmen mit GPU Know How umzusehen.
karamba schrieb:
Dann lieber noch eine Runde drehen, ein brauchbares Produkt designen und mit eigener Fertigung auf den Markt bringen.
Die Frage ist, ob 18A überhaupt für AI Beschleuniger geeignet ist.

Kannst Du einen vernünftigen Grund nennen, warum in einer weiteren Runde nun ausgerechnet Jaguar Shores ein brauchbares Produkt werden sollte? Es bleibt alleine die Hoffnung.

Wenn Intel nicht mit Jaguar Shore liefert, dann können sie es komplett einstellen. Liefern heißt konkurrenzfähiges Produkt in Punkto Performance.

iNFECTED_pHILZ schrieb:
Das passiert, wenn @Volker über Intel schreibt. Da werden selbst die dunkelsten Meldungen noch irgendwie so verpackt als wenn es aber dann bald klappen wird.
Das steht so nicht im Artikel, das liest Du rein.

iNFECTED_pHILZ schrieb:
Langsam wird klar warum Gelsinger gehen musste. Intern brennt es und man hat keinen klaren Plan oder Roadmap die man glaubhaft nach außen präsentieren könnte.
Es wäre seltsam den CEO für das Desaster bei den AI Beschleunigern zu feuern und Michelle Holthaus, die als Chefin von DCAI für das Desaster verantwortlich war, zum Co-CEO zu befördern.

Den Grund vermute ich eher bei der IFS. Denn das was Pat Gelsinger und David Zinser erzählt haben, hat in der letzten Zeit immer weniger zusammengepasst.

Ganz davon abgesehen, dass es keine 5 nodes in 4 years waren, sondern gnädig gerechnet nur 3 nodes, genügt es bei weitem nicht, dass der 18A Prozess funktioniert. Die IFS benötigt Kunden. Und es kam letztes Jahr raus, dass sich Pat Gelsinger bei dem Aufwand eine Foundry ins Laufen zu bringen komplett verschätzt hat.

stefan92x schrieb:
Haben wir den gleichen Artikel gelesen?
Ich denke schon, aber Eure Erwartungen waren andere.
stefan92x schrieb:
Schon im ersten Absatz stellt Volker in Frage, ob Intel seine Roadmap halten kann. In diesem Artikel ist nun wirklich kein pro-Intel Bias erkennbar.
Die regen sich über den letzten Satz auf:
Intel muss Überzeugungsarbeit leisten und wieder Vertrauen aufbauen – am besten mit Produkten.
Der besagt aber, dass Intel in der Bringschuld ist, nicht dass es klappen wird.

IMO kann sich Intel alle Überzeugungsarbeit sparen. Sie müssen ein konkurrenzfähiges Produkt liefern.

stefan92x schrieb:
Denn gibt es immer nur nach CPU-Tests, wenn AMD den armen @Volker mit AGESA-Update-Orgien in den Wahnsinn getrieben hat :evillol:
Aber mit Arrow Lake hat sich doch Intel alle Mühe gegeben wenigstens in dieser Beziehung AMD zu übertrumpfen.
 
  • Gefällt mir
Reaktionen: Convert
Ich finde es erstaunlich, dass Intel mal wieder kein Plan B hat.
Ist Gaudi 3 ein kompletter Rohrkrepierer, oder warum macht Intel von dem Gaudi nicht noch wenigstens ein Shrink von 5nm auf N4P? Damit könnte man die Effizienz von Gaudi 3 erhöhen und damit konkurrenzfähiger machen. Quasi als Überbrückung...
Noch mehr Performance könnte man aus einem weiterentwickelten Gaudi rausholen, was aber mehr Aufwand wäre: Ein Shrink auf 3nm und der Wechseln von HBM2E auf HBM3 mit entsprechender Anpassung/Skalierung nach oben beim Gaudi-Chip, damit dieser davon auch provitieren kann....
 
Convert schrieb:
Ich finde es erstaunlich, dass Intel mal wieder kein Plan B hat.
Niemand braucht einen Plan B, wenn man den Plan A vernünftig aufsetzt und dann konsequent umsetzt.

Allerdings krankt es bei Intel schon seit mindestens 20 Jahren an Vision, Planung und Umsetzung. Solange die Halbleiterfertigung rund lief, konnte Intel das teilweise kompensieren.

Convert schrieb:
Ist Gaudi 3 ein kompletter Rohrkrepierer,
Ein Rohrkrepierer wohl nicht. Aber wenn schon Intel selbst einräumt, dass das Produkt keine Zukunft hat, wieso sollten Kunden Geld dafür hinlegen?

Die Frage ist natürlich auch, wie viele Leute, die mit Habana Labs zu Intel kamen, aktuell noch bei Intel sind. AFAIK sind die ehemaligen Chefs schon weg und haben ein neues Start up gegründet.

Convert schrieb:
oder warum macht Intel von dem Gaudi nicht noch wenigstens ein Shrink von 5nm auf N4P?
Was soll das bringen, wenn das Design an sich wohl nicht konkurrenzfähig ist?

Der eine kritische Punkt bei Jaguar Shores ist, kann Intel in Zukunft mit dem erhöhten Entwicklungstempo von Nvidia mithalten, wenn Intel schon beim langsameren nicht mitkam?

Der zweite kritische Punkt bei Jaguar Shore ist, wie finden es die Entwickler dass sie quasi 2 Mal für die Tonne gearbeitet haben? Glauben sie selbst daran, dass sie Boden gegen Nvidia gut machen können?

Das Canceln des Releases von Falcon Shores und die gerade abgeschlossene Entlassungsrunde können durchaus dafür sorgen, dass einige Leute ihre eigene Planung überdenken.
 
ETI1120 schrieb:
Niemand braucht einen Plan B, wenn...
wenn!
So weit ich das aus der Gerüchteküche mitbekommen habe, so ist der N48 auf dem die RX 9700 (X) basieren ein Plan B. Plan A war ursprünglich N41 und co in Multichipletdesign...

Allerdings krankt es bei Intel schon seit mindestens 20 Jahren an Vision, Planung und Umsetzung.

Da hast du mit 20 Jahren aber zu hoch gegriffen. 2006 hat Intel den Core 2 Duo vorgestellt, und AMDs gute Prozessoren fielen im Preis und waren dennoch kaum konkurrenzfähig...

https://www.heise.de/news/Drastische-Preissenkungen-fuer-AMD-CPUs-144385.html

https://web.archive.org/web/20070711163855/http://www.heise.de/resale/news/meldung/92398

https://www.heise.de/news/Schnellere-Opterons-und-Preissenkung-bei-AMD-160558.html
 
Zuletzt bearbeitet:
Leute, dass hier soll doch weder zu Intel-Bashing ausufern, noch in einen Fanboy-Zwist. Fakt ist, Intel war in dem Sektor bisher gar nicht konkurrenzfähig. Es wird immer so sein, dass es ein Hersteller einmal besser hinbekommt und dann mal wieder schlechter. Das sind die Chancen für uns Kunden, weil in diesen Phasen, wenn sich ein Hersteller erholt, auf einmal wieder tolle Produkte zu tollen Preisen kommen. Und wer denkt, Nvidia ist so weit vorn, dem sei gesagt: Denkt an 3dfx beim 3D-Beginn.
Will damit nicht sagen, dass Nvidia demnächst verschwindet, aber die müssen auf Grund des m. E. total überbewerteten Aktienpreises aufpassen. Wie man neulich gesehen hat, ostein großerr Fall des Kurses ganz schnell möglich und das bringt auch in diesen Konzern Unruhe und Druck.
 
@Convert bevor wir aneinander vorbei reden.

Wenn Du meinst, dass es den Eindruck macht, dass Intel stur das weiter durchzieht, was bisher schon nicht funktioniert hat, dann kann und will ich Dir nicht widersprechen. Aber da sind wir wieder beim Thema, dass es bei Intel an Vision, Planung und Umsetzung mangelt.

Wenn Du meinst, dass man einen Alternativplan machen muss, für den Fall, dass eigentliche Plan scheitert, dann bin ich anderer Meinung.*)

Convert schrieb:
Wenn man Plan A nicht vernünftig aufsetzt und nicht konsequent umsetzt, wieso sollte es beim Backup Plan B gelingen?

Zwei Pläne für dasselbe Business Goal zu haben, bedeutet in der Konsequenz, dass man keinen Plan hat. Zwei Pläne funktionieren nur wenn es zwei getrennte Projekte gibt. Konkurierende Projekten zu haben, ist eine ganz eigene Herausforderung, ...

Einen Plan zu haben und konsequent umzusetzen bedeutet, diesen Plan immer wieder an den eigenen Fortschritt und an die Produkte der Konkurrenz und an die Lage im Markt anzupassen. Sobald man zur Überzeugung gelangt, dass das der Plan wahrscheinlich nicht funktioniert, muss man einen komplett neuen Plan machen. Mit der bisher gesammelten Erfahrung und mit der aktuellen Einschätzung von Konkurrenz und Markt.

Einen Plan B, der vor ein paar Jahren gemacht wurde, unverändert aus der Schublade zu holen und umzusetzen, scheitert unweigerlich.

Convert schrieb:
So weit ich das aus der Gerüchteküche mitbekommen habe, so ist der N48 auf dem die RX 9700 (X) basieren ein Plan B. Plan A war ursprünglich N41 und co in Multichipletdesign...
Plan A wurde eingestampft. Dann wurde neu geplant. Dieser neue Plan B wurde umgesetzt. Und eben kein alter Plan B aus der Schublade geholt.

AMD hat dies mindestens 2 Jahre vor dem Release gemacht. AMD konnte also noch reagieren und konnte damit einen Teil von RDNA4 retten. Wenn man wie Intel erst unmittelbar vor dem Release die Reißleine zieht, hat man keine Optionen mehr.

Im übrigen finde ich die Geschichte vom Multichipletdesign für RDNA 4 unwahrscheinlich.

Convert schrieb:
Da hast du mit 20 Jahren aber zu hoch gegriffen. 2006 hat Intel den Core 2 Duo vorgestellt, und AMDs gute Prozessoren fielen im Preis und waren dennoch kaum konkurrenzfähig...
20 Jahre ist gnädig. Wenn man sagt, abgesehen von der X86-Plattform im Client- und im Servermarkt kann man locker 30 Jahre schreiben. Siehe auch

Die Geschichte fängt nicht bei Core 2 Duo an, sie fängt bei Core (Yonah) an. Du hast Dir mit Yonah das einzige große Projekt bei Intel aus Anfang der 2000er Jahre herausgesucht, das nicht weitgehend gescheitert ist. Intel hatte sich in den 1990er Jahren den Markt für Desktop CPUs einverleibt und war Anfang der 2000er Jahre dabei sich den Markt für Server CPUs zu holen. Dass dies letztendlich gelungen ist, lag an der Arbeit des CPU Design Teams in Israel und an der Halbleiterfertigung bei Intel

Witziger Weise ist Yonah sogar ein Ausnahme-Fall, bei dem der Plan C die Sache gerettet hat. Aber dies lag daran, dass Plan C in Israel umgesetzt wurde und deshalb weitgehend unabhängig von Plan A (Pentium D) und Plan B (Itanium) war. Und vor allem daran dass Plan A von Anfang an zum Scheitern verurteilt war und rückblickend betrachtet Plan B auch keine gute Idee war.

Zu Plan A:
Es gibt einen ziemlich bizarr brillanten Vortrag von Paolo Gargini aus dem Jahr 2017. Eigentlich geht es ihm darum zu zeigen wie es nach FinFET weitergehen könnte, aber er geht auch auf die Vergangenheit ein. Er war frühzeitig bei ITRS involviert. Der Vortrag ist mit der Zusammenfassung von Paul McLellan besser verständlich.

Das Ende des Dennard Scaling war schon seit den 1990 Jahren abzusehen und aus diesem Grund wurden Projekte initiiert, um Wege zu finden wie man nach dem Ende des Dennard Scalings die Transistordichte weiter steigern kann.

Ich finde es bei diesem Hintergrund bizarr, dass Intel Anfang der 2000er Jahre als das Dennard Scaling unmitellbar vor dem Ende war, ein Design für extrem hohe Frequenzen aufgelegt hat und von 10 GHz geredet hat. Die hätten Mal mit ihrem Kollegen Paolo Gargini reden sollen.

Die andere Wahrheit zum Erfolg von Intel Core und Nachfolgern ist, dass AMD nach den großen Würfen K7 und K8 in Folge 3 Fehlschläge hingelegt hat. K9 wurde gecancelt, K10 wurde vom TLB Bug ausgebremst und dann kam Bulldozer.

*) Jedes Mal wenn Plan B erwähnt wird, fällt mir ein gewisser Nachmittag wieder ein.
Mein Kollege hatte das Projekt beim Kunden vor großer Runde präsentiert und damit demonstriert, dass es läuft. Sichtlich beeindruckt von der Präsentation meines Kollegen hat die große Runde des Kunden in unserem Beisein darüber diskutiert, wie das Projekt von Ihnen eingeführt wird. Ein Abteilungsleiter hat sich ständig mit "Und wenn das schiefgeht, könnte ..." zu Wort gemeldet. Irgendwann ist dem Boss der Kragen geplatzt: "Herr ..., sie halten jetzt die Klappe. Wir reden nicht darüber was wir tun würden wenn es schief gehen sollte. Wir reden darüber wie wir es erfolgreich umsetzen".

Einen Plan B zu haben, macht es den Bedenkenträgern so einfach den Plan A zu sabotieren.
 
ETI1120 schrieb:
Im übrigen finde ich die Geschichte vom Multichipletdesign für RDNA 4 unwahrscheinlich.
Warum denn das? Oder anders gesagt, wie sonst hätte AMD realistisch die 144 CU umsetzen sollen, die man im Linux-Treiber erwähnt findet?
 
Endurance schrieb:
Leute, dass hier soll doch weder zu Intel-Bashing ausufern, noch in einen Fanboy-Zwist. Fakt ist, Intel war in dem Sektor bisher gar nicht konkurrenzfähig.
Der andere Fakt ist aber auch, dass es Intel seit 20 Jahren versucht. Es gab dabei ein paar Achtungserfolge. Letztendlich hat Nvidia all diese Achtungserfolge beiseite gewischt und zieht immer weiter davon.

Zu Weihnachten 2023 hat Pat Gelsinger herumgeheult, dass Nvidia bloß Glück gehabt hätte. Wenn Intel nicht Larrabee aufgegeben hätte, wäre alles ganz anders geworden.

Darauf hat Brian Catanzaro geantwortet:
Ich habe 2007 bei Intel an Larrabee-Anwendungen gearbeitet. Dann ging ich 2008 zu NVIDIA, um an ML zu arbeiten. Ich war also zu dieser Zeit an beiden Orten, und ich kann sagen: Die Dominanz von NVIDIA kam nicht durch Glück zustande. Sie beruhte auf Vision und Execution. Daran mangelte es Intel.
Man kann Execution mit Ausführung übersetzen, aber ich finde damit geht ein Teil der Bedeutung verloren, ich würde deshalb Execution mit Planung und Umsetzung ins Deutsche übersetzen.

stefan92x schrieb:
300 mm² * 1,5 = 450 mm², das wäre IMO als ein Die machbar.
stefan92x schrieb:
Oder anders gesagt, wie sonst hätte AMD realistisch die 144 CU umsetzen sollen, die man im Linux-Treiber erwähnt findet?
Im Treiber werden die shader engines 0 bis 8 erwähnt. Mit der Annahme von 16 CUs je Shader Engine (Navi 44/48) haben ein paar Leute ausgerechnet, es wären 144 CUs gewesen. Die 144 CUs stehen nicht im Treiber.

Weil 9 kein Vielfaches von 2 ist müssen es 3 GCD mit jeweils 3 Shader Engines sein. Da kam das Fig. 7 aus dem Patentantrag US 20220320042A1 von AMD gerade recht und bald kursierten jede Menge gerenderte Bilder, die zeigen sollen wie Navi 41 ausgesehen hätte, durchs Netz.

Schöne Geschichte

AMD hat die Treiber umorganisiert, deshalb stehen im Treiber keine Informationen zur Konfiguration der GPUs mehr. Die 9 Shader Engines ergeben sich aus den Parametern, die für die Shader Engines 0 bis 8 angelegt wurden. Es ist möglich, dass eine GPU mit 9 Shader Engines geplant war, aber das muss nicht zutreffen.

Die Codenamen mit Navi stehen für Dies. D. h. Navi 41, Navi 42 und Navi 43 stehen für 3 verschiedene Dies und nicht für 3 verschiedene GPUs. Wenn man die Geschichte von oben weiterspinnt, dann hätte AMD aus diesem GCD mit 48 CUs 3 GPUs mit 48, 96 und 144 CUs ableiten können. Wozu noch 2 weitere Dies?

RDNA 4 soll 50 % zuzulegen während es bei RDNA 3 nur 20 % war. 50 % mutet mir sehr viel an. Kann AMD so viele Shader bei Games vernünftig auslasten? Das ist Nvidia mit 128 Shader Machines nicht gelungen. Selbst wenn man die 144 CUs akzeptiert wären 450 bis 470 mm² für einen Die sind nicht übermäßig groß. Multi Die ist bei GPUs erheblich aufwändiger als bei CPUs.
 
  • Gefällt mir
Reaktionen: stefan92x
Zurück
Oben