News Intels AI-Ambitionen: HPC/AI-GPU Falcon Shores kommt nicht auf den Markt

karamba schrieb:
Bei KI Chips sieht man daran, wie schwer sich AMD mit guter Hardware schon gegen NV tut, dass man da mit einem halbgaren Produkt nicht auf den Markt kommen muss.
Das stimmt. Wirklich bitter daran ist aber, dass weder AMDs noch Intels (gecancelte) GPUs wirklich für AI gedacht waren, sondern ursprünglich noch mehr auf den klassischen HPC-Markt fokussiert haben. AI können die auch (und die entsprechenden Fähigkeiten wurden auch deutlich aufgebohrt), aber der ursprüngliche Fokus ist doch noch klar zu erkennen. Und genau da hat Nvidia ja auch eine Flanke offen gelassen, weil sie viel mehr Richtung AI optimiert haben.

Da haben sich AMD mit der MI250X und Intel mit Ponte Vecchio eigentlich ein Rennen darum geliefert, wer diese Gelegenheit nutzen kann. Wenn wir heute auf die für diesen Bereich immer noch relevante Top 500 schauen, sehen wir unter den ersten 10 3x MI250X, 2x MI300A. Nvidia hat je einmal A100, H100 und GH200 vertreten und Intel hat nur Aurora auf Platz 3, der entgegen aller Verpsprechungen niemals die Spitzenposition erreichen konnte. Dazu kommt noch der Fujitsu-Exot Fugaku.
karamba schrieb:
Dann lieber noch eine Runde drehen, ein brauchbares Produkt designen und mit eigener Fertigung auf den Markt bringen.
Geht ja nicht anders. Intel ist der einzige große Chiphersteller, der CPUs und GPUs nicht in Kombination anbieten kann. Das kann langfristig fatal sein.
 
  • Gefällt mir
Reaktionen: karamba
Endurance schrieb:
Naja, manche News-Artikel hier bekommen langsam Bild-Niveau. Hab auf CB schon viel besseres gelesen. Die Tests zur 5080 oder 5090 zum Beispiel.
Vertrauen aufbauen, Glaubwürdigkeitsproblem? So ein Quark. Intel hatte für AI noch fast nix als Produkt, ergo kein Vertrauen, ergo kann man nix zurückgewinnen. So einfach ist das.
Das passiert, wenn @Volker über Intel schreibt. Da werden selbst die dunkelsten Meldungen noch irgendwie so verpackt als wenn es aber dann bald klappen wird. Während man AMD damals in Grund und Boden gebasht hat als die erreichten Taktraten der Consumer Prozessoren unter dem beworbenen Boost lagen.

Btt:
Langsam wird klar warum Gelsinger gehen musste. Intern brennt es und man hat keinen klaren Plan oder Roadmap die man glaubhaft nach außen präsentieren könnte.
 
  • Gefällt mir
Reaktionen: Sam Miles
iNFECTED_pHILZ schrieb:
Das passiert, wenn @Volker über Intel schreibt. Da werden selbst die dunkelsten Meldungen noch irgendwie so verpackt als wenn es aber dann bald klappen wird.
Haben wir den gleichen Artikel gelesen? Schon im ersten Absatz stellt Volker in Frage, ob Intel seine Roadmap halten kann. In diesem Artikel ist nun wirklich kein pro-Intel Bias erkennbar.

Denn gibt es immer nur nach CPU-Tests, wenn AMD den armen @Volker mit AGESA-Update-Orgien in den Wahnsinn getrieben hat :evillol:
 
  • Gefällt mir
Reaktionen: sioh
Gabs Infos darüber, in welcher Fertigung Falcon Shores kommen sollte? Intel 3? TSMC 3?
 
stefan92x schrieb:
Und Fun Fact nebenbei: Die Vision, die Intel für Falcon Shores hatte (eine Architektur, die als CPU, GPU oder Kombination davon konfiguriert werden kann), die hat AMD mit MI300 umgesetzt und bietet alle drei Varianten an.
Das ergab sich bei der MI300A, dank eines guten Chiplet-Designs von alleine.

stefan92x schrieb:
Und in Sachen Chiplets/Packaging steht MI300 dem Wahnsinn von Ponte Vecchio auch in nichts nach. Nvidia wiederum schafft es sogar immer noch, ohne übermäßig aufwändiges Packaging die besten Chips zu liefern (steht da praktisch auf dem Stand von AMDs MI250X).
Ponte Vecchio ist Wahnsinn, und auch deshalb gescheitert.
MI300 ist ein gutes Chiplet-Design dessen Fertigung beherrschbar ist. Deswegen ist die MI300 ein Erfolg für AMD und kein Wahnsinn.
karamba schrieb:
Bei Intel hängt jetzt erstmal alles an 18A und gar nicht so sehr an KI Chips.
Aber nur weil Intel keine wettberewerbsfähigen "KI Chips" hat.
karamba schrieb:
Wenn 18A in die Gänge kommt, sehen die Zahlen plötzlich deutlich besser aus.
Nein. Da muss viel mehr kommen.
karamba schrieb:
Bei KI Chips sieht man daran, wie schwer sich AMD mit guter Hardware schon gegen NV tut, dass man da mit einem halbgaren Produkt nicht auf den Markt kommen muss.
Als damaliger Platzhirsch im Servermarkt hätte es für Intel ein leichtes gewesen sein sollen, diesen neuen Markt zu beherrschen. Es ist nicht einmal dass Intel den Markt übersehen hätte.*) Intel hat es in den letzten 20 Jahren in diesem Markt bestenfalls einzelne Achtungserfolge erzielt aber kein rundum überzeugendes Produkt geliefert. Und der Trend sieht gar nicht gut aus.

*) Intels Aussagen über GPUs und Beschleuniger haben doch AMD erst dazu veranlasst, sich nach einem Unternehmen mit GPU Know How umzusehen.
karamba schrieb:
Dann lieber noch eine Runde drehen, ein brauchbares Produkt designen und mit eigener Fertigung auf den Markt bringen.
Die Frage ist, ob 18A überhaupt für AI Beschleuniger geeignet ist.

Kannst Du einen vernünftigen Grund nennen, warum in einer weiteren Runde nun ausgerechnet Jaguar Shores ein brauchbares Produkt werden sollte? Es bleibt alleine die Hoffnung.

Wenn Intel nicht mit Jaguar Shore liefert, dann können sie es komplett einstellen. Liefern heißt konkurrenzfähiges Produkt in Punkto Performance.

iNFECTED_pHILZ schrieb:
Das passiert, wenn @Volker über Intel schreibt. Da werden selbst die dunkelsten Meldungen noch irgendwie so verpackt als wenn es aber dann bald klappen wird.
Das steht so nicht im Artikel, das liest Du rein.

iNFECTED_pHILZ schrieb:
Langsam wird klar warum Gelsinger gehen musste. Intern brennt es und man hat keinen klaren Plan oder Roadmap die man glaubhaft nach außen präsentieren könnte.
Es wäre seltsam den CEO für das Desaster bei den AI Beschleunigern zu feuern und Michelle Holthaus, die als Chefin von DCAI für das Desaster verantwortlich war, zum Co-CEO zu befördern.

Den Grund vermute ich eher bei der IFS. Denn das was Pat Gelsinger und David Zinser erzählt haben, hat in der letzten Zeit immer weniger zusammengepasst.

Ganz davon abgesehen, dass es keine 5 nodes in 4 years waren, sondern gnädig gerechnet nur 3 nodes, genügt es bei weitem nicht, dass der 18A Prozess funktioniert. Die IFS benötigt Kunden. Und es kam letztes Jahr raus, dass sich Pat Gelsinger bei dem Aufwand eine Foundry ins Laufen zu bringen komplett verschätzt hat.

stefan92x schrieb:
Haben wir den gleichen Artikel gelesen?
Ich denke schon, aber Eure Erwartungen waren andere.
stefan92x schrieb:
Schon im ersten Absatz stellt Volker in Frage, ob Intel seine Roadmap halten kann. In diesem Artikel ist nun wirklich kein pro-Intel Bias erkennbar.
Die regen sich über den letzten Satz auf:
Intel muss Überzeugungsarbeit leisten und wieder Vertrauen aufbauen – am besten mit Produkten.
Der besagt aber, dass Intel in der Bringschuld ist, nicht dass es klappen wird.

IMO kann sich Intel alle Überzeugungsarbeit sparen. Sie müssen ein konkurrenzfähiges Produkt liefern.

stefan92x schrieb:
Denn gibt es immer nur nach CPU-Tests, wenn AMD den armen @Volker mit AGESA-Update-Orgien in den Wahnsinn getrieben hat :evillol:
Aber mit Arrow Lake hat sich doch Intel alle Mühe gegeben wenigstens in dieser Beziehung AMD zu übertrumpfen.
 
  • Gefällt mir
Reaktionen: Convert
Ich finde es erstaunlich, dass Intel mal wieder kein Plan B hat.
Ist Gaudi 3 ein kompletter Rohrkrepierer, oder warum macht Intel von dem Gaudi nicht noch wenigstens ein Shrink von 5nm auf N4P? Damit könnte man die Effizienz von Gaudi 3 erhöhen und damit konkurrenzfähiger machen. Quasi als Überbrückung...
Noch mehr Performance könnte man aus einem weiterentwickelten Gaudi rausholen, was aber mehr Aufwand wäre: Ein Shrink auf 3nm und der Wechseln von HBM2E auf HBM3 mit entsprechender Anpassung/Skalierung nach oben beim Gaudi-Chip, damit dieser davon auch provitieren kann....
 
Convert schrieb:
Ich finde es erstaunlich, dass Intel mal wieder kein Plan B hat.
Niemand braucht einen Plan B, wenn man den Plan A vernünftig aufsetzt und dann konsequent umsetzt.

Allerdings krankt es bei Intel schon seit mindestens 20 Jahren an Vision, Planung und Umsetzung. Solange die Halbleiterfertigung rund lief, konnte Intel das teilweise kompensieren.

Convert schrieb:
Ist Gaudi 3 ein kompletter Rohrkrepierer,
Ein Rohrkrepierer wohl nicht. Aber wenn schon Intel selbst einräumt, dass das Produkt keine Zukunft hat, wieso sollten Kunden Geld dafür hinlegen?

Die Frage ist natürlich auch, wie viele Leute, die mit Habana Labs zu Intel kamen, aktuell noch bei Intel sind. AFAIK sind die ehemaligen Chefs schon weg und haben ein neues Start up gegründet.

Convert schrieb:
oder warum macht Intel von dem Gaudi nicht noch wenigstens ein Shrink von 5nm auf N4P?
Was soll das bringen, wenn das Design an sich wohl nicht konkurrenzfähig ist?

Der eine kritische Punkt bei Jaguar Shores ist, kann Intel in Zukunft mit dem erhöhten Entwicklungstempo von Nvidia mithalten, wenn Intel schon beim langsameren nicht mitkam?

Der zweite kritische Punkt bei Jaguar Shore ist, wie finden es die Entwickler dass sie quasi 2 Mal für die Tonne gearbeitet haben? Glauben sie selbst daran, dass sie Boden gegen Nvidia gut machen können?

Das Canceln des Releases von Falcon Shores und die gerade abgeschlossene Entlassungsrunde können durchaus dafür sorgen, dass einige Leute ihre eigene Planung überdenken.
 
ETI1120 schrieb:
Niemand braucht einen Plan B, wenn...
wenn!
So weit ich das aus der Gerüchteküche mitbekommen habe, so ist der N48 auf dem die RX 9700 (X) basieren ein Plan B. Plan A war ursprünglich N41 und co in Multichipletdesign...

Allerdings krankt es bei Intel schon seit mindestens 20 Jahren an Vision, Planung und Umsetzung.

Da hast du mit 20 Jahren aber zu hoch gegriffen. 2006 hat Intel den Core 2 Duo vorgestellt, und AMDs gute Prozessoren fielen im Preis und waren dennoch kaum konkurrenzfähig...

https://www.heise.de/news/Drastische-Preissenkungen-fuer-AMD-CPUs-144385.html

https://web.archive.org/web/20070711163855/http://www.heise.de/resale/news/meldung/92398

https://www.heise.de/news/Schnellere-Opterons-und-Preissenkung-bei-AMD-160558.html
 
Zuletzt bearbeitet:
Leute, dass hier soll doch weder zu Intel-Bashing ausufern, noch in einen Fanboy-Zwist. Fakt ist, Intel war in dem Sektor bisher gar nicht konkurrenzfähig. Es wird immer so sein, dass es ein Hersteller einmal besser hinbekommt und dann mal wieder schlechter. Das sind die Chancen für uns Kunden, weil in diesen Phasen, wenn sich ein Hersteller erholt, auf einmal wieder tolle Produkte zu tollen Preisen kommen. Und wer denkt, Nvidia ist so weit vorn, dem sei gesagt: Denkt an 3dfx beim 3D-Beginn.
Will damit nicht sagen, dass Nvidia demnächst verschwindet, aber die müssen auf Grund des m. E. total überbewerteten Aktienpreises aufpassen. Wie man neulich gesehen hat, ostein großerr Fall des Kurses ganz schnell möglich und das bringt auch in diesen Konzern Unruhe und Druck.
 
@Convert bevor wir aneinander vorbei reden.

Wenn Du meinst, dass es den Eindruck macht, dass Intel stur das weiter durchzieht, was bisher schon nicht funktioniert hat, dann kann und will ich Dir nicht widersprechen. Aber da sind wir wieder beim Thema, dass es bei Intel an Vision, Planung und Umsetzung mangelt.

Wenn Du meinst, dass man einen Alternativplan machen muss, für den Fall, dass eigentliche Plan scheitert, dann bin ich anderer Meinung.*)

Convert schrieb:
Wenn man Plan A nicht vernünftig aufsetzt und nicht konsequent umsetzt, wieso sollte es beim Backup Plan B gelingen?

Zwei Pläne für dasselbe Business Goal zu haben, bedeutet in der Konsequenz, dass man keinen Plan hat. Zwei Pläne funktionieren nur wenn es zwei getrennte Projekte gibt. Konkurierende Projekten zu haben, ist eine ganz eigene Herausforderung, ...

Einen Plan zu haben und konsequent umzusetzen bedeutet, diesen Plan immer wieder an den eigenen Fortschritt und an die Produkte der Konkurrenz und an die Lage im Markt anzupassen. Sobald man zur Überzeugung gelangt, dass das der Plan wahrscheinlich nicht funktioniert, muss man einen komplett neuen Plan machen. Mit der bisher gesammelten Erfahrung und mit der aktuellen Einschätzung von Konkurrenz und Markt.

Einen Plan B, der vor ein paar Jahren gemacht wurde, unverändert aus der Schublade zu holen und umzusetzen, scheitert unweigerlich.

Convert schrieb:
So weit ich das aus der Gerüchteküche mitbekommen habe, so ist der N48 auf dem die RX 9700 (X) basieren ein Plan B. Plan A war ursprünglich N41 und co in Multichipletdesign...
Plan A wurde eingestampft. Dann wurde neu geplant. Dieser neue Plan B wurde umgesetzt. Und eben kein alter Plan B aus der Schublade geholt.

AMD hat dies mindestens 2 Jahre vor dem Release gemacht. AMD konnte also noch reagieren und konnte damit einen Teil von RDNA4 retten. Wenn man wie Intel erst unmittelbar vor dem Release die Reißleine zieht, hat man keine Optionen mehr.

Im übrigen finde ich die Geschichte vom Multichipletdesign für RDNA 4 unwahrscheinlich.

Convert schrieb:
Da hast du mit 20 Jahren aber zu hoch gegriffen. 2006 hat Intel den Core 2 Duo vorgestellt, und AMDs gute Prozessoren fielen im Preis und waren dennoch kaum konkurrenzfähig...
20 Jahre ist gnädig. Wenn man sagt, abgesehen von der X86-Plattform im Client- und im Servermarkt kann man locker 30 Jahre schreiben. Siehe auch

Die Geschichte fängt nicht bei Core 2 Duo an, sie fängt bei Core (Yonah) an. Du hast Dir mit Yonah das einzige große Projekt bei Intel aus Anfang der 2000er Jahre herausgesucht, das nicht weitgehend gescheitert ist. Intel hatte sich in den 1990er Jahren den Markt für Desktop CPUs einverleibt und war Anfang der 2000er Jahre dabei sich den Markt für Server CPUs zu holen. Dass dies letztendlich gelungen ist, lag an der Arbeit des CPU Design Teams in Israel und an der Halbleiterfertigung bei Intel

Witziger Weise ist Yonah sogar ein Ausnahme-Fall, bei dem der Plan C die Sache gerettet hat. Aber dies lag daran, dass Plan C in Israel umgesetzt wurde und deshalb weitgehend unabhängig von Plan A (Pentium D) und Plan B (Itanium) war. Und vor allem daran dass Plan A von Anfang an zum Scheitern verurteilt war und rückblickend betrachtet Plan B auch keine gute Idee war.

Zu Plan A:
Es gibt einen ziemlich bizarr brillanten Vortrag von Paolo Gargini aus dem Jahr 2017. Eigentlich geht es ihm darum zu zeigen wie es nach FinFET weitergehen könnte, aber er geht auch auf die Vergangenheit ein. Er war frühzeitig bei ITRS involviert. Der Vortrag ist mit der Zusammenfassung von Paul McLellan besser verständlich.

Das Ende des Dennard Scaling war schon seit den 1990 Jahren abzusehen und aus diesem Grund wurden Projekte initiiert, um Wege zu finden wie man nach dem Ende des Dennard Scalings die Transistordichte weiter steigern kann.

Ich finde es bei diesem Hintergrund bizarr, dass Intel Anfang der 2000er Jahre als das Dennard Scaling unmitellbar vor dem Ende war, ein Design für extrem hohe Frequenzen aufgelegt hat und von 10 GHz geredet hat. Die hätten Mal mit ihrem Kollegen Paolo Gargini reden sollen.

Die andere Wahrheit zum Erfolg von Intel Core und Nachfolgern ist, dass AMD nach den großen Würfen K7 und K8 in Folge 3 Fehlschläge hingelegt hat. K9 wurde gecancelt, K10 wurde vom TLB Bug ausgebremst und dann kam Bulldozer.

*) Jedes Mal wenn Plan B erwähnt wird, fällt mir ein gewisser Nachmittag wieder ein.
Mein Kollege hatte das Projekt beim Kunden vor großer Runde präsentiert und damit demonstriert, dass es läuft. Sichtlich beeindruckt von der Präsentation meines Kollegen hat die große Runde des Kunden in unserem Beisein darüber diskutiert, wie das Projekt von Ihnen eingeführt wird. Ein Abteilungsleiter hat sich ständig mit "Und wenn das schiefgeht, könnte ..." zu Wort gemeldet. Irgendwann ist dem Boss der Kragen geplatzt: "Herr ..., sie halten jetzt die Klappe. Wir reden nicht darüber was wir tun würden wenn es schief gehen sollte. Wir reden darüber wie wir es erfolgreich umsetzen".

Einen Plan B zu haben, macht es den Bedenkenträgern so einfach den Plan A zu sabotieren.
 
ETI1120 schrieb:
Im übrigen finde ich die Geschichte vom Multichipletdesign für RDNA 4 unwahrscheinlich.
Warum denn das? Oder anders gesagt, wie sonst hätte AMD realistisch die 144 CU umsetzen sollen, die man im Linux-Treiber erwähnt findet?
 
Endurance schrieb:
Leute, dass hier soll doch weder zu Intel-Bashing ausufern, noch in einen Fanboy-Zwist. Fakt ist, Intel war in dem Sektor bisher gar nicht konkurrenzfähig.
Der andere Fakt ist aber auch, dass es Intel seit 20 Jahren versucht. Es gab dabei ein paar Achtungserfolge. Letztendlich hat Nvidia all diese Achtungserfolge beiseite gewischt und zieht immer weiter davon.

Zu Weihnachten 2023 hat Pat Gelsinger herumgeheult, dass Nvidia bloß Glück gehabt hätte. Wenn Intel nicht Larrabee aufgegeben hätte, wäre alles ganz anders geworden.

Darauf hat Brian Catanzaro geantwortet:
Ich habe 2007 bei Intel an Larrabee-Anwendungen gearbeitet. Dann ging ich 2008 zu NVIDIA, um an ML zu arbeiten. Ich war also zu dieser Zeit an beiden Orten, und ich kann sagen: Die Dominanz von NVIDIA kam nicht durch Glück zustande. Sie beruhte auf Vision und Execution. Daran mangelte es Intel.
Man kann Execution mit Ausführung übersetzen, aber ich finde damit geht ein Teil der Bedeutung verloren, ich würde deshalb Execution mit Planung und Umsetzung ins Deutsche übersetzen.

stefan92x schrieb:
300 mm² * 1,5 = 450 mm², das wäre IMO als ein Die machbar.
stefan92x schrieb:
Oder anders gesagt, wie sonst hätte AMD realistisch die 144 CU umsetzen sollen, die man im Linux-Treiber erwähnt findet?
Im Treiber werden die shader engines 0 bis 8 erwähnt. Mit der Annahme von 16 CUs je Shader Engine (Navi 44/48) haben ein paar Leute ausgerechnet, es wären 144 CUs gewesen. Die 144 CUs stehen nicht im Treiber.

Weil 9 kein Vielfaches von 2 ist müssen es 3 GCD mit jeweils 3 Shader Engines sein. Da kam das Fig. 7 aus dem Patentantrag US 20220320042A1 von AMD gerade recht und bald kursierten jede Menge gerenderte Bilder, die zeigen sollen wie Navi 41 ausgesehen hätte, durchs Netz.

Schöne Geschichte

AMD hat die Treiber umorganisiert, deshalb stehen im Treiber keine Informationen zur Konfiguration der GPUs mehr. Die 9 Shader Engines ergeben sich aus den Parametern, die für die Shader Engines 0 bis 8 angelegt wurden. Es ist möglich, dass eine GPU mit 9 Shader Engines geplant war, aber das muss nicht zutreffen.

Die Codenamen mit Navi stehen für Dies. D. h. Navi 41, Navi 42 und Navi 43 stehen für 3 verschiedene Dies und nicht für 3 verschiedene GPUs. Wenn man die Geschichte von oben weiterspinnt, dann hätte AMD aus diesem GCD mit 48 CUs 3 GPUs mit 48, 96 und 144 CUs ableiten können. Wozu noch 2 weitere Dies?

RDNA 4 soll 50 % zuzulegen während es bei RDNA 3 nur 20 % war. 50 % mutet mir sehr viel an. Kann AMD so viele Shader bei Games vernünftig auslasten? Das ist Nvidia mit 128 Shader Machines nicht gelungen. Selbst wenn man die 144 CUs akzeptiert wären 450 bis 470 mm² für einen Die sind nicht übermäßig groß. Multi Die ist bei GPUs erheblich aufwändiger als bei CPUs.
 
  • Gefällt mir
Reaktionen: stefan92x
ETI1120 schrieb:
Wenn man Plan A nicht vernünftig aufsetzt und nicht konsequent umsetzt, wieso sollte es beim Backup Plan B gelingen?
Was soll den an einem Die-Shrink auf einen etablierten Prozess und eventuell noch den Umstieg von HBM2e auf HBM3 nicht gelingen?
ETI1120 schrieb:
Zwei Pläne für dasselbe Business Goal zu haben, bedeutet in der Konsequenz, dass man keinen Plan hat. Zwei Pläne funktionieren nur wenn es zwei getrennte Projekte gibt. Konkurierende Projekten zu haben, ist eine ganz eigene Herausforderung, ...
Es muss ja nicht der selbe "Buisness Goal" sein. Man hätte doch bei gelingen von Falcon Shores diesen im absoluten High-End platzieren können, den Gaudi 4 dann leicht darunter. Oder Falcon Shores mehr Richtung Training und Gaudi 4 mehr Richtung effizientes und "günstiges" Interferencing bewerben können. Es war aus meiner Sicht von Anfang an zu riskannt Gaudi abzukündigen, solange man noch gar keinen Nachfolger hat. Und wenn jetzt einer sagt, man brauche nichts außer High-End Dickschiffchips. Das stimmt nicht. Nvidia verkauft immer noch viele H100. Dazu gab es hier erst vor kurzem eine News.

ETI1120 schrieb:
Einen Plan B, der vor ein paar Jahren gemacht wurde, unverändert aus der Schublade zu holen und umzusetzen, scheitert unweigerlich.


Plan A wurde eingestampft. Dann wurde neu geplant. Dieser neue Plan B wurde umgesetzt. Und eben kein alter Plan B aus der Schublade geholt.

AMD hat dies mindestens 2 Jahre vor dem Release gemacht. AMD konnte also noch reagieren und konnte damit einen Teil von RDNA4 retten. Wenn man wie Intel erst unmittelbar vor dem Release die Reißleine zieht, hat man keine Optionen mehr.
Einen Plan B sollte man natürlich vor dem Point of No return starten, sonst ist es kein Plan B, sondern plannungsloses reagieren auf Ereignisse. Ich hab nirgendwo geschrieben, dass Intel erst jetzt beim Ziehen der Reisleine den Plan B aktivieren soll. Intern weiß Intel nämlich schon länger, wie es um Falcon Shores steht und wie hoch da das Risiko steht, dass es kein gelunges Produkt wird.
ETI1120 schrieb:
Die Geschichte fängt nicht bei Core 2 Duo an, sie fängt bei Core (Yonah) an.
Ich weiß. Und die von Ryzen mit Ryzen 1. Das macht Core 2 Duo oder Sandy Bridge oder Zen 5 nicht weniger bedeutend. Fakt ist, dass 20 Jahre einfach nicht stimmen.
ETI1120 schrieb:
Einen Plan B zu haben, macht es den Bedenkenträgern so einfach den Plan A zu sabotieren.
Ein Plan B reduziert das Risiko von Plan A. Wegen eines Plan Bs, kann man beim Plan A mutiger sein, weil man den Bedenkenträgern sagen kann, dass zur Not wir noch Plan B haben. Und wie du selber nun gemerkt hast, gab es schon erfolgreiche Plan Bs oder nach deiner Zählung sogar Plan C.
Ergänzung ()

ETI1120 schrieb:
Selbst wenn man die 144 CUs akzeptiert wären 450 bis 470 mm² für einen Die sind nicht übermäßig groß.
Klar wäre ein monolithischer Chip, der größer ist als N48 möglich. Aber was ist dann der Grund, warum AMD N41, N42 hat fallen lassen und stattdessen den N48, einen verdoppelten N44 hat auflegen lassen? Den monolithische N48 hätte man ja nicht gebraucht, wenn schon N42 monolithisch gewesen wäre.

Bei Multichip-Variante gibt es einige Erklärungsversuche:
1. Multichip-Varianten N41, N42 waren nicht so gut in Simulationen, wie erhoft.
2. Multichip hätte die Advanced Packaging Resoursen gebraucht, die man lieber den AI-Chips A300X zugeschoben hat.

Ich persönlich gehe von Punkt zwei aus.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Nein. Da muss viel mehr kommen.

Als damaliger Platzhirsch im Servermarkt hätte es für Intel ein leichtes gewesen sein sollen, diesen neuen Markt zu beherrschen.

Kannst Du einen vernünftigen Grund nennen, warum in einer weiteren Runde nun ausgerechnet Jaguar Shores ein brauchbares Produkt werden sollte? Es bleibt alleine die Hoffnung.

Wenn Intel nicht mit Jaguar Shore liefert, dann können sie es komplett einstellen. Liefern heißt konkurrenzfähiges Produkt in Punkto Performance.
Nö, da muss nicht viel mehr kommen, als dass 18A gute Ergebnisse liefert, damit die Zahlen deutlich besser aussehen. Die Verluste kommen schließlich von der Fertigung. Und nicht davon, dass man keine KI Chips hat.

Den KI Markt haben alle verpennt, außer NV.

Ich kann und muss auch überhaupt keinen vernünftigen Grund nennen, warum das nächste KI Produkt von Intel ein brauchbares Produkt wird. Ich habe es nämlich nie behauptet. Was ich gesagt habe, ist, dass man nicht mit einem halbgaren Produkt auf den Markt kommen braucht, sondern es richtig war, es einzustampfen und stattdessen weiter zu entwickeln. Was du da reinliest, dafür kann ich nichts.

Und wie schnell sich in Stein gemeißelte Dinge ändern können, hat AMD mit dem Ryzen bewiesen. Wieso sollte sowas für Intel unmöglich sein? Durch Dummheit haben sich die Intel CPU Ingenieure bisher nicht ausgezeichnet. Ansonsten würde es bei Intel noch deutlich schlechter aussehen nach vielen Jahren mit Fertigungstechnikrückstand.
 
Convert schrieb:
Was soll den an einem Die-Shrink auf einen etablierten Prozess und eventuell noch den Umstieg von HBM2e auf HBM3 nicht gelingen?
AFAIK hat Falcon Shores ein HBM3 interface. Was soll ein Redesign von N5 auf N4P bringen?

Ganz schwere Frage:
  • Investiert man die Ressourcen in eine nicht wettbewerbsfähige Archtiktur, um wenn die Umbauarbeiten fertig sind mit der getunten veralteten nicht wettbewerbsfähigen Architektur gegen die nächste Generation der Konkurrenz anzutreten?
  • Oder steckt man Zeit und Ressourcen in die nächste Generation und ist vielleicht endlich Mal rechtzeitig fertig?
Convert schrieb:
Es muss ja nicht der selbe "Buisness Goal" sein. Man hätte doch bei gelingen von Falcon Shores diesen im absoluten High-End platzieren können, den Gaudi 4 dann leicht darunter.
Aktuell verlangt der Data Center AI-Markt nichts außer das absolute High End.

Zwei verschiedene Architekturen für dasselbe Marktsegment zu entwickeln ist Unsinn. Zwei Dies aus derselben Architektur abzuleiten ist viel billiger. So wie es Nvidia bei den Gaming GPU macht.

Und mit den Kosten, die zwei Hardwarearchitekturen im Softwarestack verursachen, fangen wir gar nicht erst an.

Convert schrieb:
Einen Plan B sollte man natürlich vor dem Point of No return starten, sonst ist es kein Plan B.
Bei der Produktentwicklung ist mehrere Projekte für dasselbe Ziel zu haben, ein teurer und sehr gefährlicher*) Spaß. Es gibt nur ganz wenige Umstände bei denen es überhaupt vertretbar ist. In der Regel läuft es darauf hinaus, dass alle Projekte ihr Ziel verfehlen, weil keines so unterstützt wird, wie es notwendig gewesen wäre. Auf gut Deutsch, man hat sich verzettelt.

Bevor wir hier weiter eine luftleere Debatte führen, schauen wir uns Mal die Data Center Silicon Roadmap vom März 2023 an:
1738516799291.png

https://www.anandtech.com/show/1879...n-track-emerald-in-q423-sierra-forest-in-h124

Intel hatte Plan A, Plan B und Plan C. Keiner war wirklich erfolgreich. Das ist das folgerichtige Ergebnis, wenn man zu viele Projekte hat.

Im Mai 2023 sah das ganze so aus:
1738517261312.png

https://www.hpcwire.com/2023/05/22/...ata-Center-silicon-roadmap_May-2023_1235x.png

Im Mai 2023 hat Intel (Sandra Rivera) endlich aufgeräumt und den Irrsinn beendet, viele Projekte parallel zu haben. Das Problem dabei ist, dass dies viel früher hätte Geschehen müssen. Im Mai 2023 war Falcon Shores schon weit fortgeschritten, so dass Falcon Shores kaum davon profitiert hat. Erst bei Jaguar Shores kann sich die Konzentration der Ressourcen auswirken.

Die Graphic suggeriert, dass Habana Labs Gaudi und die Intel Data Center GPU series zusammengeführt werden soll. Aber die alte Roadmap zeigt, dass Falcon Shores die Fortführung der Intel Data Center GPUs ist. Dass die federführenden Leute bei Habana Labs inzwischen Intel verlassen haben unterstreicht dies zusätzlich. Und lässt befürchten dass Jaguar Shores auch nur eine Fortführung der Intel Data Center GPUs ist. D. h, es ist zu befürchten, dass fließt nur wenig Know How von Habana Labs in Jaguar Shores einfließt.

Spätestens letztes Jahr war klar, dass es Falcon Shore nicht einfach haben wird. 1500 W sind ein Brett.

Alleine der Umstand, dass sich Sandra Riviera entschieden hat CEO bei Altera zu werden anstatt weiterhin Chef von DCAI zu bleiben, ist ein ganz dickes Warnsignal.

Und an dieser Stelle noch Mal der Hinweis, Nvidia hat gesagt sie wollen jedes Jahr eine neue GPU-Generation auf den Markt bringen. Das hat sich bisher noch nicht wirklich gezeigt aber es wird kommen.

Convert schrieb:
Ein Plan B reduziert das Risiko von Plan A.
Nein.

Du kannst argumentieren, dass zwei Lose zu haben die Gesamt-Chance auf Erfolg erhöhen. Aber die Wahrscheinlichkeit dass Los A gewinnt hängt nicht von Los B ab.

Convert schrieb:
Wegen eines Plan Bs, kann man beim Plan A mutiger sein, weil man den Bedenkenträgern sagen kann, dass zur Not wir noch Plan B haben.
Was Du schreibst bedeutet, dass das Risiko von Plan A steigt. Was den Bedenkenträgern erst recht Munition gibt dieses "undurchführbare" Projekt zu sabotieren.

Wenn ein Unternehmen Plan A und Plan B umsetzten will, benötigt es 2 Projektteams und auch ansonsten doppelte Entwicklungsressourcen. Hat man die Ressourcen um 2 konkurrierende Projekte mit letzter Konsequenz durchzuziehen? Kann man die zwei konkurrierenden Produkte im Markt überhaupt platzieren? Wie verhindert man, dass man die Kunden verwirrt und die deshalb zur Konkurrenz gehen?

Es ist offensichtlich, dass die Szenarien weitem überwiegen, bei denen die Erfolgschance von Projekt A durch das Ausführen von B verringert wird. Alleine schon zu viele Projekte zu starten und diese dann nicht optimal umsetzen zu können, gilt als schwerer strategischer Fehler von Unternehmen. Stichwort Gießkannenprinzip.

Und nun eine ganz verrückte Idee. Wenn ein Unternehmen die Ressourcen für zwei Produktentwicklungen hat, wieso entwickelt es dann nicht zwei Produkte für zwei unterschiedliche Marktsegmente. Dadurch hat man ein erheblich höheres Potential.

Es ist übrigens grotesk, dass wir über diesen Plan B Unsinn gerade in einem Thread über AI-Beschleuniger diskutieren. Der aktuelle Marktführer arbeitet seit 25 Jahren konsequent an seiner Architektur. Es gab bei Nvidia nie einen Plan B und den wird es nicht geben solange Jensen Huang etwas zu sagen hat.

Convert schrieb:
Und wie du selber nun gemerkt hast, gab es schon erfolgreiche Plan Bs oder nach deiner Zählung sogar Plan C.
Nur weil es einmal gut gegangen ist, bedeutet es nicht, dass es heute sinnvoll ist. Und wie es die Intel data Center Roadmaps offen legen, war Plan A, Plan B und Plan C gleichzeitig auszuführen ein wichtiger Faktor warum Intel überhaupt in diese Misere bei den Data Center Beschleunigern geraten ist.

Intel war sehr erfolgreich darin auf der Basis von X86 Plattformen für Client und für Server aufzubauen. Das waren enorm große Märkte und weil Intel praktisch die ganze Plattform ausrüstete, ist enorm viel Geld in die Kassen von Intel gesprudelt und Intel hat traumhafte Renditen erwirtschaftet. Die Firmen, die das wirtschaftliche Risiko getragen haben, bekamen ein paar Brotkrumen ab.

Aber schon in den 1990er Jahren versuchte Intel in neue Märkte einzudringen. Die Zukäufe, die Intels Abdeckung in der X86-Plattform erhöht haben, waren erfolgreich. Und was sonst noch? Intel hat Milliarden ausgegeben, um in anderen Märkten Fuss zu fassen. Kannst Du mir etwas nennen, bei dem Intel nachhaltig erfolgreich war?

Also bleibt als einziges großes Erfolgserlebnis eine neue Prozessorarchitektur im Kerngeschäft eingeführt zu haben. Und bei diesem Erfolg hat auch der Konkurrent durch 3 vergeigte Projekte fleißig mitgeholfen. Du kannst Dir einreden, dass 2005 bei Intel noch alles in Ordnung war, die Fakten sprechen dagegen.

Natürlich ging es geschäftlich für Intel noch lange Berg auf. Intel hatte alle anderen CPU-Anbieter im Markt für PC-CPUs in kleine Nischen verdrängt. Bis 2011 ist der PC Mart stetig gewachsen:
1738500165706.png

https://www.statista.com/statistics/273495/global-shipments-of-personal-computers-since-2006/

Auch der Markt für X86 Server CPUs ist noch einige Jahre gewachsen, auch das hat viel Geld in die Kassen von Intel gespült.

Convert schrieb:
Klar wäre ein monolithischer Chip, der größer ist als N48 möglich. Aber was ist dann der Grund, warum AMD N41, N42 hat fallen lassen und stattdessen den N48, einen verdoppelten N44 hat auflegen lassen?
Wenn ich mir die bisherigen Chipletlösungen von AMD anschaue, dann verstehe ich nicht wozu AMD 3 verschiedene GCDs auflegen sollte. Mit der Geschichte von 9 Shader Engines beim Topmodell, wird es offensichtlich, dass da etwas nicht passt.

Wieso könnte AMD die Dies Navi 41, Navi 42 und Navi 43 gecancelt haben?
  • AMD beschließt RDNA und UDNA wieder zusammenzuführen. und streicht RDNA4 auf ein Notprogramm zusammen. Damit werden Ressourcen frei um UDNA schnellst möglich fertig zu stellen.
  • AMD erkennt im Laufe der RDNA4 Entwicklung, dass die Raytracing Leistung erhöht werden muss. Die Änderungen verzögern das Projekt und deshalb bleibt nur die Zeit den kleinsten Die zu entwicklen und dieses Design zu verdoppeln.
  • AMD erkennt im Laufe der RDNA4 Entwicklung, dass die AI Leistung erhöht werden muss. Die Änderungen verzögern das Projekt und deshalb bleibt nur die Zeit den kleinsten Die zu entwickeln und dieses Design zu verdoppeln.
  • AMD erkennt im Zuge der Fehlersuche bei RDNA3, dass auch RDNA4 betroffen ist. Die Korrekturen verzögern das Projekt und deshalb bleibt nur die Zeit den kleinsten Die zu entwickeln und dieses Design zu verdoppeln.
  • ...
Es gibt viele Möglichkeiten und es ist wahrscheinlich, dass außenstehende es nie erfahren. Also können wir nur mutmaßen.
Convert schrieb:
Den monolithische N48 hätte man ja nicht gebraucht, wenn schon N42 monolithisch gewesen wäre.
Aus einer Multichipletarchitektur und einem GCD mit 48 CUs hätte AMD 3 CPUs im Vollausbau mit 48, 96 und 144 CUs ableiten können.

Ich könnte mir dazwischen noch einen monolithische Die bzw Navi32 Nachfolger mit 64 CUs vorstellen (72 wäre genau in der Mitte, würde aber 18 CUs je SE bedeuten).

Und was soll der 3. Die sein?

Convert schrieb:
Bei Multichip-Variante gibt es einige Erklärungsversuche:
1. Multichip-Varianten N41, N42 waren nicht so gut in Simulationen, wie erhoft.
2. Multichip hätte die Advanced Packaging Resoursen gebraucht, die man lieber den AI-Chips A300X zugeschoben hat.

Ich persönlich gehe von Punkt zwei aus.
Wenn man die Geschichte mit den Multi Chiplets glaubt, ist Punkt 2 sehr wahrscheinlich.

Die Urheber dieser Chiplet-Geschichte erzählen eine ganz wilde Story. Die Architektur hätte wie gewüscht funktioniert aber AMD hätte alles eingestampft, weil AMD die Die-Größe von BG202 erfahren hat und befürchtet hätte die RTX5900 nicht zu schlagen.
 
ETI1120 schrieb:
Wenn man die Geschichte mit den Multi Chiplets glaubt, ist Punkt 2 sehr wahrscheinlich.

Die Urheber dieser Chiplet-Geschichte erzählen eine ganz wilde Story. Die Architektur hätte wie gewüscht funktioniert aber AMD hätte alles eingestampft, weil AMD die Die-Größe von BG202 erfahren hat und befürchtet hätte die RTX5900 nicht zu schlagen.
Passt doch eigentlich gut zusammen. Es kann ja durchaus sein, dass das (vermutete) Chiplet-Konzept funktioniert hätte, aber mit einem nicht zu rechtfertigenden Preis verbunden gewesen wäre und das deshalb die Reißleine gezogen wurde (angeblich ja von ganz oben innerhalb AMD).

Für mich ergibt das alles ein durchaus stimmiges Bild, was abgelaufen sein könnte.
 
stefan92x schrieb:
Passt doch eigentlich gut zusammen. Es kann ja durchaus sein, dass das (vermutete) Chiplet-Konzept funktioniert hätte, aber mit einem nicht zu rechtfertigenden Preis verbunden gewesen wäre und das deshalb die Reißleine gezogen wurde (angeblich ja von ganz oben innerhalb AMD).
Das ist aber nicht die Geschichte mit der Kepler hausieren geht. Kepler sagt nicht zu teuer, Kepler sagt AMD befürchtete das Topmodell wäre nicht schnell genug die RTX5090 schlagen zu können. Und posaunt herum dass eine 144 CU RDNA4 Karte die RTX5090 schlagen würde.

Warum sollte sich AMD bei RDNA4 plötzlich um die RTX5090 kümmern? Bei RDNA3 war AMD die 4090 komplett egal. Navi31 hatte 16 CUs mehr als Navi 21. In ihrem Interview in Japan sagten David Wang und Rick Bergmann, dass das Limit von AMD 1000 USD wäre. Und das ist eine realistische Einschätzung.
 
ETI1120 schrieb:
Warum sollte sich AMD bei RDNA4 plötzlich um die RTX5090 kümmern? Bei RDNA3 war AMD die 4090 komplett egal.
Weil das Preisniveau passen muss. AMDs Karten fügen sich ja gut in (bzw etwas unter) die Staffelung von Nvidia ein. Das tun die RDNA3-Karten und sollen die RDNA4 offensichtlich auch.

Wenn Navi41 die gewünschte Marge nur bei einem Preis erzielt hätte, der im Bereich der 5090 oder sogar darüber liegt, dann hätte auch die Leistung so ausfallen müssen.

Also ist die eigentliche Antwort auf deine Frage: AMD interessiert sich immer für die direkte Konkurrenz von Nvidia. Sie haben sich nicht um die 4090 gekümmert, weil sie keine Konkurrenz hatten. Mit einer Karte, die in Konkurrenz zur 5090 stehen würde, würden sie sich auch für diese interessieren.
 
stefan92x schrieb:
Also ist die eigentliche Antwort auf deine Frage: AMD interessiert sich immer für die direkte Konkurrenz von Nvidia. Sie haben sich nicht um die 4090 gekümmert, weil sie keine Konkurrenz hatten.
Das ist keine Antwort. AMD hat der Navi 31 nur 20 % mehr CUs als die Vorgängergeneration spendiert. Deshalb hatte AMD keine Konkurrenz zur RTX4090. Wieso war AMD bei RDNA3 so zögerlich, obwohl sie mit Navi 21 so nah dran waren?

Natürlich wusste AMD, als AMD die Die Sizes für RDNA3 beschlossen hat, noch nicht wie Nav21 im Vergleich zu RTX3090 und RTX3080 performt.

Die für mich plausibelste Erklärung ist, dass AMD Navi 31 so groß gemacht hat, das der Vollausbau im Preisrahmen von 1000 USD vernünftige Margen abwirft. Dem Preisrahmen von 1000 USD den David Wang und Rick Bergman genannt haben.

stefan92x schrieb:
Mit einer Karte, die in Konkurrenz zur 5090 stehen würde, würden sie sich auch für diese interessieren.
Warum sollte AMD mit einer so großen Navi 41 planen? 50 % mehr CUs als die Vorgängergeneration. Und dann noch mit erheblich teuren Packaging.

Wenn man der Geschichte mit 144 CUs und Multi Chiplet GPU folgt, dann hätte AMD alle Zurückhaltung fallen lassen die RDNA 3 geprägt hat.

Wie gesagt David Wang und Rick Bergman sagen im Februar 2023, dass RDNA4 in den selben Preisrahmen fällt wie RDNA3 fällt. Navi 48 IMO liegt von den Kosten her zwischen Navi 22 und Navi 21
 
  • Gefällt mir
Reaktionen: Saros
Zurück
Oben