News Ponte-Vecchio-Nachfolger: Intel streicht Rialto Bridge und setzt auf Falcon Shores

ETI1120 schrieb:
Intel hat sich auf den Loorberen ausgeruht. IMO hat sich in den 2010er Jahren bei Intel die Einstellung breit gemacht, dass Moores Law am Ende ist. D. h. wenn die eigenen Projekte nicht vorankommen liegt es nicht daran dass bei Intel etwas falsch läuft, sondern dass es nicht besser geht.
Während sie gleichzeitig in ihren Roadmaps immer noch super aggressiv auf neue Fertigungsprozesse hin ausgelegt waren? Das klingt wenig überzeugend.
Schau dir dafür solche alten Roadmaps an: https://www.nextbigfuture.com/2011/06/intel-roadmap-from-june-2011-with-7nm.html
Und nicht vergessen: 7nm heißt heute Intel 4...

Ich glaube viel eher, dass bei Intel diverse davon überzeugt waren, dass ihre Fertigungsvorsprünge derart drastisch seien, dass bei Architekturen nur noch günstiger und nicht mehr rundherum besser im Fokus stehen bräuchte. Anders gesagt: Sie gingen von chancenlosen Konkurrenten aus, wer bei TSMC fertigt hätte ohnehin bereits keine Chance gegen sie...

Edit: Und das schlimmste ist, es hätte ja auch mehr oder weniger gestimmt. Stell dir vor, jetzt würde RaptorLake in Intel 20A oder gar in Intel 15A gegen Raphael-X (weiterhin in N5+N6) antreten; Raphael-X hätte keine Chance. Sogar wenn Intel Skylake recycled und recycled hätte und jetzt wäre das Duell eines von Skylake 16C in 20A oder 15A gegen Raphael-X sähe der doch alt aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Munkman, bad_sign, trb85 und eine weitere Person
Ach, das wird alles noch gut. :-)
 
CDLABSRadonP... schrieb:
Edit: Und das schlimmste ist, es hätte ja auch mehr oder weniger gestimmt. Stell dir vor, jetzt würde RaptorLake in Intel 20A oder gar in Intel 15A gegen Raphael-X (weiterhin in N5+N6) antreten; Raphael-X hätte keine Chance. Sogar wenn Intel Skylake recycled und recycled hätte und jetzt wäre das Duell eines von Skylake 16C in 20A oder 15A gegen Raphael-X sähe der doch alt aus.
Diese Nummer war aber mit Broadwell durch. Da hatte Intel schon massiv Federn gelassen im Bereich des Fertigungsprozesses. Und selbst wenn der RPL nun in Intel 4 käme, würde es an Intels Marktführerschaft auch nichts groß ändern. So lange AMD mithalten konnte, hatte man einen Marketshare. Größte Konkurrenz ist eh ARM und Apple
 
  • Gefällt mir
Reaktionen: TechFA und nyster
Rockstar85 schrieb:
Diese Nummer war aber mit Broadwell durch. Da hatte Intel schon massiv Federn gelassen im Bereich des Fertigungsprozesses.
Jein, sie hatten damals Federn gelassen, aber es ist schon verständlich, dass das noch nicht zu einer Grundsatzkrise geführt hat. Es ist für mich durchaus nachvollziehbar, dass eine Verspätung auf einer Roadmap noch nicht zu einem grundsätzlichen Hinterfragen der Gesamtroadmap führt.
 
ETI1120 schrieb:
Sehr spät wurde auf die Herausforderung von Nvidia reagiert. Erst als es offensichtlich wurde das viele Aufgaben dauerhaft auf den GPUs laufen werden hat Intel reagiert.
Das stimmt so nicht. Reagiert haben sie damals schon relativ schnell: Larrabee gab es ja nicht umsonst und aus diesem entwickelte sich mit Knights Corner und Knights Landing auch entsprechende Produkte der Serie Xeon Phi, die ja auch auf den HPC-Markt ausgelegt waren. Nur hat hier auch bereits Intels Überheblichkeit zugeschlagen. Man hat GPUs für HPC-Aufgaben nicht ernst genommen und sich darauf verlassen, dass x86 für die Entwickler "bekannt" sind und diese sich damit auskennen und man nicht viel mehr machen muss als eben "x86". Intel hat unterschätzt, dass viele Entwickler nicht mehr wirklich "Assembler" programmieren und dass das eine gute abstrakte Software-API mit sauberer Dokumentation auch Leuten ermöglicht für Hardware zu programmieren, die es sonst nicht tun.

Intel hat es - wenn man es böse ausdrücken will - verschlafen, dass Hochsprachen immer wichtiger wurden und dass Sprachen wie Pyhton und Co im wissenschaftlichen Bereich auch Menschen zum Programmieren bringt, die es eigentlich nicht tun und diese Menschen auch im HPC-Bereich durchaus "wichtig" sind. Ich kenne einige Physiker und Chemiker, die Cuda und Co "verwenden" und ihre Algorithmen auch selbst programmieren. Das sind keine klassischen Entwickler, aber die gibt es.

Ozmog schrieb:
Nur, weil man eine gewisse Schadenfreude empfindet, dass einer der Großen und vormals "nahezu Monopolist" jetzt strauchelt, heist ja nicht unbedingt, dass man dem Schwarz-Weiß-Denken unterliegt.
Das ist der Punkt. Ich habe in keiner Weise erwähnt, dass Intel "böse" ist oder AMD gut. Für mich ist hier entscheidend, dass Intel ihre aktuellen Probleme zu großen Teilen selbst zu verantworten hat und man Konkurrenten belächelt hat und sich einige Male dachte: "x86" regelt das. Siehe dazu eben Larrabee und Knights Corner und Landing. Genauso dachte Intel, dass sie im Mobilmarkt "Erfolg" hat, weil "x86".

Klar, sie haben die Erfahrung gemacht, dass die Kompatibilität zu x86 wichtig ist - sie sind ja mit IA64 selbst daran gescheitert - gleichzeitig haben sie aber übersehen, dass sich die Compiler weiter entwickeln, dass Firmen wie Apple, NVIDIA und Co die "Software" in den Mittelpunkt stellen und die Hardware "degradieren".

Dass NVIDIA den HPC-Markt quasi beherrscht, dass ARM-Prozessoren im Servermarkt wildern, dass AMD wieder erstarken konnte, das sind nicht die Ursache dafür, dass Intel stolpert, sondern Symptome. Die Ursachen für Intels Straucheln liegen in der eigenen Arroganz. Sie haben Konkurrenten nicht wirklich ernst genommen und daran geglaubt, dass an x86 kein Weg vorbei führt, dass sie damit alles lösen können. Die anderen Firmen haben in diesem Schatten an ihren Produkten gearbeitet und nach und nach sich ihre Positionen erarbeitet und erobert und entsprechend steht jetzt Intel da.

Intel reagiert aber auch darauf und hat viele notwendige Schritte eingeleitet, gleichzeitig haben aber auch die anderen Firmen Schritte eingeleitet um sich weiter unabhängig von Intel zu machen und Intel wird jetzt lernen müssen, dass sie eben nicht mehr Alternativlos sind.
 
  • Gefällt mir
Reaktionen: TechFA, bad_sign, trb85 und 5 andere
Das sieht so aus, als ob man sich bei Intel wohl verrannt hat (wie damals bei der 10nm Fertigung oder wie bei RDNA3 von AMD/RTG, also dass entwickelte Produkt wohl nicht so gut laeuft/viel leistet, wie urspruenglich angedacht) und vieles auf den Pruefstein musste, was den Fortschritt der Entwicklungsprojekte und die Relevanz fuer das Unternehmen angeht sowie die Umsatz- und Gewinnerwartungen natuerlich.

Gewiss wirft das viele Roadmaps wieder ueber den Haufen, aber das ist bei Intel ja (leider) nichts neues, nur den guenstigsten Zeitpunkt erwischt man damit nicht wirklich und klar, die aktuelle Marktlage und -saettigung (denn es lahmt vermutlich an vielen Fronten und eine Ueberproduktion wie bei den Speicherherstellern ist wohl auch nicht erwuenscht) ist denkbar schwer einzuschaetzen und wie/wann der Markt wieder Schwung aufnimmt.

Es koennte fuer Intel natuerlich dumm laufen, wenn man in einem groesseren Zeitfenster nur alte Produkte anbieten kann und die Konkurrenz dann noch mehr Marktanteile in dem Bereich gewinnt, aber so ist eben das Leben und nun muss man dort wohl deutlich kleinere Broetchen backen.

Langfristig sehe ich deren eigene Fertigung bei Intel aber immer noch als wichtigstes Puzzle-Teil, um wieder die Spitze bei der produzierten Hardware einnehmen zu koennen neben TSMC (wo die Konkurrenz fertigen laesst), denn das kann man nicht ewig (durch riskante Architektur-Ansaetze, Takt, usw.) kompensieren und dahingehend scheint es ja keine grossen Verlautbarungen zu geben bzw. damit scheint das Ganze nicht zusammen zu haengen.
 
CDLABSRadonP... schrieb:
Intel hat keine Alternative, als in dGPUs zu investieren. In der Chipletära wird jeder Hersteller eine konkurrenzfähige GPU-Architektur brauchen, um daraus seine APUs zusammenzubauen. Die bisherigen Ansätze, auch größere iGPUs auf Basis der kleinen iGPUs zu bauen, ging nun einmal nicht auf.
Du betrachtest das zu sehr aus der Sicht des PC-Client. Aus Sicht des Clients hast Du vollkommen recht.

Aber es gibt einen viel wichtigeren Gesichtspunkt:

Intel braucht GPUs im DataCenter. Hier ist Intels Position sehr wackelig geworden. Nvidia hat sich im Data Center breitgemacht. Nur auf den Marktanteil den CPUs im Datacenter zu richten ist nicht hilfreich. Auch das DataCenter hat sich in den letzen 10 Jahren massiv geändert. Mit CPUs alleine würde Intel als Nischenanbieter enden.

Die Gaming-dGPUs bringen einen breiteren Marktauftritt. Außerdem haben sie den Reiz dass sie Nvidia in deren klassischen Markt Konkurrenz machen.
Diablokiller999 schrieb:
Denke Intel wird Mal wieder konsolidieren müssen, gucken was an der Wand haften blieb und den Rest weg wischen.
Intel muss jetzt nicht weiter konsolidieren. Intel muss liefern.

Erst wenn Intel dauerhaft Verlust machen sollte, müssen sie weitere Aktivitäten streichen.
Diablokiller999 schrieb:
Eher interessant, dass Intel im High End weiterhin TSMC nutzt. Die eigene Fertigung hat sich wohl ziemlich verrannt.
das ist keine Neuigkeit. Intel 4 ist auschließlich für CPU-Kerne geeignet. Erst Intel 3 ist ein kompletter Node
 
  • Gefällt mir
Reaktionen: DevPandi
ETI1120 schrieb:
Du betrachtest das zu sehr aus der Sicht des PC-Client. Aus Sicht des Clients hast Du vollkommen recht.
Dankeschön erst einmal.
ETI1120 schrieb:
Intel braucht GPUs im DataCenter. Hier ist Intels Position sehr wackelig geworden. Nvidia hat sich im Data Center breitgemacht. Nur auf den Marktanteil den CPUs im Datacenter zu richten ist nicht hilfreich. Auch das DataCenter hat sich in den letzen 10 Jahren massiv geändert. Mit CPUs alleine würde Intel als Nischenanbieter enden.
Ja, Intel braucht auch Beschleuniger für DataCenter. Woraus diese aber entstehen kann sich schnell drehen. Mal sind sie näher an Consumer-dGPUs, mal sind sie näher an eigenen Produkten, mal sind sie näher an CPUs. Ich mag da keine mittelfristige Prognose aufstellen, wohin die Reise gehen wird.
 
DevPandi schrieb:
Das stimmt so nicht. Reagiert haben sie damals schon relativ schnell: Larrabee gab es ja nicht umsonst und aus diesem entwickelte sich mit Knights Corner und Knights Landing auch entsprechende Produkte der Serie Xeon Phi, die ja auch auf den HPC-Markt ausgelegt waren.
Aber ernsthaft gegen Nvidia konnte Intel die ganzen Jahre nicht.

Viel entscheidender ist dass es eben keine kontinuierliche Entwicklung Abseits von CPU-Kernen gab.
DevPandi schrieb:
Nur hat hier auch bereits Intels Überheblichkeit zugeschlagen. Man hat GPUs für HPC-Aufgaben nicht ernst genommen und sich darauf verlassen, dass x86 für die Entwickler "bekannt" sind und diese sich damit auskennen und man nicht viel mehr machen muss als eben "x86".
HPC ist eben nur ein Aspekt. AI ein anderer. Außerdem haben sich die Rechenzentren massiv geändert. Wo früher möglicht einheitliche Kisten standen, wird heute Applikationsspezifisch ausgerüstet.
DevPandi schrieb:
Intel hat unterschätzt, dass viele Entwickler nicht mehr wirklich "Assembler" programmieren und dass das eine gute abstrakte Software-API mit sauberer Dokumentation auch Leuten ermöglicht für Hardware zu programmieren, die es sonst nicht tun.
Das Thema Assembler ist doch schon seit Jahrzehnten eine Nische. Assembler wird doch nur ausgepackt wenn man im compilierten Code ein Bottleneck identifiziert hat.
DevPandi schrieb:
Intel hat es - wenn man es böse ausdrücken will - verschlafen, dass Hochsprachen immer wichtiger wurden und dass Sprachen wie Pyhton und Co im wissenschaftlichen Bereich auch Menschen zum Programmieren bringt, die es eigentlich nicht tun und diese Menschen auch im HPC-Bereich durchaus "wichtig" sind. Ich kenne einige Physiker und Chemiker, die Cuda und Co "verwenden" und ihre Algorithmen auch selbst programmieren. Das sind keine klassischen Entwickler, aber die gibt es.
Hier hat sich die Investition von Nvidia in Software eben ausgezahlt. Es nützt nichts eine GPU herauszupacken wenn es keine Bibliotheken gibt mit der man die GPU einbindet.

So wie ich es verstehe besteht die ganze "Programmierung" bei HPC aus Gluecode um die Bibliotheken herum.

Das Problem war dass Intel zu lange nicht systematisch in GPUs investiert hat. Ein paar Vorzeigeprodukte die am Markt keinen Erfolg haben interessieren letztendlich nicht.
Ergänzung ()

CDLABSRadonP... schrieb:
Ja, Intel braucht auch Beschleuniger für DataCenter. Woraus diese aber entstehen kann sich schnell drehen. Mal sind sie näher an Consumer-dGPUs, mal sind sie näher an eigenen Produkten, mal sind sie näher an CPUs. Ich mag da keine mittelfristige Prognose aufstellen, wohin die Reise gehen wird.
Es ist völlig klar, dass die Reise hin zu speziellen Beschleunigern geht. Die CPU wird mehr und mehr entlastet.

Es ist eben kein Zufall, dass Lisa Su in ihrer Keynote bei der ISSCC 2023 CPUs nur am Rande erwähnt:

Ich bin sehr skeptisch in wie weit die ISA-Erweiterungen wie AVX-512 und AMX tatsächlich sinnvoll sind.

Bei den Beschleunigern kommt es auf die Softwareunterstützung an. Daran sind die AMD-APUs gescheitert.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Die CPU wird mehr und mehr entlastet.
Klar.
ETI1120 schrieb:
Es ist völlig klar, dass die Reise hin zu speziellen Beschleunigern geht.
Ja. Die Frage bleibt aber bestehen, woraus diese speziellen Beschleuniger gebaut werden. Man kann etwas spezielles aus etwas allgemeinen entwickeln oder vollkommen neu.
Ein absichtlich absurdes Beispiel: Eine Anwendung bräuchte aus merkwürdigen Gründe genau FP56. Der klassische Ansatz ist, dafür einfach ein FP64-Design zu nehmen und den Rest per Software zu lösen. Aktuell ist eben eher das Entwickeln eigener Hardware in Mode: Die lässt sich entwickeln, indem ein FP64er-Design genommen und ein Achtel der Register weggelassen werden, indem ein FP32-Design genommen und dieses um drei Viertel der Register erweitert wird oder indem ein FP56er-Design von Grund auf entwickelt wird. Nur letzteres ist ein wirklich spezielles Design und das auch bloß, wenn nicht wieder mit den gleichen Tools wie beim Entwickeln eines FP32er und FP64er-Designs gearbeitet werden würde.
Genug davon (von meiner Seite).
ETI1120 schrieb:
Es ist eben kein Zufall, dass Lisa Su in ihrer Keynote bei der ISSCC 2023 CPUs nur am Rande erwähnt:
YouTube-Embeds laden Datenschutzerklärung
Ich bin sehr skeptisch in wie weit die ISA-Erweiterungen wie AVX-512 und AMX tatsächlich sinnvoll sind.

Bei den Beschleunigern kommt es auf die Softwareunterstützung an. Daran sind die AMD-APUs gescheitert.
Ich kann mir bei ihnen sogar vorstellen, dass sie für die Client-Welt wichtiger als für HPC werden könnten, einfach, weil sie dann irgendwann doch (möglicherweise) einfach jeder haben wird. Bei HPC können hingegen abermals Beschleuniger zum Einsatz kommen.
ETI1120 schrieb:
Bei den Beschleunigern kommt es auf die Softwareunterstützung an. Daran sind die AMD-APUs gescheitert.
Je nach Überlegenheit kann es sich dort aber eben auch lohnen komplett neue Software zu schreiben. Ich denke auch, dass das für MI300, die kommende Data Center APU, passieren kann.
 
CDLABSRadonP... schrieb:
Je nach Überlegenheit kann es sich dort aber eben auch lohnen komplett neue Software zu schreiben.
Niemand kauft heut zu Tage eine Hardware ohne Softwareunterstützung. Die Liste der tollen Hardwarprojekte, die an mangelnder Softwareunterstützung gescheitert sind ist lang.

Nvidia ist Marktführer und hat die schnellsten GPUs.


CDLABSRadonP... schrieb:
Ich denke auch, dass das für MI300, die kommende Data Center APU, passieren kann.
AMD arbeitet seit 2015 an ROCm. So wie ich es überblicken kann ist der Softwarestack für HPC inzwischen weitgehend vollständig. 2022 ging noch einiges an Performancetuning für Frontier.

Der Schwachpunkte von ROCm sind die nach wie vor extrem dünne Hardwareunterstützung und noch wenig Software von ThirdParty-Anbietern. Man wird sehen in wie weit die GPGPUs von AMD außerhalb der Superrechner tatsächlich Fuß fassen.

Bei AI geht es hauptsächlich darum die gängigen Frameworks zu unterstützen. Hier kommt es auch darauf an wie weit AMD inzwischen mit ihrem AI-Stack ist, den Victor Peng auf dem Financial Analyst Day 2022 vorgestellt hat.

Der Erfolg von Cuda basiert auf 3 Säulen:
  • Breite Hardwareunterstützung
  • Sehr viel Software
  • Sehr viele Entwickler
Ob Intel mit OneApi Erfolg haben wird, bleibt abzuwarten. Die ständigen Verzögerungen der Hardware macht es nicht einfacher.
 
  • Gefällt mir
Reaktionen: trb85 und CDLABSRadonP...
Intels Lager sind voll. Zulieferer bekommen keine Aufträge mehr und müssen daher schon Personal entlassen. Mal sehen was die Zukunft bringt.
 
Bridges, Lakes, Shores, Coves - was soll das alles bedeuten und kennt sich da irgendwer aus?
 
Na bei Intel geht es wohl immer noch recht kopflos zu. Gut für AMD, Intel hat viel zu lange ohne Wettbewerb gelebt.
xexex schrieb:
Die aktuelle Konjunkturlage
Vor "der aktuellen Lage" war Corona. Davor US-Wahl. Davor Handelskrieg. Davor "Hard Landing". Davor Iran-Drama. Davor Nordkorea-Drama. Davor Eurokrise. Davor Schuldenkrise.

Soll heißen: "Die aktuelle Krise" ist sinnloses Gelaber, es ist nicht Krise sondern einfach langweiliger Normallfall.
 
  • Gefällt mir
Reaktionen: trb85
Looniversity schrieb:
"Die aktuelle Krise" ist sinnloses Gelaber, es ist nicht Krise sondern einfach langweiliger Normallfall.
Im "Normalfall" sind die Unternehmen nicht gerade dabei Teile der Belegschaft zu entlassen. Die Hintergründe sind dabei herzlich egal, in solche Jahren werden aber schlichtweg weniger Investitionen getätigt, was sich logischerweise bei allen Zulieferern bemerkbar macht.
 
netzgestaltung schrieb:
Bridges, Lakes, Shores, Coves - was soll das alles bedeuten und kennt sich da irgendwer aus?
Bei Intel muss man sich das nicht alles merken - da wird ja eh 3/4 gecancelt. ^^
 
  • Gefällt mir
Reaktionen: trb85 und Looniversity
xexex schrieb:
Im "Normalfall" sind die Unternehmen nicht gerade dabei Teile der Belegschaft zu entlassen...
Das passiert dann bloß infolge von Übernahmen und heißt "Synergie", das Ergebnis ist aber das Gleiche.

Und dass alle 18 Monate eine Welle von Entlassungen kommt ist so normal wie maßlos extrapolierte Wachstumstrends auf fancy slide-decks. Das ist nur dann eine Krise, wenn man viel zu schnelle und unkontrollierte Expansion nicht als exzessiv, sondern als "Erwartungen allenfalls gerade so erfüllt" betrachtet. Was einfach mangelnde Voraussicht wäre.
 
  • Gefällt mir
Reaktionen: trb85
Looniversity schrieb:
Das passiert dann bloß infolge von Übernahmen und heißt "Synergie", das Ergebnis ist aber das Gleiche.
Keine der aktuell betroffenen Unternehmen, hat irgendwelche Übernahmen getätigt.

Looniversity schrieb:
Und dass alle 18 Monate eine Welle von Entlassungen kommt ist so normal wie maßlos extrapolierte Wachstumstrends
Wie ich bereits oben schrieb, die Ursachen sind absolut irrelevant. Wenn die Aussichten für weiteren Wachstum schlecht sind und Mitarbeiter entlassen werden, wird weniger in Technik investiert und es macht keinen Sinn in so einen Markt neue Produkte zu werfen.
 
Wenn Intel eine gute Konkurrenz zu AMD ist und beide stark konkurrieren, gibt es zwar mehr Entwicklungen. Das führt zu schnellerer Leistungssteigerung und man muss öfters neue CPUs kaufen. ohne Konkurrenz hat man etwas mehr Zeit. Aber heut ist man so dreist, dass alte CPUs nicht mehr unterstützt werden. Wenn AMD keine Konkurrenz hätte können die halt ein alten Ryzen 5 (sagen wir mal den 5600) zum R5 7360 umbenennen und den für 300€ verticken. Den Zen4 also den 7600 dann für 450€ usw. Das Alles noch mit verschiedenen Sockeln usw. Den 5600 machen wir dann ab so ca 2024 ‚inkompatibel‘.

Das wäre übel.
Wird nicht passieren, denn Intel/AMD lassen Apple nicht davon laufen und versuchen mit Allen dingen den M1 stets zu übertrumpfen. Auch wenn der 15W Prozessor hier sich mal 64W gönnt.
 
Zuletzt bearbeitet:
Zurück
Oben