News Intel Falcon Shores: Ein Supercomputer-Baustein-Chip mit CPU- und GPU-Teilen

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.735
Mit Falcon Shores will Intel mit einer radikal neuen Architektur den Weg in die Ångström-Ära einläuten und frühestens ab dem Jahr 2024 zur Verfügung stellen. Das klingt vielversprechend, denn wie in einem Baukasten können je nach Einsatzgebiet CPU-Kerne oder auch GPU-Teile zusammengefügt werden. Die Idee ist Jahre gereift.

Zur News: Intel Falcon Shores: Ein Supercomputer-Baustein-Chip mit CPU- und GPU-Teilen
 
  • Gefällt mir
Reaktionen: borizb, aid0nex, =dantE= und 6 andere
Wenn ich "radikal neue Architektur von Intel" lese, denke ich an Itanium. Aber so gelesen ist da jetzt nichts radikales dran, außer halt viele große Chiplets zusammen auf demselben Substrat. Gab es schon zur Zeiten des Pentium Pro, der war tatsächlich radikal.
 
  • Gefällt mir
Reaktionen: aid0nex, Icke-ffm, StevenB und 4 andere
Mit Falcon Shores will Intel mit einer radikal neuen Architektur den Weg in die Ängström-Ära einläuten und frühestens ab dem Jahr 2024 zur Verfügung stellen. Das klingt vielversprechend, denn wie in einem Baukasten können je nach Einsatzgebiet CPU-Kerne oder auch GPU-Teile zusammengefügt werden. Die Idee ist Jahre gereift.

Die Idee ist eher dreist von AMD kopiert und nennt sich Chiplet Design^^
 
  • Gefällt mir
Reaktionen: aid0nex, matze313, Icke-ffm und 7 andere
@ghecko vielleicht wie damals als der Pentium Pro kam, der begleitet uns ja bis heute noch......
 
  • Gefällt mir
Reaktionen: ghecko
Also außer dem Namen Falcon Dingsda ist nichts neues angekündigt. Und die Behauptungen alles 5x ist wahrscheinlich wieder GPU gegen CPU zu verstehen und nicht neue CPU gegen alte CPU. Dass GPUs gegen CPUs in Perf/$ und Perf/Watt vielfach besser sind, weiß man seit den 2000er Jahren oder länger. Da ist Null-Komma-Nichts radikal neu, nicht mal das Chiplet-Design das es seit 2017 (Zen 1) also schon fünf Jahre gibt. Und dann verspätet sich das Ding eh 18 Monate mindestens :-) Nicht mal die Taktik Versprechen nicht zu halten ist neu bei Intel. Alles schon dagewesen.
 
  • Gefällt mir
Reaktionen: Slayn, Col. Jessep, Hannibal Smith und eine weitere Person
Das System des für die persönlichen Bedürfnisse zugeschnittenen Geräts funktioniert schon mit CPU+GPU nicht. Es gibt z.B. fast keine Notebooks in der H Klasse nur mit iGPU. Das wird mit Chiplets nicht anders werden.
 
  • Gefällt mir
Reaktionen: Icke-ffm und stefan92x
Wow wie negativ die Kommentare hier direkt wieder sind. Von Null Innovation würde ich hier nicht sprechen. Selbst das mittlere Schaubild besteht schon aus mehr Komponenten als die AMD Produkte, die ja bis jetzt nur aus 2 verschiedenen Chiplets pro Produkt bestehen.

Und rechts wird es dann ganz interessant: Ich verstehe das ja mal so, dass man die einzelnen Einheiten noch viel wieder "zerhackt", als man es bis jetzt kennt. Bei AMD hat die MI200 Reihe 2 Grafik Dies, die aber ja beide noch relativ groß sind. Auch Navi 31 wird wohl nur ein oder maximal 2 GCDs für über 12k Shader bekommen.

Diese Grafik hier legt her nahe, dass man zum Beispiel auf 128 oder 256 Shader pro Mini Die geht, was noch mal ganz andere Möglichkeiten gibt. Zum einen hat man natürlich Yields nahe 100% und zum anderen nutzt man auch nur dass, was das Produkt nachher auch bietet.

32EU Grafik? 2 Mini Dies. 64EU Grafik? 4 Mini Dies usw. Immer wird alles maximal genutzt, die geringe Größe sorgt dafür, dass es kaum Defekte gibt und somit wird fast nichts teildeaktiviertes verwendet.

@konkretor deine PDF handelt von Ponte Vecchio, das hat eher weniger hier mit zu tun. Ist ja auch schon älter, vom Vision Event von 2 Wochen. Hier im Artikel ist ja eben erst das NDA gefallen.

Edit: Und der "On Package Memory" in der Base Tile auf der ersten Folie confirmed wohl Intels eigenen 3D Cache.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: IliadZenith, borizb, pvcf und 2 andere
Raucherdackel! schrieb:
Die Idee ist eher dreist von AMD kopiert und nennt sich Chiplet Design^^

Als Idee von einem Auto kann man eine Strichzeichnung bezeichnen... von da zu einem echten Auto ist es aber noch ein weiter Weg - und es gibt viele verschiedene Möglichkeiten, ein konkretes Auto zu entwerfen und zu konstruieren... vom Twingo bis zum Tesla.

Oder noch etwas anderes: Menschen überschätzen Ähnlichkeiten, wenn zwei Dinge unter denselben Begriff fallen; und sie überschätzen Unterschiede, wenn zwei Dinge unter verschiedene Begriffe fallen.

PS: davon abgesehen soll die Chiplet-Technik (ein Interface) standardisiert werden, um Teile verschiedener Hersteller kombinieren zu können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mar1u5 und bensen
The future is fusion ;)
 
  • Gefällt mir
Reaktionen: Icke-ffm, Santa Clause und Convert
Intel hat halt eingesehen, das monolithisches Chipdesign keine Zukunft mehr hat, weil zu aufwändig und teuer in der Fertigung und zu unflexibel in der Anwendung. Weiter nichts. Bleibt noch die Frage übrig , wann wir da
was praktisches sehen werden. Bis dahin bleibt ihnen erstmal nur die Brechstange.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Dittsche und Ned Flanders
Zuerst sollten sie ihre "Odyssey" beenden und endlich eine GPU ( Arc ) samt funktionierenden Treibern abliefern anstatt ständig den Release-Termin zu verschieben.
Es sind zu viele "Baustellen" offen :rolleyes:
Also bitte Schritt für Schritt, ein Disaster nach dem anderen :D
 
  • Gefällt mir
Reaktionen: Max0071980 und UrlaubMitStalin
Da kriegt wohl jemand Schiss, weil der erste Exa-Flop Supercomputer mit AMD CPUs läuft, ebenso die meisten neuen Supercomputer.

Zu Schade für Intel, dass die Eintscheidungsträger oft nicht auf Basis von PR Folien ihre Entscheidung treffen ;)
Ergänzung ()

Majestro1337 schrieb:
The future is fusion ;)
Ist ein alter Hut. Und leider auch nicht wirklich überzeugend.
 
  • Gefällt mir
Reaktionen: Santa Clause und Max0071980
ghecko schrieb:
Wenn ich "radikal neue Architektur von Intel" lese, denke ich an Itanium.
Genau das gleiche hatte ich auch sofort im Kopf 😆

Und wie erfolgreich war der Itanium nochmal?
😁
 
  • Gefällt mir
Reaktionen: Icke-ffm
McFly76 schrieb:
und endlich eine GPU ( Arc ) samt funktionierenden Treibern abliefern anstatt ständig den Release-Termin zu verschieben.
Vllt versinken die ganzen Chiplets die eigentlich GPUs werden sollten in diesen HPC-Beschleunigern.
Da sind sie ja auch im Verzug, die Kunden sind aber sicher wichtiger als wir.
 
UrlaubMitStalin schrieb:
Ist ein alter Hut. Und leider auch nicht wirklich überzeugend.
Ja darauf spiele ich natürlich auch an - der Slogan ist mir nicht eben Mal selbst eingefallen
 
  • Gefällt mir
Reaktionen: N0Thing und UrlaubMitStalin
Philste schrieb:
@Onkel Föhn deine PDF handelt von Ponte Vecchio, das hat eher weniger hier mit zu tun. Ist ja auch schon älter, vom Vision Event von 2 Wochen. Hier im Artikel ist ja eben erst das NDA gefallen.

Edit: Und der "On Package Memory" in der Base Tile auf der ersten Folie confirmed wohl Intels eigenen 3D Cache.
Was denn für ne PDF ?
Hab hier doch nüschte gepostet :heilig:

MfG Föhn.
 
Raucherdackel! schrieb:
Die Idee ist eher dreist von AMD kopiert und nennt sich Chiplet Design^^

Multi-Chip Module Designs hat es schon deutlich früher gegeben. Wenn auch auch nicht in der heutigen Spezifität. Man denke da an die Handteller großen IBM Power Chip Module wie den Power 4, oder 5. Die haben Damals so viel wie ein Einfamilienhaus gekostet. 😉
 

Anhänge

  • Power5.jpg
    Power5.jpg
    64,2 KB · Aufrufe: 242
Zuletzt bearbeitet: (Upload Bild)
  • Gefällt mir
Reaktionen: Icke-ffm, IllusionOn, bensen und 2 andere
APU... stopp Ketzerei wär das Wort in den Mund nimmt.
 
Die Kommentare erinnern mich teilweise vor Zen 1 an AMD. 😅
 
  • Gefällt mir
Reaktionen: v_ossi
Zurück
Oben