Notiz Ponte Vecchio: Intel demonstriert XPU für AI und Exascale

SVΞN

Redakteur a.D.
Registriert
Juni 2007
Beiträge
22.987
  • Gefällt mir
Reaktionen: Mcr-King, Klever, [wege]mini und 6 andere
Fast schade dass es dieses Produkt wohl nicht für den normalo zu kaufen geben wird. Viel zu speziell das ganze.

Aber hoch interessant
 
  • Gefällt mir
Reaktionen: Alpha.Male, Mcr-King, Klever und 3 andere
Das ist schon ein echtes Silizium Monster. Mal gucken, was es letztlich wirklich taugt. Aber ich mag das Video irgendwie. Wirkt so unschuldig klein mit dem teil verpixelten Monitor etc. :)
 
  • Gefällt mir
Reaktionen: Mcr-King und [wege]mini
SV3N schrieb:
Raja Koduri sprach von einem „Silicon Engineers Dream“.

Raja Koduri war zuletzt bei AMD für die Entwicklung eines ganz neuen Grafikchipgeneration zuständig, heraus kam im Jahre 2017 die RX Vega und seine Kündigung bei AMD.
Die auf diesen Chip aufbauenden Grafikkarten wurden zu heiß und leisteten zuwenig, die Generation ist in der Versenkung verschwunden.
Jetzt ist Raja Koduri bei Intel und ich kann nur hoffen, daß es mit diesem 47(07)-Prozessor runder läuft.
Bis das Silizium fertig ist, bleiben alle Konstruktionen nur schöne (Traum-)Bilder.
 
  • Gefällt mir
Reaktionen: TechFA, Alpha.Male und Salutos
Interessanter Chip aber...

Bevor der Chip nicht wirklich in Aurora laeuft und die versprochene Leistung liefert bleibe ich beim "Abwarten und Tee trinken" Motto. Intel hat so viel im Supercomputing Bereich in den letzten Jahren versprochen und dann am Ende doch nicht geliefert.

Erinnert sich hier noch jemand an das Knights Landing Desaster?
Oder an das Desaster mit Omnipath, welche jetzt in eine eigene Firma ausgegliedert wurden?
 
  • Gefällt mir
Reaktionen: Alpha.Male, nagus, [F]L4SH und 2 andere
icemanspirit schrieb:
Intel hat so viel im Supercomputing Bereich in den letzten Jahren versprochen und dann am Ende doch nicht geliefert.

Ja, sie konnten es eben nicht herstellen... doch der 7nm Part kommt hier von TSMC.
 
  • Gefällt mir
Reaktionen: TechFA
icemanspirit schrieb:
Bevor der Chip nicht wirklich in Aurora laeuft und die versprochene Leistung liefert bleibe ich beim "Abwarten und Tee trinken" Motto. Intel hat so viel im Supercomputing Bereich in den letzten Jahren versprochen und dann am Ende doch nicht geliefert.
Eben drum. Aurora sollte ja bereits 2018 fertig sein, so jedenfalls der Zeitplan damals 2015. Steht bis heute nicht, und wir haben 2021 und wird dieses Jahr auch praktisch garantiert nicht mehr fertig.
NY Times: Intel Slips, and a High-Profile Supercomputer Is Delayed
Ich zitiere mal aus dem Artikel..
Intel’s problems make it close to impossible that Aurora will be installed on schedule, researchers and analysts said. And shifting a key component to foreign factories would undermine company and government hopes of an all-American design.
Im Oktober hat das U.S. DoE offiziell bekannt gegeben, daß sich diese aktuelle zweite Variante von Aurora nochmals um mindestens 6 Monate verspätet, siehe AnandTech-Artikel.

icemanspirit schrieb:
Erinnert sich hier noch jemand an das Knights Landing Desaster?
Das ist Aurora! Die erste Version von Aurora sollte damals 2018 mit Intel's Xeon Phi an den Start gehen.
Wies ausging wissen wir alle. Just in dem Moment, wo Intel liefern sollte (2018), haben sie Xeon Phi den Stecker gezogen, dafür kamen sie mit neuen Blaupausen um die Ecke, für angeblich später versteht sich.
Wenns irgendwie bekannt vorkommt ..

Irgendwas Blaues wie Blaupausen in der Realität gabs bis heute keine, dafür aber jede Menge vom Himmel.

Jedenfalls hat sich das Argonne National Laboratory vom U.S. Energy Department damals wieder mal bequatschen lassen und die fancy Road-maps für die nächste Version Intel wieder für bare Münze abgekauft, daraus ist jetzt soll irgendwann einmal schlussendlich Aurora werden.

… weiß TechFA
 
  • Gefällt mir
Reaktionen: Dittsche
bellencb schrieb:
Raja Koduri war zuletzt bei AMD für die Entwicklung eines ganz neuen Grafikchipgeneration zuständig, heraus kam im Jahre 2017 die RX Vega und seine Kündigung bei AMD.
Die auf diesen Chip aufbauenden Grafikkarten wurden zu heiß und leisteten zuwenig, die Generation ist in der Versenkung verschwunden.
Jetzt ist Raja Koduri bei Intel und ich kann nur hoffen, daß es mit diesem 47(07)-Prozessor runder läuft.
Bis das Silizium fertig ist, bleiben alle Konstruktionen nur schöne (Traum-)Bilder.
@SV3N über AMD Themen zu informiern ist interessant. Wahrscheinlich kennen manche seinen
früheren Nickname schon nicht mehr :D

Das Problem war bei Vega nicht die Architektur, sondern der schlechte 14nm Fertigungsprozess.
Das meißte, was die 5/6000er Serien heute können, ging auch schon bei der Vega, nur halt sehr
viel weniger effizient. Meiner Ansicht nach redest du Koduris Anteil hier kleiner als er wirklich ist.
 
  • Gefällt mir
Reaktionen: SVΞN und icemanspirit
borizb schrieb:
Das Problem war bei Vega nicht die Architektur, sondern der schlechte 14nm Fertigungsprozess.
(..) Meiner Ansicht nach redest du Koduris Anteil hier kleiner als er wirklich ist.

Wuerde hier noch anfuegen, dass auch AMD's heutige Rechenbeschleuniger im Datencenter noch auf die Vegaarchitektur im Grossen und Ganzen setzen. Raja Koduri hat im Datencenterbereich also eigentlich schon eine recht gute Historie an erfolgreichen Architekturen.

Fuer Spieler war Vega leider eher nicht so perfekt..
 
  • Gefällt mir
Reaktionen: flo.murr und borizb
100 Milliarden Transistoren. Das ist mal eine Ansage.

Süß finde ich auch den Namen Rambo Cache. :D

Mal abwarten wann GPUs zu Preisen, die man auch bezahlen will, an den Endverbraucher kommen werden, die dann ähnlich "groß" sind. Selbst in 3nm Bauweise, ist das noch ein Monster von "einem" Chip. Eine Zahl mit 4 Stellen wird Intel dafür garantiert nicht nur aufrufen.

mfg
 
Von Ponte Vecchio bin ich sehr beindruckt.
Die Komplexität des Designs ist wirklich Hochtechnologie, dass für Intel maximal Mögliche.

Jetzt wird spannend werden, ob der Markt dass auch annimmt?
In diesem Fall wünsche ich Intel Erfolg, auch wenn ich den Konzern nicht unbedingt mag, weil es die Ingenieure und Entwickler dahinter verdient haben.

Und natürlich freue ich mich auch für R. Koduri.
Es kann es also doch noch, gut gemacht Raja. ^^
Aber das hat er ja schon wieder einmal mit Navi gezeigt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Klever
Ich glaube schon, dass die Hardware ganz geil ist. Ich frag mich nur wie die in so einem Bereich, jenseits von Supercomputern mit speziell geschriebener Software, Fuss fassen wollen.

Wenn man sich mal anschaut wie schwer es selbst AMD hat (obwohl sie sehr lange schon mehr Compute Rohleistung als Nvidia GPUs haben) weil sie jetzt CUDA seit Jahren hinterherhecheln und kaum ein Bein auf den Boden bekommen, sehe ich da echt gewaltige Herausforderungen.

In dem Bereich ist doch das Software Ökosystem alles und die Hardware zweitrangig.
 
  • Gefällt mir
Reaktionen: Beitrag und konkretor
...47 Einzelteile sind es am Ende: 16 Xe HPC-Tiles, 8 mal Rambo-Cache, zwei....

Rambo retuns! Oh boi das wird ein gemetzel! Kappa
 
  • Gefällt mir
Reaktionen: Qyxes
Vermutlich Chip-Konkurrenz für Nvidia zum autonomen Autofahren.
 
matty2580 schrieb:
Und natürlich freue ich mich auch für R. Koduri.
Es kann es also doch noch, gut gemacht Raja. ^^

Auch ohne mich dem Rant gegen Koduri anzuschließen muss ich einfach fragen:
Was genau hat er denn Deiner Meinung nach gemacht? Ich sehe noch nichts, das mir ein solches Urteil erlauben würde.
 
icemanspirit schrieb:
Unwahrscheinlich, diese Chips sollen ca. 500 Watt schlucken. Das wuerde ich keiner Person im Auto wuenschen..
ja, 0,5kw sind verdammt wenig! Da müssten sie schon 200 Stück einbauen, um eine gute Beschleunigung erreichen zu können.
 
Andreas diskutiert mit Raja auf Twitter



https://twitter.com/Rajaontheedge/status/1374721307879768064?s=20

Ich halte das mal hier fest. Spannend das er so offen die Infos raus haut



1616655474690.png



1616655501194.png
 
  • Gefällt mir
Reaktionen: TechFA und Hatch
Hayda Ministral schrieb:
Was genau hat er denn Deiner Meinung nach gemacht? Ich sehe noch nichts, das mir ein solches Urteil erlauben würde.
Man muss da etwas "unterscheiden" - ich als der böse Kritiker gegen Koduri finde nun Worte des Lobes für ihn:

Koduri hat bei ATi die sparte für "Neue Technologien" geleitet und hat dort durchaus auch revolutionäre Technologien entwickelt - unter anderem die ersten Tesselation-Verfahren auf der Radeon 9700 (n-Path-Tesselation).

Er hat bei ATi dann dadurch auch Teile der Architektur der Radeon 9x00, die Xer und X1er verantwortet, aber eben nur Teile, die aus seiner Abteilung dann gekommen sind. Wirklich für die Grafikkarten dann verantwortlich war Bob Drebin und Eric Demers. Bob Drebin ging dann 2009 mit Raja zu Apple. Bob Drebin war dort CTO, Raja Koduri hat primär am Retina-Display und dem Retina-Subsystem gearbeitet.

Sieht man sich Rajas Lebenslauf an, dann war er immer sehr gut darin neue Technologien zu ersinnen und neue technische Kniffe, aber er hat eigentlich bis 2013/2014 keine ganze Grafikkarte zu verantworten, sondern immer nur Bestandteile geliefert.

Und das sieht man im gewissen Sinn ja auch an Vega: Er hat sich auf die Primitve-Shaders gestürzt, die eine tolle Idee sind und ja jetzt auch als Mesh-Shaders kommen. Die eigentliche Probleme von GCN hat er aber aus dem Auge verloren.

Zu Navi gibt es ja entsprechend einige Gerüchte und dass er auch gegangen ist, weil da hinter seinem Rücke dran gearbeitet wurde usw.

Er ist also mit nichten ein Dummer, aber vielleicht zu sehr auf neue elegante Technik spezialisiert, so dass er die "banalen" Aufgaben nicht beachtet.
 
  • Gefällt mir
Reaktionen: TechFA
Zurück
Oben