News Intel-Supercomputer: Aurora soll 2 ExaFLOPS liefern, ZettaFLOPS schon ab 2027

@Volker kleine Ergänzung um die Sinnlosigkeit der von Intel gemachten Statements noch weiter einzuordnen:

Frontier & Chinesische Exascalemaschinen: <35 MW
Aurora: 60 MW

Welches eigentlich die Designparameter des Department of Energy von unter 40 MW für die erste Generation an Exascalemaschinen bricht.

Edit: Frontier zieht sogar nur 29 MW.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Skysnake, .fF, Cruentatus und eine weitere Person
icemanspirit schrieb:
Frontier & Chinesische Exascalemaschinen: <35 MW
Aurora: 60 MW

Welches eigentlich die Designparameter des Department of Energy von unter 40 MW für die erste Generation an Exascalemaschinen bricht.

Edit: Frontier zieht sogar nur 29 MW.
Da fragt man sich ernsthaft, was Intel alles an Zugeständnisse machen musste, dass sie den Auftrag trotz aller Verzögerungen doch noch ausführen dürfen! Seinerzeit war in entsprechenden Themen auf Reddit gerüchteweise zu lesen, dass Intel für 2 Jahre nach Fertigstellung die Unterhaltskosten trägt, um die entsprechenden Entscheidungsträger nach den Strafzahlungen doch noch weich zu klopfen. Utopisch klingt das nicht.

Das würde bedeuten, das das Laboratorium Aurora unter dem Strich die ersten Jahre kostenlos bekommt.

Das DoE dürfte wohl mittlerweile alles andere als freundlich gestimmt sein, wenn's um Team Blau geht.
Und genau das ist hier die ganz grosse Gefahr für Intel! Wenn die Labs sehen, wie geschmeidig und potent AMD's Lösungen sein können (wenn ihnen einmal die Chance eingeräumt wird; anstatt auf die Intel-Propaganda zu hören, "glued-together"), dann werden die öffentlichen Stellen sich in Zukunft dreimal überlegen, ob man nochmal bei Intel wegen Super-Computern anfragt.

Ich mein, es hat ja einen Grund, weswegen AMD nach Frontier und El Capitan selbst eine dritte Zwischenlösung namens Polaris (welche ohne die Verzögerung Intel's gar nicht erst nötig geworden wäre!) jetzt installieren und von AMD, Nvidia und HPE befeuern lässt, statt von Intel.

… weiß TechFA
 
Zuletzt bearbeitet:
Artikel-Update: Intels Raja Koduri hat sich zu dem Thema noch einmal via mehreren Twitter-Postings zu Wort gemeldet. Da Intel zuletzt nicht geliefert hat, versteht er die Skepsis und auch Lacher bei den neuen Zielsetzungen – auch wenn ihn letzteres natürlich ärgert, wie man im Verlauf der Tweets lesen kann. In mehreren Postings führt er dann etwas genauer aus, wie das Ziel erreicht werden könnte. Der Übersichtlichkeit halber sind sie hier zusammen kopiert worden.

Raja Koduri schrieb:
Thanks for the feedback. Given our past decade of not so stellar execution on HPC, we did expect to be laughed at..fair enough..
Starting SC’21 we will begin rolling out more details on our near and medium term plans.


I have been framing the need for 1000x more compute for rapidly evolving AI models by 2025 for the past couple of years. My talks at hot-chips 2020 and Samsung forum highlighted the need for the whole eco-system coming together to accelerate towards this goal.

1000x in which workload is an important detail..but not the top order bit IMO, as you can always narrow down to a “benchmark” to make the goal either “easy” or “hard”.

As highlighted in the “no transistor left behind talk”..there’s 65,000x opportunity today with sw-hw co-optimization today without any new physics or crazy hw and this path will be exploited by many as we already see evidence with M1 etc

The 1000x framing we are looking at doesn’t count these single node level hw-sw co-optimizations. Those will be on top of the basic hardware+system arch targets we set. As you can imagine there are a lot of internal debates on choices of the workloads and scale

So, why declare this now? The new intel that pat aspires to be an “all-in” culture..we declared our commitment for open - Pat opening this up definitely makes our (engineers) jobs easier to collaborate with other key external players who are also inspired by the these targets.

And the price of an open approach to any forward looking roadmap is - being laughed at..

If the world gets to 1000x computational energy efficiency on key workloads one way or another by 2027, it’s a small price to pay!

And even more important than the goals - just one or two fundamentally new things created during this journey will help other moon and beyond shots.
 
  • Gefällt mir
Reaktionen: TechFA, Smartbomb, gustlegga und 6 andere
"China gibt die Richtung vor" im Sinne von meiner Wahrnehmung bzgl. dieser Supercomputer Schw***vergleiche: uninteressant, Berichte darüber gefühlt nicht mehr erwähnens- oder lesenswert - muss dazu sagen, dass eine Beteiligung Intels hier nicht eben die Motivation zum Lesen fördert ... verbrannter Name ( für mich ).
 
And this year’s vaporware award goes to… Raja and Pat for moonshot - eine Tragikomödie in drei Akten
 
  • Gefällt mir
Reaktionen: TechFA
Raja ist ein echt cooler Kerl und hat viel Ahnung, schon oft auf Events getroffen. Aber er ist auch gern eine Rampensau und lehnt sich da weit ausm Fenster. Das hat bei AMD schon nicht geklappt und bei Intel jetzt auch wieder nicht. Mal sehen wie lange das da gut geht.

Das er nun angepisst ist wenn wir über Intels Roadmap lachen ist mir klar, aber so viel scheisse wie sie da zuletzt gebaut und nix geliefert haben, da müssen sie erstmal auch nur irgendwie wieder Vertrauen aufbauen. Und das geht nicht mit Pwoerpoint und der x. Aussage wie geil alles wird .. theoretisch ..
 
  • Gefällt mir
Reaktionen: xcsvxangelx, Skysnake, konkretor und 13 andere
Volker schrieb:
gern eine Rampensau
IMG_20211029_114853-01.jpeg


Sorry, ich kann es mir nicht verkneifen
Ergänzung ()

Volker schrieb:
müssen sie erstmal auch nur irgendwie wieder Vertrauen aufbauen
Ob das so schnell was wird
 
  • Gefällt mir
Reaktionen: konkretor und Onkel Föhn
@Volker
Ich bin über deine Worte erstaunt, da spricht für mich ein richtig enttäuschter Intel Fan.
Klar, irgendwann ist das letzte Vertrauen und Hoffung aufgebraucht.
Ich bin kein Intelgegner, auch wenn man es durch meine Äußerungen vermuten könnte.
Sachlich gesehen haben sich Intels diverse Probleme längst angekündigt und gezeigt.
Und leider leider sehe ich persönlich bei keinem der Probleme nachhaltige Verbesserungen und Fortschritte.
Weglabern lassen sich diese nicht!
 
  • Gefällt mir
Reaktionen: TechFA, andi_sco und Onkel Föhn
Icke-ffm schrieb:
irgendwie passt der Typ zu Intel viel Heiße Luft
Schuster, bleib bei Deinen Leisten ! (ja ich weiß, 3 € ins Frasenschwein)
Aber bei "HEIßER" Luft kennt sich INTEL nun mal aus wie kein Zweiter ... ;)

MfG Föhn.
 
  • Gefällt mir
Reaktionen: andi_sco
MUC schrieb:
Die Sache an sich ist ja interessant. Aber gestern bei den Tagesthemen sagte ein Professor, dass die Rechenzentren in Frankfurt soviel Abwärme produzieren, dass man die ganze Stadt heizen könnte. Daher die Frage: braucht's das echt?
Gerade hier würd ich jetzt mal ganz innovativ denken und sagen: Geil, holt die Rechenzentren in die Städte und schließt sie ans Fernwärmenetz an. Denn wir brauchen beides: RZs und Wärme. Dann lieber so als die Wärme z.B. im Meer abzugeben.
 
  • Gefällt mir
Reaktionen: Qyxes und Impy81
Raja Kodouri schrieb:
I have been framing the need for 1000x more compute for rapidly evolving AI models by 2025 for the past couple of years.

The 1000x framing we are looking at doesn’t count these single node level hw-sw co-optimizations.

... the world gets to 1000x computational energy efficiency on key workloads one way or another by 2027 ...

Kodouri sagt, daß die Beschleunigung der KI-Algorithmen das strategische Ziel der Weiterentwicklung sei.
Dabei werden bestehende Programme zwar ebenfalls beschleunigt, es handelt sich dabei aber um einen Nebeneffekt.

Der genannte sechsjährige Horizont ("2027") ist der operative Arbeitsbereich für Raja Kodouri.
Dieser ist ihm von seinem Chef Pat Gelsinger vorgegeben worden, der sich wiederum an ähnlichen Strategien in anderen Großkonzernen orientiert.
In China wird der dortigen Wirtschaft ebenfalls eine Strategie hin zur Künstlichen Intelligenz von der Politik vorgegeben, was in den USA eine zusätzliche Unterstützung des Kurses der US-Konzerne durch die US-Politik bewirkt.

Insgesamt haben sich mit der Politik und Wirtschaft in China und den USA die beiden wichtigsten Staaten und Wirtschaftsmächte dafür entschieden, eine wesentliche Anstrengung in Richtung Künstliche Intelligenz zu unternehmen.

Wir werden also in den kommenden Jahren einige Bemühungen in dieser Richtung sehen.
Ob sie erfolgreich sein werden oder ob Intel eine führende Rolle spielt, ist eine andere Frage.
 
Könnte jemand mit Kontakten nach Santa Clara dem Patrick und dem Raja ausrichten , sie sollten das mit den Hanfbasierten Rauchwaren endlich lassen. :jumpin:

Aber 2 Exaflops klingt super ! Für 56 oder 28 Sekunden ? :evillol:
 
  • Gefällt mir
Reaktionen: TechFA
Volker schrieb:
Das er nun angepisst ist wenn wir über Intels Roadmap lachen ist mir klar, aber so viel scheisse wie sie da zuletzt gebaut und nix geliefert haben, da müssen sie erstmal auch nur irgendwie wieder Vertrauen aufbauen. Und das geht nicht mit Pwoerpoint und der x. Aussage wie geil alles wird .. theoretisch ..

Das ist mitunter aber auch der Grund, warum so viele auch von der neuen Intel CPU, trotz auch erster Hinweise von Dir, einfach nicht mehr trauen und einen Haken suchen (vielleicht gibts ja auch noch einen bzw. ein aber)
Intel hat zu oft sich aus dem Fenster gelehnt und ist krachend aus diesem rausgefallen. (Nicht zu vergessen auch die teilweise sehr zweifelhaften Geschäftspraktiken)

Und solche Meldungen zeigen für mich leider, das sie nicht dazu gelernt haben. Grad die letzten Ryzen-Jahre sowie die Fertigungsmisere im eigenen Laden müssten ihnen doch etwas mehr Demut beigebracht haben, nur scheint das Großspurige schon wieder voll hervorzubrechen...ich sehe schon wieder die imaginären Intel-Schubladen mit viel Inhalt, statt einfach in Ruhe ihren Job vernünftig zu machen!
 
  • Gefällt mir
Reaktionen: TechFA
Ich frage mich so langsam, ob es gut war in Kalifornien Hanfblüten wieder zu erlauben?
Nicht das die bei Intel zuviel davon haben?

Jetzt mal Ernsthaft: Bisher dauerte jeder große Schritt 12 bis 14 Jahre und nun gehts in 5?
Irgendwo haben die Allientechnik gefunden oder das Ding wird 2027 einen Energieverbrauch im GigaWatt Bereich haben.

andi_sco schrieb:
Puhh, der Google Übersetzer hat da so seine Schwierigkeiten
Nimm den:
https://www.deepl.com/translator
Danach willst Du kein google mehr.
 
Summerbreeze schrieb:
Ich frage mich so langsam, ob es gut war in Kalifornien Hanfblüten wieder zu erlauben?
:daumen:
 
  • Gefällt mir
Reaktionen: jemandanders
the_ButcheR schrieb:
Das ist doch lächerlich... 2022 soll der Rechner mit 2 Exaflops laufen und fünf Jahre später wollen sie einen mit der 500-fachen Leistung liefern :freak:. Ich werde nie verstehen warum man solche Aussagen trifft.
Naja, das wird eher 2023 als 2222, also gut. Der schnellste Intel Rechner liegt bei einigen TFlops. Also unter 100 und jetzt quatschen Sie von Zettaflop...

Vor allem bei der Größe der Systeme bringt es sie rein gar nichts einfach nur die Hardware hin zu stellen. Bis mal nen 1-3k node System läuft und überhaupt an einem Problem gemeinsam vernünftig arbeiten kann muss man richtig arbeiten rein stecken.


Weyoun schrieb:
Dann sollte man es vielleicht tun (die Wärmeabfuhr in das Frankfurter Fernwärmenetz einspeisen).
Das Tempersturniveau ist im Allgemeinen viel zu niedrig für Fernwärme im klassischen Sinne. Da hat du Tempersturen von 80-130°C. Ansonsten brächte man auch VIEL zu große Rohre.

Mit den Temperaturen aus Rechenzentren kannst du selbst bei Wasserkühlung nichts anfangen, weil du dann vielleicht 35°C hast im Rücklauf und z.b. 18 im Vorlauf. Du brauchst da dann noch ne Wärmepumpe. Kannst es im eigenen Gebäude schon zur Heizung nutzen. Also Flächenheizung.

Und ja es gibt auch Warmwasserkühlung mit 35-50°C aber das macht fast kein Rechenzentrum. Und selbst wenn dann kannst du das nur für Nahwärmenetze nutzen. Also paar hundert Meter und das wars dann auch. Vielleicht nen Kilometer. Aber halt nicht Fernwärme.


icemanspirit schrieb:
@Volker kleine Ergänzung um die Sinnlosigkeit der von Intel gemachten Statements noch weiter einzuordnen:

Frontier & Chinesische Exascalemaschinen: <35 MW
Aurora: 60 MW

Welches eigentlich die Designparameter des Department of Energy von unter 40 MW für die erste Generation an Exascalemaschinen bricht.

Edit: Frontier zieht sogar nur 29 MW.
Ja, zumindest OakRidge hatte gesagt, das Sie auch 60MW+ prinzipiell handeln können da ja bei denen genug verfügbar ist, aber Sie das gar nicht wollen, weil es zu extrem wird mit den Unterhaltskosten und eben auch dem allgemeinen Aufwand. Ich meine nen Staudamm ist da in der Nähe und durch die ganzen Atomanlagen ist da auch genug Anbindung an Netz da, aber man will es nicht, da es einfach y
Brechstange ist und man nach 40MW nicht einfach auf 80 oder 160MW gehen kann. Das hört halt irgendwann selbst auf wenn Geld fast keine Rolle spielt...

@Topic

Also ich müsste mal die Posts genau lesen, aber entweder ist es extrem viel Bullshit oder sehr missleading...

Klar wenn ich den RAM wegwerfen und nur im Cache arbeite kann ich auch heute schon extrem viel besser sein bei der Effizienz und realen Leistung. Da hilft aber nur bedingt wenn ich über Knotengrenzen skalieren muss.

Dann kann man das auch durch ASICs für ganz spezielle Probleme erreichen mit bestehender Technik. Das ist aber kein General pupose System..

Das nächste ist das man z.b. das Netzwerk fast weglassen kann wenn man emberessing parallel Problems hat..

Da kann man also auf der Apllikationsseite schon extrem viel drehen, was aber eigentlich so nicht valide ist...

Das nächste ist, was meint er ohne neue Physik? Es gab schon früher Analogrechner und auch heute, die z.b. fourietransformatinen extrem viel schneller machen können mit der gewissen Genauigkeit. Das ist aber wieder kein General purpose.

Oder was ist mit near threshhold Computing? Das ist auch nen Alter Hut wo man weiß das man extrem viel effizienter sein kann. Aber wer will nen 10-100MHz Chip? Erstens braucht man dann extrem hohe Parallelität um auf die Leistung zu kommen. Halt nochmals Faktor 10-100 mehr als eh schon. Das macht keinen Spaß mehr. Zudem braucht man dann halt auch mehr Chipfläche. Und ja Chipfläche ist nicht sooo teuer aber kostet doch auch etwas und kommt einen dann auch am Ende

Und was ist mit superconductive computing? Dafür braucht man auch keine neue Physik, hat aber mit aktuellen Rechnern absolut nichts am Hut.

Am Ende muss man sich drei Metriken anschauen perf/$ perf/W und Nutzbarkeit.

Es müssen alle drei um einen Faktor 1000 besser werden um Zettaskale zu erreichen. Einfach Hardware zusammenkloppen funktioniert nicht.

Das sollte man spätestens seit Aurora wissen. Naja eigentlich schon seit BlueWaters....

Wenn ich drauf wetten müsste, wie man das erreichen könnte, würde ich alles auf Superconductive Computing setzen. Das wird bis 2027 zwar schon extrem sportlich, aber man hat damit die realistische Chance ein Zettaflop zu erreichen ohne groß an der Software zu ändern und am Ende für viele Probleme sogar ein leichter/besser nutzbares System zu bekommen. Würden wir über 50-100 Exaflops reden wären die anderen Dinge sicherlich auch gangbar, aber bei Zettaflop? Da habe ich meine berechtigten Zweifel. Vor allem ein superconductive Computing system wird umso effizienter je größer ich es baue. Sprich ein in Perf/W und Perf/$ einem klassischen System überlegene System zu bauen ist bei 1Zettaflop einfacher als bei 1 Exaflop.
 
Zurück
Oben