News Titan: Ehemals schnellster Supercomputer geht vom Netz

Wer Wettermodelle und entsprechende Berechnungen als 'trivial' bezeichnet, dem möchte ich beinahe jegliche Kompetenz absprechen.
 
  • Gefällt mir
Reaktionen: Beitrag, dunkelbunter, I'm unknown und 3 andere
RitterderRunde schrieb:
Wenn sie ihn nicht mehr benötigen, ich nehme den Titan gerne, meine Xbox One braucht dank fehlender Cloud Power support... 😂
Grundstück und Kraftwerk haben Sie schon? ;)
 
Artikel-Update: Titan wird vollständig recycelt
Wie die Oak Ridge Leadership Computing Facility (OLCF) des Oak Ridge National Laboratory (ORNL) bestätigt hat, wird der Supercomputer Titan vollständig recycelt und nicht in kleineren Sets aus einzelnen Schränken an kleinere Forschungsgruppen verkauft oder gespendet. Die Kosten die dadurch entstehen würden, wären es für eine kleinere Forschungsgruppe oder eine Universität einfach nicht wert, sagte der Operations Manager des ORNL, Stephen McNally in einem Statement.

Stephen McNally schrieb:
People ask why we can’t split up Titan and donate sets of cabinets to different research groups, but the answer is that it’s simply not worth the cost to a data center or university of powering and cooling even fragments of Titan. Titan’s value lies in the system as a whole.

Spezifikationen und Funfacts zum Titan-Nachfolger „Frontier“
Auf den speziellen Wunsch der Community hin, hier noch einige Informationen und Funfacts zum Nachfolger des Supercomputer „Titan“, einem der ersten drei Exascale-Supercomputer „Frontier“, der zudem mit 1× Epyc + 4× Radeon Instinct und einer optimierten Infinity Fabric für eine einheitliche Verbindung von CPU, GPU und Speicher, vollständig auf Hardware von AMD basiert.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Die Redaktion dankt Community-Mitglied „Tornhoof“ für den Hinweis zu diesem Update.
 
  • Gefällt mir
Reaktionen: von Schnitzel, Transistor 22, Recharging und 3 andere
Duke711 schrieb:
@Forum-Fraggle

Lesen bildet:

"Ich stelle hier keines falls allgemein Großrechner in Frage."
Genau den Eindruck hinterläßt Du aber. Achja, bilden würden auch Quellenangaben. dDie bist Du allerdings, im Gegensatz zu den von anderen schon gegebenen und von Dir eingeforderten Quellen weiterhin schuldig.
 
  • Gefällt mir
Reaktionen: Akula und SVΞN
Wahnsinn, wie laut solch ein Supercomputer ist ...
 
  • Gefällt mir
Reaktionen: Ned Flanders
Cooder schrieb:
Wahnsinn, wie laut solch ein Supercomputer ist ...

Das Problem wird sich in den nächsten Jahren noch weiter verschärfen. Wenn man Frontier als Beispiel betrachtet hat man dort 250-300 Watt für die CPU plus 300-400 Watt pro GPU. Diese Abwärme, die sich auf 1-2 Höheneinheiten (U) konzentrieren wird wegzukriegen geht nur mit Wasser oder mit Immersionskühlung wie es wohl die Chinese vorhaben (hpcwire). Also bleibt es auf jeden Fall spannend..
 
[...], der zudem mit 1× Epyc + 4× Radeon Instinct auf einem Package, vollständig auf Hardware von AMD basiert.

@RYZ3N
Woher kommt das? Da steht nur, dass es pro Node (nicht Package) eine CPU und vier GPUs geben wird, welche untereinander per Inifinity Fabric kommunizieren sollen. Also mittels der IF-Brücken auf den Karten und das IF wird wahrscheinlich über das PCIe Interface der Karten auch zwischen der CPU und den GPUs genutzt. Da ist nirgendwo die Rede davon, dass alle Chips auf dem selben Package untergebracht werden ;)


icemanspirit schrieb:
Das Problem wird sich in den nächsten Jahren noch weiter verschärfen. Wenn man Frontier als Beispiel betrachtet hat man dort 250-300 Watt für die CPU plus 300-400 Watt pro GPU. Diese Abwärme, die sich auf 1-2 Höheneinheiten (U) konzentrieren wird wegzukriegen geht nur mit Wasser oder mit Immersionskühlung wie es wohl die Chinese vorhaben (hpcwire). Also bleibt es auf jeden Fall spannend..
250-300W pro CPU und 300-400W pro GPU ist aber verdammt hoch gegriffen. Realistischer sind wohl eher 150-200W pro CPU und 200-300W pro GPU, vorausgesetzt dass alles zur gleichen Zeit unter maximaler Vollast läuft :P
 
... Hat man ma überschlagen wieviel strom die Stunde gebraucht wird mit allem drum und dran? Da gibt's doch bestimmt so nen Ding für die Steckdose ;).
 
FrozenPie schrieb:
@RYZ3N
Woher kommt das? Da steht nur, dass es pro Node (nicht Package) eine CPU und vier GPUs geben wird, welche untereinander per Inifinity Fabric kommunizieren sollen.

Ich hab’s aus einer unserer eigenen News zum Thema übernommen.

https://www.computerbase.de/2019-05/frontiert-supercomputer-amd-cray/

Ich prüfe das aber gerne noch einmal nach.

Vielleicht kann auch @Jan etwas dazu beitragen, der den ersten Beitrag zu Frontier verfasst hat.
 
RYZ3N schrieb:
Ich hab’s aus einer unserer eigenen News zum Thema übernommen.

https://www.computerbase.de/2019-05/frontiert-supercomputer-amd-cray/

Eine Anpassung dürfte aber die Anbindung der CPUs an die GPUs betreffen: Immer eine CPU soll für vier GPUs verantwortlich sein, heißt es. Sie basiert auf AMDs Infinity Fabric. Damit dürften je eine CPU und vier GPUs auf einem gemeinsamen und potentiell sehr großen Interposer zum Einsatz kommen.
Selbst in dem Artikel ist es schon nur eine Annahme. Es hieß doch damals allerdings schon, dass das Infinity Fabric auch über PCIe funktioniert. Das würde wesentlich mehr Sinn machen, als das ganze auf einen gigantischen Interposer zu packen und dann unter einen potenziell sogar schlechter Kühlbaren IHS zu löten, falls das verlöten bei den Ausmaßen überhaupt fehlerfrei machbar ist ;)

Zumal, wenn ich mich recht entsinne, aber einer gewissen Größe sogar zwei Interposer kombiniert werden müssen (müsste seit dem ersten EPYC bzw. Threadripper schon der Fall gewesen sein). In diesem Fall müssten ja sogar min. vier oder mehr Interposer zusammegfügt werden :D
 
FrozenPie schrieb:
250-300W pro CPU und 300-400W pro GPU ist aber verdammt hoch gegriffen. Realistischer sind wohl eher 150-200W pro CPU und 200-300W pro GPU, vorausgesetzt dass alles zur gleichen Zeit unter maximaler Vollast läuft :p

Die neuen Epycs gehen schon bis 240 Watt und pro Generation hat sich das immer weiter nach oben geschoben. Der Trend geht klar hin zu noch mehr Leistungsdichte. Derzeitige SMX2 Module der V100 schlucken jeweils 300 Watt und hierbei zeigt die Trendkurve auch nach oben hin zu knapp unter 400.

tochan01 schrieb:
... Hat man ma überschlagen wieviel strom die Stunde gebraucht wird mit allem drum und dran? Da gibt's doch bestimmt so nen Ding für die Steckdose ;).

Die Rede ist von 40 Megawatt (Quelle: hpcwire). Manche deutsche Rechenzentren versuchen derzeit auch ihre Stromleitungen ausgebaut zu kriegen um die erste Generation an Exascale Maschinen beherbergen zu können ;)
 
Ozmog schrieb:
Ach, ja.... Alles ist schwarz/weiß und sobald Militär drauf steht, ist es böse und nicht für den Nutzen der Welt. Eine durchaus verbreitete eingeschränkte Sichtweise von Pazifisten. Dass diverse militärische Entwicklungen und Errungenschaften auch zivil bestens genutzt werden können, wird ganz gerne übersehen. Dual-Use ist da das Stichwort.
Bestes Beispiel einer militärischen Entwicklung, die inzwischen kaum aus dem zivilen Leben wegzudenken ist, ist GPS oder allgemein satellitengestützte Navigation/Positionsbestimmung.

Typische eingeschränkte Sichtweise eines Militärs das so was zivil nicht möglich wäre und auch billiger wäre.
 
@RYZ3N Rpeak hat nichts mit Kurzzeitlast zu tun, sondern bezeichnet die theoretische Rechenleistung die praktisch nie erreicht wird.
Das ist dann sowas wie
Takt * CPUKerne * FPUs * SIMD Breite/64
dem wert kommen dann dinge wie load/store latenzen, suboptimale parallelisierung usw in die quere
dass Rmax nur 64,8% vom Rpeak ist spricht Bände darüber wie bedeutend diese eher versteckten Bremsen sind.
 
  • Gefällt mir
Reaktionen: HageBen und SVΞN
FrozenPie schrieb:
Selbst in dem Artikel ist es schon nur eine Annahme. Es hieß doch damals allerdings schon, dass das Infinity Fabric auch über PCIe funktioniert. Das würde wesentlich mehr Sinn machen, als das ganze auf einen gigantischen Interposer zu packen und dann unter einen potenziell sogar schlechter Kühlbaren IHS zu löten, falls das verlöten bei den Ausmaßen überhaupt fehlerfrei machbar ist

Also ein Interposer kommt da so oder so nicht zum Einsatz wenn ich das richtig verstehe. Auch bei Epyc oder Threadripper mit mehreren Chiplets gibts ja keinen Interposer sonder die IF läuft per Verkabelung im PCB.

Also entweder kommt eben alles auf ein PCB (alles ein Package), das zugegebenermaßen dann schon üppig groß mit nicht gerade kleiner Leistungsdichte wäre oder sie machen mehrere Packages die sie dann auf einem Board miteinander verdrahten.

Ich würde meinen, dass Frontier auf einem Epyc basiert, der ein Custom made I/O Die hat, dass eben per IF die vier GPUs ansteuern kann. Ob die nun on Package oder ex Package sind lässt sich schlecht vorhersagen.

So interpretiere ich auch die News auf Planet3dnow.de

Planet3dnow schrieb:
Im Gegensatz zu den Vorgängern wird Frontier komplett auf AMD-Produkte setzen, da sowohl CPU, als auch GPU von AMD kommen werden. Nachdem man anfangs annahm, dass der Zen 3 Serverprozessor “Milan” zum Einsatz kommen würde, hat AMD mittlerweile aber bestätigt, dass für Frontier ein kundenspezifischer Prozessor mit Blick auf CPU-zu-GPU IF-Verbindungen gebaut wird.
 
  • Gefällt mir
Reaktionen: SVΞN
^Dodo.bW schrieb:
Was bedeutet in diesem Kontext "recyclen"?

Zerlegen, soweit möglich Bauteile und Materialien recyceln und wieder verwenden, der Rest wohl auf gut Deutsch für die Tonne.

Das System als solches wird [auch in Fragmenten] nicht wieder eingesetzt. Im Grunde ist das nun eine große Menge Schrott.

Transistor 22 schrieb:
Ich vermute Entsorgen.

So ist es.

Fast schon absurd, denn wir reden hier noch immer über den zwölftschnellsten Supercomputer der Welt.
 
  • Gefällt mir
Reaktionen: Transistor 22
Zurück
Oben