Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Titan: Ehemals schnellster Supercomputer geht vom Netz
- Ersteller SVΞN
- Erstellt am
- Zur News: Titan: Ehemals schnellster Supercomputer geht vom Netz
Otsy schrieb:Wer Wettermodelle und entsprechende Berechnungen als 'trivial' bezeichnet, dem möchte ich beinahe jegliche Kompetenz absprechen.
Hat das hier einer geschrieben?
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.811
Grundstück und Kraftwerk haben Sie schon?RitterderRunde schrieb:Wenn sie ihn nicht mehr benötigen, ich nehme den Titan gerne, meine Xbox One braucht dank fehlender Cloud Power support... 😂
- Registriert
- Juni 2007
- Beiträge
- 22.988
Artikel-Update: Titan wird vollständig recycelt
Wie die Oak Ridge Leadership Computing Facility (OLCF) des Oak Ridge National Laboratory (ORNL) bestätigt hat, wird der Supercomputer Titan vollständig recycelt und nicht in kleineren Sets aus einzelnen Schränken an kleinere Forschungsgruppen verkauft oder gespendet. Die Kosten die dadurch entstehen würden, wären es für eine kleinere Forschungsgruppe oder eine Universität einfach nicht wert, sagte der Operations Manager des ORNL, Stephen McNally in einem Statement.
Spezifikationen und Funfacts zum Titan-Nachfolger „Frontier“
Auf den speziellen Wunsch der Community hin, hier noch einige Informationen und Funfacts zum Nachfolger des Supercomputer „Titan“, einem der ersten drei Exascale-Supercomputer „Frontier“, der zudem mit 1× Epyc + 4× Radeon Instinct und einer optimierten Infinity Fabric für eine einheitliche Verbindung von CPU, GPU und Speicher, vollständig auf Hardware von AMD basiert.
Die Redaktion dankt Community-Mitglied „Tornhoof“ für den Hinweis zu diesem Update.
Wie die Oak Ridge Leadership Computing Facility (OLCF) des Oak Ridge National Laboratory (ORNL) bestätigt hat, wird der Supercomputer Titan vollständig recycelt und nicht in kleineren Sets aus einzelnen Schränken an kleinere Forschungsgruppen verkauft oder gespendet. Die Kosten die dadurch entstehen würden, wären es für eine kleinere Forschungsgruppe oder eine Universität einfach nicht wert, sagte der Operations Manager des ORNL, Stephen McNally in einem Statement.
Stephen McNally schrieb:People ask why we can’t split up Titan and donate sets of cabinets to different research groups, but the answer is that it’s simply not worth the cost to a data center or university of powering and cooling even fragments of Titan. Titan’s value lies in the system as a whole.
Spezifikationen und Funfacts zum Titan-Nachfolger „Frontier“
Auf den speziellen Wunsch der Community hin, hier noch einige Informationen und Funfacts zum Nachfolger des Supercomputer „Titan“, einem der ersten drei Exascale-Supercomputer „Frontier“, der zudem mit 1× Epyc + 4× Radeon Instinct und einer optimierten Infinity Fabric für eine einheitliche Verbindung von CPU, GPU und Speicher, vollständig auf Hardware von AMD basiert.
[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
Die Redaktion dankt Community-Mitglied „Tornhoof“ für den Hinweis zu diesem Update.
Forum-Fraggle
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.281
Genau den Eindruck hinterläßt Du aber. Achja, bilden würden auch Quellenangaben. dDie bist Du allerdings, im Gegensatz zu den von anderen schon gegebenen und von Dir eingeforderten Quellen weiterhin schuldig.Duke711 schrieb:
H3llF15H
Admiral
- Registriert
- Juni 2009
- Beiträge
- 7.668
Der Witz ist bereits so alt, den haben sich schon die Römer erzählt...Special1986 schrieb:Für Solitär sollte es aber noch reichen.
icemanspirit
Ensign
- Registriert
- Aug. 2019
- Beiträge
- 155
Cooder schrieb:Wahnsinn, wie laut solch ein Supercomputer ist ...
Das Problem wird sich in den nächsten Jahren noch weiter verschärfen. Wenn man Frontier als Beispiel betrachtet hat man dort 250-300 Watt für die CPU plus 300-400 Watt pro GPU. Diese Abwärme, die sich auf 1-2 Höheneinheiten (U) konzentrieren wird wegzukriegen geht nur mit Wasser oder mit Immersionskühlung wie es wohl die Chinese vorhaben (hpcwire). Also bleibt es auf jeden Fall spannend..
[...], der zudem mit 1× Epyc + 4× Radeon Instinct auf einem Package, vollständig auf Hardware von AMD basiert.
@RYZ3N
Woher kommt das? Da steht nur, dass es pro Node (nicht Package) eine CPU und vier GPUs geben wird, welche untereinander per Inifinity Fabric kommunizieren sollen. Also mittels der IF-Brücken auf den Karten und das IF wird wahrscheinlich über das PCIe Interface der Karten auch zwischen der CPU und den GPUs genutzt. Da ist nirgendwo die Rede davon, dass alle Chips auf dem selben Package untergebracht werden
250-300W pro CPU und 300-400W pro GPU ist aber verdammt hoch gegriffen. Realistischer sind wohl eher 150-200W pro CPU und 200-300W pro GPU, vorausgesetzt dass alles zur gleichen Zeit unter maximaler Vollast läufticemanspirit schrieb:Das Problem wird sich in den nächsten Jahren noch weiter verschärfen. Wenn man Frontier als Beispiel betrachtet hat man dort 250-300 Watt für die CPU plus 300-400 Watt pro GPU. Diese Abwärme, die sich auf 1-2 Höheneinheiten (U) konzentrieren wird wegzukriegen geht nur mit Wasser oder mit Immersionskühlung wie es wohl die Chinese vorhaben (hpcwire). Also bleibt es auf jeden Fall spannend..
- Registriert
- Juni 2007
- Beiträge
- 22.988
FrozenPie schrieb:@RYZ3N
Woher kommt das? Da steht nur, dass es pro Node (nicht Package) eine CPU und vier GPUs geben wird, welche untereinander per Inifinity Fabric kommunizieren sollen.
Ich hab’s aus einer unserer eigenen News zum Thema übernommen.
https://www.computerbase.de/2019-05/frontiert-supercomputer-amd-cray/
Ich prüfe das aber gerne noch einmal nach.
Vielleicht kann auch @Jan etwas dazu beitragen, der den ersten Beitrag zu Frontier verfasst hat.
RYZ3N schrieb:Ich hab’s aus einer unserer eigenen News zum Thema übernommen.
https://www.computerbase.de/2019-05/frontiert-supercomputer-amd-cray/
Selbst in dem Artikel ist es schon nur eine Annahme. Es hieß doch damals allerdings schon, dass das Infinity Fabric auch über PCIe funktioniert. Das würde wesentlich mehr Sinn machen, als das ganze auf einen gigantischen Interposer zu packen und dann unter einen potenziell sogar schlechter Kühlbaren IHS zu löten, falls das verlöten bei den Ausmaßen überhaupt fehlerfrei machbar istEine Anpassung dürfte aber die Anbindung der CPUs an die GPUs betreffen: Immer eine CPU soll für vier GPUs verantwortlich sein, heißt es. Sie basiert auf AMDs Infinity Fabric. Damit dürften je eine CPU und vier GPUs auf einem gemeinsamen und potentiell sehr großen Interposer zum Einsatz kommen.
Zumal, wenn ich mich recht entsinne, aber einer gewissen Größe sogar zwei Interposer kombiniert werden müssen (müsste seit dem ersten EPYC bzw. Threadripper schon der Fall gewesen sein). In diesem Fall müssten ja sogar min. vier oder mehr Interposer zusammegfügt werden
icemanspirit
Ensign
- Registriert
- Aug. 2019
- Beiträge
- 155
FrozenPie schrieb:250-300W pro CPU und 300-400W pro GPU ist aber verdammt hoch gegriffen. Realistischer sind wohl eher 150-200W pro CPU und 200-300W pro GPU, vorausgesetzt dass alles zur gleichen Zeit unter maximaler Vollast läuft
Die neuen Epycs gehen schon bis 240 Watt und pro Generation hat sich das immer weiter nach oben geschoben. Der Trend geht klar hin zu noch mehr Leistungsdichte. Derzeitige SMX2 Module der V100 schlucken jeweils 300 Watt und hierbei zeigt die Trendkurve auch nach oben hin zu knapp unter 400.
tochan01 schrieb:... Hat man ma überschlagen wieviel strom die Stunde gebraucht wird mit allem drum und dran? Da gibt's doch bestimmt so nen Ding für die Steckdose .
Die Rede ist von 40 Megawatt (Quelle: hpcwire). Manche deutsche Rechenzentren versuchen derzeit auch ihre Stromleitungen ausgebaut zu kriegen um die erste Generation an Exascale Maschinen beherbergen zu können
foofoobar
Captain
- Registriert
- Dez. 2011
- Beiträge
- 3.555
Ozmog schrieb:Ach, ja.... Alles ist schwarz/weiß und sobald Militär drauf steht, ist es böse und nicht für den Nutzen der Welt. Eine durchaus verbreitete eingeschränkte Sichtweise von Pazifisten. Dass diverse militärische Entwicklungen und Errungenschaften auch zivil bestens genutzt werden können, wird ganz gerne übersehen. Dual-Use ist da das Stichwort.
Bestes Beispiel einer militärischen Entwicklung, die inzwischen kaum aus dem zivilen Leben wegzudenken ist, ist GPS oder allgemein satellitengestützte Navigation/Positionsbestimmung.
Typische eingeschränkte Sichtweise eines Militärs das so was zivil nicht möglich wäre und auch billiger wäre.
Bigeagle
Lt. Commander
- Registriert
- Nov. 2008
- Beiträge
- 1.530
@RYZ3N Rpeak hat nichts mit Kurzzeitlast zu tun, sondern bezeichnet die theoretische Rechenleistung die praktisch nie erreicht wird.
Das ist dann sowas wie
Takt * CPUKerne * FPUs * SIMD Breite/64
dem wert kommen dann dinge wie load/store latenzen, suboptimale parallelisierung usw in die quere
dass Rmax nur 64,8% vom Rpeak ist spricht Bände darüber wie bedeutend diese eher versteckten Bremsen sind.
Das ist dann sowas wie
Takt * CPUKerne * FPUs * SIMD Breite/64
dem wert kommen dann dinge wie load/store latenzen, suboptimale parallelisierung usw in die quere
dass Rmax nur 64,8% vom Rpeak ist spricht Bände darüber wie bedeutend diese eher versteckten Bremsen sind.
- Registriert
- Aug. 2004
- Beiträge
- 11.699
FrozenPie schrieb:Selbst in dem Artikel ist es schon nur eine Annahme. Es hieß doch damals allerdings schon, dass das Infinity Fabric auch über PCIe funktioniert. Das würde wesentlich mehr Sinn machen, als das ganze auf einen gigantischen Interposer zu packen und dann unter einen potenziell sogar schlechter Kühlbaren IHS zu löten, falls das verlöten bei den Ausmaßen überhaupt fehlerfrei machbar ist
Also ein Interposer kommt da so oder so nicht zum Einsatz wenn ich das richtig verstehe. Auch bei Epyc oder Threadripper mit mehreren Chiplets gibts ja keinen Interposer sonder die IF läuft per Verkabelung im PCB.
Also entweder kommt eben alles auf ein PCB (alles ein Package), das zugegebenermaßen dann schon üppig groß mit nicht gerade kleiner Leistungsdichte wäre oder sie machen mehrere Packages die sie dann auf einem Board miteinander verdrahten.
Ich würde meinen, dass Frontier auf einem Epyc basiert, der ein Custom made I/O Die hat, dass eben per IF die vier GPUs ansteuern kann. Ob die nun on Package oder ex Package sind lässt sich schlecht vorhersagen.
So interpretiere ich auch die News auf Planet3dnow.de
Planet3dnow schrieb:Im Gegensatz zu den Vorgängern wird Frontier komplett auf AMD-Produkte setzen, da sowohl CPU, als auch GPU von AMD kommen werden. Nachdem man anfangs annahm, dass der Zen 3 Serverprozessor “Milan” zum Einsatz kommen würde, hat AMD mittlerweile aber bestätigt, dass für Frontier ein kundenspezifischer Prozessor mit Blick auf CPU-zu-GPU IF-Verbindungen gebaut wird.
kryzs
Lt. Commander
- Registriert
- Apr. 2012
- Beiträge
- 1.661
Solitär wird knapp, ehr Minesweeper ^^Special1986 schrieb:Für Solitär sollte es aber noch reichen.
Transistor 22
Lt. Commander
- Registriert
- März 2018
- Beiträge
- 1.431
Ich vermute Entsorgen.^Dodo.bW schrieb:Was bedeutet in diesem Kontext "recyclen"?
- Registriert
- Juni 2007
- Beiträge
- 22.988
^Dodo.bW schrieb:Was bedeutet in diesem Kontext "recyclen"?
Zerlegen, soweit möglich Bauteile und Materialien recyceln und wieder verwenden, der Rest wohl auf gut Deutsch für die Tonne.
Das System als solches wird [auch in Fragmenten] nicht wieder eingesetzt. Im Grunde ist das nun eine große Menge Schrott.
Transistor 22 schrieb:Ich vermute Entsorgen.
So ist es.
Fast schon absurd, denn wir reden hier noch immer über den zwölftschnellsten Supercomputer der Welt.
Ähnliche Themen
- Antworten
- 58
- Aufrufe
- 9.147
- Antworten
- 20
- Aufrufe
- 7.792
- Antworten
- 60
- Aufrufe
- 17.070
- Antworten
- 86
- Aufrufe
- 14.392
- Antworten
- 69
- Aufrufe
- 17.187
E