News Supercomputer: Nach Upgrade ist Piz Daint die neue Nummer 3 der Welt

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.354
Kann man Petaflops irgendwie jemandem wie mir erklären ... gibts irgendeinen lapidaren Vergleich der einleuchtet? :freak:
 
Will it run Crysis?
Einmal einpacken und zum Mitnehmen.
Da geht was bei der Leistung. Man sollte halt auch bedenken, dass es noch viele andere geheime Supercomputer gibt, die vor allen ihre Dienste für Behörden leisten!
Dass die Schweiz da so weit oben mitmischt mit den Supercomputern erstaunt mich.
 
Corros1on schrieb:
Dass die Schweiz da so weit oben mitmischt mit den Supercomputern erstaunt mich.

Mich nicht, in D ist das Internet nämlich immer noch "Neuland".
 
Sithys schrieb:
Kann man Petaflops irgendwie jemandem wie mir erklären ... gibts irgendeinen lapidaren Vergleich der einleuchtet? :freak:

Man kann das schon definieren - nur muss man dann die Definition verstehen.
Im Grund sind Flops sehr schwammig, je nach dem was man damit anfängt.

Ein Fahrassistent im Auto braucht Leistung im Gigaflop Bereich.
Jemand der Filmeffekte live bearbeiten möchte braucht schon Teraflop.
Und jemand der Forschungsprojekte in Auftrag gibt, braucht Petaflop.

Du solltest dir einfach mal anschauen was moderene Grafikkarten so leisten.
 
Mit welcher Software wird das betrieben? Hat man auf seinem "PC" Windows installiert, dann ein "spezielles" Wetterprognoseprogramm was an der Leistung des Supercomputers verknüpft ist?

Ich wüsste sehr gerne wie das softwaretechnisch geregelt wird, wer diese Software entwickelt und wie teuer so ein Teil im Unterhalt kostet.
 
Dafür wird fast ausschliesslich UNIX/Linux verwendet.
 
Corros1on schrieb:
Dass die Schweiz da so weit oben mitmischt mit den Supercomputern erstaunt mich.

Nicht sooo verwunderlich, da geht's vor allem um Forschung. CERN, PSI, EPFL, ETHZ. Wobei das CERN wohl den Hauptteil ausmachen wird :-)
 
Danke für die Komponenten-Zusammenstellung im Artikel!

So sieht meine nächste Alternate Bestellung aus.
 
Jetzt wissen wir auch warum der HBM2 Speicher so lange brauchte 5320x16GB Einheiten darin verbaut.:evillol:
 
Super, hoffentlich kriegen wir dann nächstes Quartal mehr node-hours (nicht das wir eh schon zu den Top-Nutzern gehören ^^)

Auf die Frage von oben: Als Nutzer hat man Zugang zu dem front end (ELA) und den Login nodes (DAINT), von letzterem kann man auf den Cluster zugreifen durch SLURM, ein job managment system, in dem man angibt wieviele Nodes, wieviele Prozessoren pro node, wieviel memory pro node, reserviert werden sollen. Ein Job kan maximal 24h dauer. Slurm ist ein queueing system, das jobs nach Priorität, Dauer, und angefragten Resourcen einteilt. Gewöhnlich dauert es 1-2 Stunden bis eine Rechnung tatsächlich anfängt. Achso, das System läuft mit Linux, kenne mich aber niciht gut genug mit den Einzelheiten aus.

Funfact: 1 node-hour kostest 1 CHF ... wir haben oft Rechnungen die 3000-4000 node hours brauchen.
 
Wahnsinn, wie China mit nur zwei Supercomputern mehrere Industriestaaten zusammen hinter sich lässt. Da frag ich mich, wofür gerade die so viel Rechenleistung benötigen.

In den USA wird sicher viel für die ganzen wissenschaftlichen Institute (NASA etc.) gebraucht, Schweiz natürlich CERN. Aber was betreibt China, dass die dermaßen viel Rechenpower brauchen? Bieten die einfach Zugänge an, wo alle ihre Wetterdaten etc. berechnen lassen können, oder lassen die auch selbst was laufen?

Unglaublich, wenn man bedenkt, dass Sunway TaihuLight weniger wie Tianhe braucht, und dabei das Dreifache an Leistung hat.
 
Was der "Rechner" kann hat ein Team von Wissenschaftlern vor nicht allzu langer Zeit eindrucksvoll unter Beweis gestellt. Die haben ein virtuelles Universum mit 25 Milliarden Galaxien in nur 80 Stunden erstellt. Oder konkreter es wurden 2 Trillionen Marcropartikel errechnet die dann die 25 Milliarden Galaxien ermöglichten. Es ging dabei in erster Linie darum zu simulieren wie Dunkle Materie sogenannte Halos im Universum erschaffen konnte, in die wiederum die "normalen" Galaxien entstanden.

Weitaus besser kann man das hier nachlesen: https://www.universetoday.com/135998/25-billion-galaxies-definitely-living-simulation/

Dort sind auch links zu den wissenschaftlichen Arbeiten enthalten.
 
@AYAlf
Was haben Supercomputer mit dem Internet zu tun?
 
marcelino1703 schrieb:
Wahnsinn, wie China mit nur zwei Supercomputern mehrere Industriestaaten zusammen hinter sich lässt. Da frag ich mich, wofür gerade die so viel Rechenleistung benötigen.

China ist ein großes, nicht ganz durchsichtiges Land. Ich möchte nicht Wissen was dort alles an Geheimdiensten und Militär wuselt.
Ein dicker Brocken an Rechenleistung wird sicherlich dafür verwendet.
 
MichaG schrieb:
... Jetzt mit Rechenbeschleunigern der Serie Nvidia Tesla P100 bestückt...

GZ liebe Schweiz zu so einem fetten Mining RIG xD :lol:
Bei 5.320 Nodes mit je einer Nvidia Tesla P100 à 69 MH/s macht das 367,08 GH/s
--> das wären ca. 24,5 Millionen $ Profit (1,4 Mill. $ Stromkosten bereits abgezogen) pro Jahr xD
Da würde sich das Upgrade also in 19 1/2 Monaten amortisieren :)
Die Schweizer wissen halt wie man Geld macht :D
 
In China ist auch einfach nur viel Prestige dabei, damit die KP zeigen kann, zu was der mächtige Apparat in der Lage ist.

Gerade die Nummer 1 ist als so ein Beispiel dafür. Die theoretische Rechenleistung wird halt nur unter ganz bestimmten Bedingungen erreicht. Der Aufwand in der Programmierung und Optimierung dürfte immens sein, um den Code dort richtig auf trab zu bringen. Entweder es läuft auf dem Sunway eine ganz spezielle Applikation, oder ein Großteil der Leistung liegt einfach brach.

Da sind die mächtigen General-Purpose-Cluster oder halt auch die Systeme mit CUDA-Beschleunigern schon ein Stück weit breiter einzusetzen.
 
Kann ich mir den mal für ne Woche zum Minen ausleihen? :lol:
 
Zurück
Oben