News Supercomputer: China plant noch dieses Jahr Prototyp für Exascale-System

wer hat den größ... ähm den schnellsten?

wir sind im vergleich dazu, noch in der steinzeit.
 
Ich hoffe sehr, daß der Deal mit AMD und seinen Patenten da etwas Geld bei AMD einspielt... Ein selbstgebauter Prozessor mit lizensierter X86 Technik von AMD - wäre doch machbar - oder?
 
Solange die Teile nur wenige Prozent ihrer Rechenleistung nutzen ist das rein Geldverbrennung. Die sollen mal Software entwickeln die die Rechenleistung auch vernünftig nutzt. Auf Cbase hatte ich mal gelesen das es nur 3 Prozent sind. Der Brüller schlechthin.
 
@Fililander: Wo hast du das denn her? Das ist Quark. Supercomputer laufen immer am Limit. Die werden ja explizit für bestimmte Tasks geplant und es gibt i.d.R. immer Wissenschaftler, die slots haben wollen für Simulationen. Das da die Queue mal leer oder auch nur ansatzweise frei ist, ist definitiv sehr selten.

Und bezüglich der Software: das ist auch Quark. Alle wissenschaftlichen Disziplinen, die hier schon aufgezählt wurden, sowie noch viele mehr, haben ordentlich parallelisierbare Aufgaben.
 
Ich kann mir ehrlich nicht vorstellen, dass diese Angaben stimmen: 3% Auslastung bei derartig teuren Systemen...das ist imho definitiv Quark.
Bei ganz speziellen, einzelnen und vor allem neuen Systemen vielleicht kurzfristig...aber längerfristig definitiv nicht.

Von unserem Fachbereich haben z.B. auch schon Leute Jobs an den HLRN, der da in dem Bericht erwähnt wurde, gesendet...und was der gute Herr da ansonsten schreibt, ist das gängige Szenario für Supercomputer: mehrere (i.d.R. sehr viele) Jobs laufen parallel. Es ist sehr selten, dass ein einziger Job den ganzen Cluster bekommt.

Bei uns an der Uni haben wir beispielsweise einen eigenen Supercomputer, der komplett unserer Uni gehört. Der hat (im Vergleich zum HLRN zumindest) "nur" etwas über 2.000 Prozessoren...aber selbst die Nanowissenschaftler, Meterologen oder Teilchenphysiker bekommen für einen einzigen Job immer nur 800-1.000 Prozessoren maximal (alles Octa-Core-Xeons, also 800-1.000 * 8 = 6.400 - 8.000 Cores für einen Job). In der Regel noch viel weniger.

Dann dauern deren Berechnungen eben mehrere Tage, anstatt nur einen - beispielsweise.

Die meisten Simulationen wären aber durchaus relativ einfach auf noch viel mehr Kerne parallelisierbar.

Es gibt meistens nur zwei Gründe, warum immer viele, verschiedene Jobs parallel laufen:

(1) Der Aufwand für große Experimente ist exorbitant größer, d.h. kleinere Experimente, die schneller durchlaufen und dementsprechend nur weniger Kerne brauchen, können von wenigen Wissenschaftlern in kurzer Zeit aufbereitet werden
(attraktiver; überschaubarer; einfacher zu koordinieren; weniger Fehlerpotenzial)

(2) Alle möglichen Wissenschaftler wollen Zeug berechnet haben; würde man den ganzen Cluster für einen Job vergeben, müssten ständig alle anderen warten

In der Realität ist die Auslastung eines Clusters also seltenst ein Problem: es gibt eigentlich immer genug Wissenschaftler, die was laufen lassen wollen und um den ganzen Cluster auszulasten, laufen bei uns z.B. immer 50-60 Jobs parallel.

Beim HLRN (den hab ich noch nicht selbst genutzt, kenn ich nur von WiMis die da Zugang haben) sind das dann aufgrund der Größe natürlich noch mehr...
 
Zuletzt bearbeitet:
Ja so ein Wissenschaftler Leben ist schon nicht einfach.:eek:

China hat durch den Export Überschuß sehr viel Geld und investiert das (teilweise) in wichtige Sachen.
 
Zurück
Oben