News Dell baut neuen Supercomputer in Stockholm

nicht schlecht, aber wäre es nicht sinnvoller den Cell-prozessor von IBM zu nehmen? bei Folding@home schneidet der ja auch super ab, oder kann man das jetzt nicht miteinander vergleichen. naja sonst wären noch gpu´s da. damit sollte man doch viel mehr leistung rausbekommen und auch noch strom sparen.
 
Bei dieser Pressemitteilung ist die Rede von ca.20% an Kosten für Strom und Kühlung voraussichtlich einzusparen, gegenüber herkömmlicher Servertechnologie.

Nun wenn wir davon ausgehen das ein Rechenzentrum so um die 8 Megawatt in 24h verbraucht, wiegen die 20% schon gewaltig.

Eine Windkraftanlage schaft im Jahr ca.4 Mio KW/H, daß wären bei 8 MW ungefähr 3/4 von einer WKA für 1 Rechenzentrum!

Gruss Harry
 
Zuletzt bearbeitet:
Hmm zwar sind GPU's nicht so vielwendig wie CPU's aber ich denke diese Aufgaben könnten auch die GPU erledigen (Proteinspaltung etc).

Wenn man schaut was diese Uni http://www.winfuture.de/news,39777-2.html mit einem 4000 Euro Rechner geschafft hat, in bestimmten anwendungen ist das beeindruckend und finde es etwas Komisch warum jetzt nicht die schienen nicht auf GPUs umgestellt werden und die Software so angepasst wird das sie keinerlei nachteile mehr haben.

Der 4000 Euro rechner ist schneller als 512 Opteron CPU Supercomputer bei deren versuchen.
 
Zuletzt bearbeitet:
Vll wäre auch nicht schlecht mal eine Zeichnung oder Skizze von dem ganzen Aufbau anzufertigen, da ich mir das alles garnicht so gut vorstellen kann, mich würde das aber trotzdem Interessieren, wie so ein Supercomputeraufgebaut ist!
 
Dell Server haben lustigerweise eine höhere Ausfallrate als die Vergleichsmodelle von IBM. Die Wartung wird super aufwändig demnach sein.

Die Blades sind natürlich der oberhammer. Da haben die Jungs von Dell eine menge Kabel zu ziehen um das ganze halbwegs Redundant aufzubauen.
 
@Sharkoon05
Das Ganze sieht ungefähr so aus.

1 Node = 1 Computer
Mgmt & Login = 8 Computer für Management und Login Dienste
90 TB = 8 Dateiserver mit 90 TB Platz


Ob's 100%ig so ausschaut, kann ich aber nicht mit Bestimmtheit sagen. Da fehlen mir einige Infos zu.
 

Anhänge

  • network.PNG
    network.PNG
    21 KB · Aufrufe: 1.973
@ DerPate-Whity:
Weil sich GPU´s bisher eben nur für bestimmte Anwendungen lohnen, da aber richtig. Da, wo es große Abhängigkeiten von verschiedenen Abläufen gibt, nützt einem eine GPU bisher gar nichts. Klassische CPU´s sind vorläufig eben noch um Längen flexibler und eignen sich deshalb für vieles besser.
Ähnliche Probleme könnten auch beim Quantencomputer auftauchen, bei dem wegen der Grundsätzlich völlig anderen Arbeitsweise noch gar nicht klar ist, ob er sich für jede Art von Berechnung eignen würde und wie das softwareseitig angegangen werden kann.
 
@e-Laurin
Ja, sollte so richtig sein.

@s1c
IBM konzipiert seine Cluster anders, bei denen können sehr viele der einzelnen Komponenten ausfallen, bevor der ganze Verbund zusammenbricht.
(Stark vereinfacht ausgedrück arbeiten sie wie eine Anwendung, die von mehreren CPUs profitiert, aber auch noch mit einer läuft... Bitte schlagt mich nicht, der Vergleich hinkt völlig, ich weiß :freak:)
 
hm sehe ich das jetzt völlig falsch oder sind diese 57,88 Terraflop garnicht soviel ? ich meine die neue HD4870 schafft ja knapp über nen Terraflop, würde man da sowas ähnliches wie Cuda einbauen hätte man ja an 60 Grakas gleichviel rchenleistung bei tieferen preisen. Klar kommt noch das ganze mit den Knoten & verbindung dazu aber das sollte doch auch irgendwie machbar sein. klärt mich mal auf bitte.

Greetz
 
Eine HD4870 bzw. eine GPU/GPGPU ist aber bei weitem nicht so flexibel einsetzbar wie eine CPU.

Eine GPU ist für den Zweck der Visualisierung zugeschnitten, der sich stark parallelisieren läßt (Extremfall: 1 Rechenkern pro Pixel, wenn denn das sinnvoll ist).
Die Aufgaben einer CPU lassen sich aber bei weitem nicht so einfach parallelisieren. Man sieht es ja schon an unseren Programmen, die oft nichtmal einen Dualcore effizient nutzen können.

Weitere Unterschiede gibt es in der Art wie Berechnungen durchgeführt werden. GPUs bekommen durchgekaute Daten (Texturen, Geometriedaten, etc.), die sie, vereinfacht gesagt, nur übereinander legen.
Eine CPU kann das auch, aber sie kann noch x andere Sachen mehr, wo eine GPU kein Land sieht bzw. überhaupt eine Funktionalität für besitzt.
 
gut danke, aber CUDA sollte das ganze doch ein wenig billiger machen können ? die haben ja mal an irgendeiner uni 4x 9800GX2's paralell (nicht um SLI betrieb) laufen lassen und die hatten mithilfe von CUDA mehr rechenleistung als so ein supercomputer an der uni antwerpen.

Greetz
 
Sicher haben sie mehr Rechenleistung, aber nur in einigen sehr speziellen Fällen.

Mal blöd ausgedrückt:
GPU >>> 10 Additionen/s; 100 Multiplikationen/s
CPU >>> 20 Additionen/s; 50 Multiplikationen/s, 20 Subtraktionen/s, 50 Divisionen/s,....

Und was ist jetzt, wenn das Programm vorallem Additionen ausführt? Und dazu noch einige Subtraktionen und Divisionen in Petto hat? Die GPU würde hier völlig versagen.

Die GPU ist nur ein Spezialfall einer CPU. CUDA nützt da auch nichts, dass stellt nur eine API zur Verfügung, um eben die 50 Multiplikationen/s nutzen zu können. Dafür aber ein paar 100 € extra für für ein paar 200 Watt fressende Chips auszugeben, drückt den Preis/Leistungsschnitt stark.
 
Zuletzt bearbeitet:
ok danke, habs kapiert;)
 
e-Laurin schrieb:
Mal blöd ausgedrückt:
GPU >>> 10 Additionen/s; 100 Multiplikationen/s
CPU >>> 20 Additionen/s; 50 Multiplikationen/s, 20 Subtraktionen/s, 50 Divisionen/s,....

Verdammt gutes Beispiel. Jetzt verstehs ich auch gut. ABer eines frag ich mich ja. Was ist damit gemeint "sowie Materialkunde liegt" ??

mfg ordi
 
OnkelOrdi schrieb:
ABer eines frag ich mich ja. Was ist damit gemeint "sowie Materialkunde liegt" ??

mfg ordi

geht wohl um kristall strukturen und modellierungen von synthetischen Werkstoffen (Keramiken ....)
wenn man hier modellierungen rechnet ist es billiger als labor versuche zu machen. wenn auch oft nicht genau. Oder zur entwicklung von neuen Modellen
 
Danke, jetzt versteh ichs. So was zu berechnen ist sicher "ein wenig" aufwendig ;)
 
jo da ja so ein material ned nur aus 2 molekühlen/atomen besteht die mit einander interagieren
 
Zurück
Oben