Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Das Royal Institute of Technology KTH in Stockholm hat Dell mit dem Bau eines Supercomputers beauftragt. Angetrieben wird der High Performance Cluster (HPC) von 680 PowerEdge-M600-Bladeservern. Auf der aktuellen Rangliste der Höchstleistungsrechner würde das System zu den 30 schnellsten weltweit zählen.
nicht schlecht, aber wäre es nicht sinnvoller den Cell-prozessor von IBM zu nehmen? bei Folding@home schneidet der ja auch super ab, oder kann man das jetzt nicht miteinander vergleichen. naja sonst wären noch gpu´s da. damit sollte man doch viel mehr leistung rausbekommen und auch noch strom sparen.
Bei dieser Pressemitteilung ist die Rede von ca.20% an Kosten für Strom und Kühlung voraussichtlich einzusparen, gegenüber herkömmlicher Servertechnologie.
Nun wenn wir davon ausgehen das ein Rechenzentrum so um die 8 Megawatt in 24h verbraucht, wiegen die 20% schon gewaltig.
Eine Windkraftanlage schaft im Jahr ca.4 Mio KW/H, daß wären bei 8 MW ungefähr 3/4 von einer WKA für 1 Rechenzentrum!
Hmm zwar sind GPU's nicht so vielwendig wie CPU's aber ich denke diese Aufgaben könnten auch die GPU erledigen (Proteinspaltung etc).
Wenn man schaut was diese Uni http://www.winfuture.de/news,39777-2.html mit einem 4000 Euro Rechner geschafft hat, in bestimmten anwendungen ist das beeindruckend und finde es etwas Komisch warum jetzt nicht die schienen nicht auf GPUs umgestellt werden und die Software so angepasst wird das sie keinerlei nachteile mehr haben.
Der 4000 Euro rechner ist schneller als 512 Opteron CPU Supercomputer bei deren versuchen.
Vll wäre auch nicht schlecht mal eine Zeichnung oder Skizze von dem ganzen Aufbau anzufertigen, da ich mir das alles garnicht so gut vorstellen kann, mich würde das aber trotzdem Interessieren, wie so ein Supercomputeraufgebaut ist!
@ DerPate-Whity:
Weil sich GPU´s bisher eben nur für bestimmte Anwendungen lohnen, da aber richtig. Da, wo es große Abhängigkeiten von verschiedenen Abläufen gibt, nützt einem eine GPU bisher gar nichts. Klassische CPU´s sind vorläufig eben noch um Längen flexibler und eignen sich deshalb für vieles besser.
Ähnliche Probleme könnten auch beim Quantencomputer auftauchen, bei dem wegen der Grundsätzlich völlig anderen Arbeitsweise noch gar nicht klar ist, ob er sich für jede Art von Berechnung eignen würde und wie das softwareseitig angegangen werden kann.
@s1c
IBM konzipiert seine Cluster anders, bei denen können sehr viele der einzelnen Komponenten ausfallen, bevor der ganze Verbund zusammenbricht.
(Stark vereinfacht ausgedrück arbeiten sie wie eine Anwendung, die von mehreren CPUs profitiert, aber auch noch mit einer läuft... Bitte schlagt mich nicht, der Vergleich hinkt völlig, ich weiß )
hm sehe ich das jetzt völlig falsch oder sind diese 57,88 Terraflop garnicht soviel ? ich meine die neue HD4870 schafft ja knapp über nen Terraflop, würde man da sowas ähnliches wie Cuda einbauen hätte man ja an 60 Grakas gleichviel rchenleistung bei tieferen preisen. Klar kommt noch das ganze mit den Knoten & verbindung dazu aber das sollte doch auch irgendwie machbar sein. klärt mich mal auf bitte.
Eine HD4870 bzw. eine GPU/GPGPU ist aber bei weitem nicht so flexibel einsetzbar wie eine CPU.
Eine GPU ist für den Zweck der Visualisierung zugeschnitten, der sich stark parallelisieren läßt (Extremfall: 1 Rechenkern pro Pixel, wenn denn das sinnvoll ist).
Die Aufgaben einer CPU lassen sich aber bei weitem nicht so einfach parallelisieren. Man sieht es ja schon an unseren Programmen, die oft nichtmal einen Dualcore effizient nutzen können.
Weitere Unterschiede gibt es in der Art wie Berechnungen durchgeführt werden. GPUs bekommen durchgekaute Daten (Texturen, Geometriedaten, etc.), die sie, vereinfacht gesagt, nur übereinander legen.
Eine CPU kann das auch, aber sie kann noch x andere Sachen mehr, wo eine GPU kein Land sieht bzw. überhaupt eine Funktionalität für besitzt.
gut danke, aber CUDA sollte das ganze doch ein wenig billiger machen können ? die haben ja mal an irgendeiner uni 4x 9800GX2's paralell (nicht um SLI betrieb) laufen lassen und die hatten mithilfe von CUDA mehr rechenleistung als so ein supercomputer an der uni antwerpen.
Sicher haben sie mehr Rechenleistung, aber nur in einigen sehr speziellen Fällen.
Mal blöd ausgedrückt:
GPU >>> 10 Additionen/s; 100 Multiplikationen/s
CPU >>> 20 Additionen/s; 50 Multiplikationen/s, 20 Subtraktionen/s, 50 Divisionen/s,....
Und was ist jetzt, wenn das Programm vorallem Additionen ausführt? Und dazu noch einige Subtraktionen und Divisionen in Petto hat? Die GPU würde hier völlig versagen.
Die GPU ist nur ein Spezialfall einer CPU. CUDA nützt da auch nichts, dass stellt nur eine API zur Verfügung, um eben die 50 Multiplikationen/s nutzen zu können. Dafür aber ein paar 100 € extra für für ein paar 200 Watt fressende Chips auszugeben, drückt den Preis/Leistungsschnitt stark.
geht wohl um kristall strukturen und modellierungen von synthetischen Werkstoffen (Keramiken ....)
wenn man hier modellierungen rechnet ist es billiger als labor versuche zu machen. wenn auch oft nicht genau. Oder zur entwicklung von neuen Modellen