News Stuttgarts PetaFLOPS-Supercomputer „Hermit“ für Nutzer freigegeben

ExcaliburCasi schrieb:
Das geht doch garnicht, das ist unvorstellbar viel, xD

Deswegen wurde diese Frage ja auch nicht im OC-Bereich, sondern in einer Supercomputer-News gestellt ;)
 
OT: Wie hier 98% der Kommentare völlig am Thema vorbeigehen und 99.5% der User nicht die leiseste Ahnung haben wofür solche Computersysteme überhaupt zu gebrauchen sind ... Habt ihr so ein Mitteilungsbedürfnis?
 
Cat schrieb:
OT: Wie hier 98% der Kommentare völlig am Thema vorbeigehen und 99.5% der User nicht die leiseste Ahnung haben wofür solche Computersysteme überhaupt zu gebrauchen sind ... Habt ihr so ein Mitteilungsbedürfnis?

Und DU bist einer von den 98%. Ob du auch zu den 99,5% gehörst, ka...
 
Schön zu hören, das nun auch in Deutschland so ein Bolide zur Verfügung steht.

Mich würde eher interessieren, welches Betriebssystem auf dem "Hermit" läuft? Kann ein Betriebssystem denn überhaupt die genannten 113.664 CPU Kerne verwalten und Tasks etc. auf diesem alle Laufen lassen? Weiß außerdem noch jemand ob die "Programme" in C geschrieben sind?
 
Schon beeindruckend welche Leistung hier zur Verfügung steht. Dann soll im nächsten Jahr noch eine Vervierfachung bzw. Verfünffachung erzielt werden. Wirklich nicht schlecht. Allerdings ist der derzeitige Spitzenreiter eine Klasse für sich.
 
dgschrei schrieb:
Netter kleiner Taschenrechner :D

Interessant wäre zu wissen, mit was für einem Verbrauch man tatsächlich gerechnet hatte, und um wieviel der nun letztendlich vorbei schießt. Planungen für solche Systeme sollten ja wohl etwas länger benötigen als 2 - 3 Monate. Ganz besonders wenn wie hier die öffentliche Hand mit involviert ist. Soll heißen als der Supercomputer konzipiert wurde, hat noch keiner damit gerechnet, dass die Bulldozer in Punkto Effizienz allenfalls einen faden Beigeschmack hinterlassen.

Stimmt, und AMD wird bestimmt keine Vorabinformationen zu den Großkunden geschickt haben. Wie lange dauert nochmal die Entwicklung einer CPU?

dgschrei schrieb:
Was auch sehr schön zu sehen ist: Wieder einmal stellt die ach so verschrieene und doch ach so ineffiziente x86 Architektur wieder einmal einen der größten Supercomputer der

X386 hat vor allem eines, eine breite Unterstützung hinsichtlich der Software. Diese Architektur wird niemals effizient gegenüber den anderen sein, weil sie viel zu viel Altlasten mit sich herumträgt. Außerdem ist sie aufgrund der Herstellungsmasse extrem günstig gegenüber allen anderen Systemen.

dgschrei schrieb:
Welt. Wenn IBMs PowerPC und all die anderen reinen RISC Ansätze so endlos überlegen wären, wäre das wohl nicht der Fall. Denn in diesem Bereich hat man definitiv nicht das Problem dass die Software auf eine Architektur angepasst ist. Hier wird meist das Programm exakt für diesen einen Rechner geschrieben.

Klar, du weißt auch, wie man eine Motorola 68k, PowerPC, MIPS oder SPARC CPU programmiert? Jeder der Ahnung hat, wird dir wiedersprechen.


Wenn man keine Ahnung hat ....

mfg

yc
 
Für alle die hier nach dem Preis gefragt haben das ganze kostet 22,5 Mio € siehe: http://heise.de/-1442632

osf81 schrieb:
Würd gern mal die Sysprofile von Stuttgarts PetaFLOPS-Supercomputer sehen , am besten mit M&M-Bereich.

MfG osf81

Der M&M Bereich würde mich auch interessieren :-)

simpsonsfan schrieb:
Wie sieht das denn mit der Effizienz von Rechnern mit über 1PetaFLOPS aus? Da dürfte der dann doch noch relativ weit vorne stehen, denk ich mal.

...
Da der Rechner keine GPUs hat (die zumindest in Benchmarks und bei bestimmten Berechnungen ein paar TeraFLOPS wenn nicht gar PetaFLOPS bringen und dabei aber um einiges effizienter sind wird er in der Statistik nicht so gut dar-stehen, dafür ist seine Rechenleistung universeller nutzbar.
Fhnx hat dazu schon etwas ausführlicher geschrieben:
Fhnx schrieb:
Nur, dass man nicht jedes x-Beliebige Programm auf einer GPU laufen kann, im Vergleich zu einer CPU (Wobei die auch logischerweise Einschränkungen hat). Deswegen ist diese 'Angeberei' mit den Petaflops nur begrenzt sinnvoll. Viele der Top-Supercomputer haben inzwischen auch GPUs drin, weswegen die eine sehr hohe Effizienz und viele Flops haben.
...

Trokana schrieb:
Kann der auch Windows?:lol:
...
Theoretisch dürfte Windows HPC Server 2008 R2 darauf laufen praktisch wird das aber wohl nie darauf installiert werden, das läuft sowieso auf so-gut wir keinem HPC und wenn es mal auf einem Läufen gelassen wird ist das meist nur für Benchmarks (bestimmt bekommt man dafür etwas von MS).


Early09 schrieb:
Schön zu hören, das nun auch in Deutschland so ein Bolide zur Verfügung steht.

Mich würde eher interessieren, welches Betriebssystem auf dem "Hermit" läuft? Kann ein Betriebssystem denn überhaupt die genannten 113.664 CPU Kerne verwalten und Tasks etc. auf diesem alle Laufen lassen? Weiß außerdem noch jemand ob die "Programme" in C geschrieben sind?
Es läuft auf dem Rechner das Sogenannte "Cray Linux Environment" dabei handelt es sich um ein von CRAY angepasstes SUSE Linux. Organisiert wird das ganze System als Cluster d.h. es Verwaltet nicht ein Betriebssystem alle Kerne sondern auf jedem "Knoten" läuft ein eigenes OS: http://de.wikipedia.org/wiki/Computercluster
 
Jevermeister schrieb:
Dann hat Wolframalpha mir da vorerst Mist ausgespuckt.
Edith: Mit deinem Link kann ich mir mehr Stellen anzeigen lassen, wenn ich es bei mir direkt eingebe nicht - Komisch.

Aber trotzdem ist es nicht möglich, so eine Menge an Bildern abzuspeichern, das sieht man doch auf den ersten Blick.


Soweit ich weiß hab ich keinen Link gepostet. Ich habs lokal mit mathematica ausrechnen lassen und als Textdatei abgespeichert, da mathematica leider meinte, die Ausgabe als html (er schreibts wohl als Bilddatei) mangels RAM nicht möglich ist. Ich hab aber auch nur 6GB drin :D Obendrein wirds Grenzen für JPG bzw. PNG geben, die man bei solchen Ausgaben leicht sprengen kann. Achja, und die Zwischenablage macht bei 3 MB auch dicht...

Abspeichern? Doch, das halt ich für möglich. Allerdings nicht in der Form Datei0000(...)001.png, Datei0000(...)002.png, ... , sondern als Datenbank, komprimiertes Archiv oder in einem speziellen Bewegtbildformat, was evtl. nicht ganz deiner Definition von "abspeichern" genügt.

Es ändert sich ja stets nur ein Pixel, sodass die Differenz zweier Bilder a 6,2 MB entsprechend klein ist (ein ggf. komprimierter Patch via diff ist unter 10 KB groß, und diff ist nicht auf solche Operationen optimiert). Eine gepackte Serie solcher Bilder wiederum ist auch effektiv komprimierbar, da die jeweils geänderte Stelle stets einen Pixel weiter hüpft. Und eine gepackte Serie solcher Serien ist auch prima packbar, da sich die Änderung jeweils um eine Zeile unterscheidet. PHP-Spezis dürfen gerne mal einen Generator für solche Bilder entwerfen, dann probieren wirs aus. Allerdings nicht für die vollen 24^(1920*1080) Bilder :D


Plastikman schrieb:
Jetzt weiß ich auch warum der Rest der Stuttgarter Uni so total runtergekommen ist.
Total überfüllte Hörsäle, miese Auswahl an Kursen, wenn man nicht gerade Maschinenbau studiert.
Totalkastration der Nicht-Naturwissenschaftlichen Fächer etc pp.

Da wurde wohl wirklich das ganze Geld in diesen Mist investriert.
Was bringt einem ein Supercomputer, wenn man vergisst die Studenten auch zu lehren, wie man einen überhaupt vernünftig verwenden könnte.

Für was brauchen denn Geisteswissenschaftler so ein Ding? :evillol:

Übrigens kann ich gleiches von meiner Uni (vergleichbare Größe) behaupten. Nicht aber vom PSI in der Schweiz, an dem ich gestern war. Und die haben Großforschungsanlagen für zusammen vermutlich schon einen kleinen Milliardenbetrag...offenbar denkt dort jemand mit und achtet darauf, dass nicht stellenweise Hui und andernorts Pfui vorzufinden ist. In D juckt das dagegen keine Sau.
22,5 Mio wären hier wie da schlappe 1k€ pro Student - ich für meinen Teil hab schon 5k an Studiengebühren gelatzt. Ich find so ein Teil selbst zur "Verbesserung der Studienbedingungen" sinnvoller als Rundmails gegen Ende des Semesters, wo man von Bib und Teilbib um Anschaffungsvorschläge für neue Bücher angebettelt wird, weil das Geld sonst in einen anderen Topf wandert, wo eben andere Teile der Uni versuchen, es baldmöglichst zu verprassen....
 
Zuletzt bearbeitet:
Kingmuh schrieb:
Kann ich an meinem Rechner zuhause eigentlich irgendwie 24^2073600 berechnen? Exel berechnet maximal 2^223.

Jevermeister schrieb:
Nein. Wenn du mal in Mathe aufgepasst hättest wüsstest du, um welche Dimensionen es sich da handelt....

Das ist kein Problem mit den Rechner "Mathe HP 2.34". Habe die Sharewareversion davon und diese rechnet bis auf ca 1.2 Millionen Stellen.

2^2073600 = 6,29 E624215

Macht ein Q9550 mit links, das Ergebnis erscheint ohne Verzögerung.


Entschuldigung habe mich etwas verguckt, es geht nicht um 2^2073600 sondern um 24^2073600, das ist mit über 2 Millionen Stellen dann doch etwas zuviel. Aber wie bereits gesagt ist es mit den passenden Programm auf einen PC überhaupt kein Problem
 
Zuletzt bearbeitet: (Ergänzung)
ich finde die idee mit dem bild echt interessant.

jedes bild zu erzeugen was es je gab und geben wird (in der auflösung).

aber selbst mit einem algorithmus der "bilder" und sinnlose pixelkombinationen auseinanderhält,
könnte sich niemals jemand alle angucken. aber eine random funktion wäre schon lustig.
 
Zuletzt bearbeitet:
Jetzt weiß ich wo AMD die ganzen Bulldozerprozessoren verbauen konnte :D
Geiles Teil und sicherlich nen großer Schritt für AMD, find ich gut.
 
Fette Leistung.

naja beim core i27 426890K der 2025 rauskommt hab ich die Leistung dann auch :)

Wen man bedenkt vor 15 jahren hatten wir 220 Gflops
vor 20 jahren 23,2 Gflops

Ich hab jetzt CPU ohne OC 140.8 GFLOPS
CPU mit OC 5Ghz N/A
und gpu standart 1405.4 Gflops je karte
bei OC ca 1.600 Gflops je karte

also ca nach 16-18 jahren hatten wir die super computer eingeholt.
allerding hatten die nach der zeit auch ihre leistung schon wider verhundertfacht.
 
Zuletzt bearbeitet:
Das wird aber demnächst abrupt aufhöhren. 1. ist der Desktop tot. In spätestens 10 jahren haben wir alle einen kleinen streamer(Raspberry PI Like) und alles kommt aus der cloud. 2. Sind wir bald an einer stelle wo die leiterbahnen nurnoch wenige atome groß sind. (Bei ivy sind es glaub ich noch 100 atome pro bahn) d.h. spätestens 2025 geht es physikalisch nicht mehr kleiner.
 
@Unikritiker:

1. Wurde der Rechner mit Unimitteln oder extra dafür zugeteilten Geldern finanziert?

2. Selbst WENN die Studenten durch schlechte Stühle etc. schlechter lernen (also mich interesiert bei meiner nicht wie ich sitze solange es kein stock ist), dann ist der Gewinn für die ganze Region u. Land doch enorm. Denke das gleicht sich mehr als aus, auch wenn das eine "unmoralische" und kalte Ansicht ist.

Wäre mal interessant wie es bei ausländischen Privatforschungen ist. Wäre es möglich ist das sogar eine weltweite Investition. Man soll ja über den Teller(Landes)rand hinausschauen :)

@Energiebedarf:

1,5 Megawatt. Sagen wir mal für Nr.1 20 Megawatt. Das wären 4 große Windräder. Sagen wir die wehen nur mit 20% brauchen wir 20 Windräder. Plus die Kosten des Servers könnte man für 1 Milliarde ein absolut umweltfreundlichen Super-Server bauen der verteilt Rechenaufgaben z.B. kostenlos für alle Bürger und Firmen bereitstellt. Genaue Vergabepraxis müsste erarbeitet werden klar. DAS wäre doch mal eine Investition die sich lohnt! Wie stolz wäre ich dann Deutscher zu sein ohne Witz! :eek:

Zum Thema Unendliche Bilder:

GENIALES THEMA :) Bin grad total begeistert. Wie könnte man den Rechenaufwand verringern? Sagen wir mal Auflösung reicht 800*600 und bleiben in Grautönen. Wobei ich denke der größte Rechenaufwänd wäre nicht das Berechnen der Bilder sondern das FILTERN der Inhalte damit man das ganze auch, trotz Verteilung auf Millionen von Menschen, in einer angemessenen Zeit auswerten kann. Da einen schlauen Algorythmus zu ertüfteln, davor hätte ich Respekt. Das wäre ne Aufgabe!

Achja... Kann mir mal einer vergleichbar erklären wieviele Anzahlmöglichkeiten / Petaflop das Verhältnis ist? Also wie lange würde es denn dauern? In Jahren.
 
Entweder habe ich das falsch verstanen, oder:
Dieser Computer hat 1045,000 TeraFLOPS. Die nVidia GeForce GTX 690 soll 6144 TeraFLOPS haben, wenn man sie übertaktet wären das 6300 TeraFLOPS. Das würde ~166 GPUs entsprechen. Wenn man sich 4 davon einbaut, wären das 41.5 Computer. Geht also noch. Nur leider könnte man damit nicht anderes als Hashcat benutzen. ;)

Edit: Ich Idiot habe mich um ein 1000faches verrechnet. Die 690 wird vorraussichtlich nicht 6144 TeraFLOPS, sondern 6144 GigaFLOPS packen.
 
Zuletzt bearbeitet: (Ich bin doof)
An alle, die hier versuchen ihre Rechner an irgendwelche Berechnungsgrenzen zu bringen.
Ich musste ein deutliche Verzögerung feststellen, als ich ein periodisches Rechtecksignal mithilfe einer Fourier-Reihe darstellen wollte. Zuerst habe ich dafür mit Maxima die ersten 1000 Summanden der Reihe berechnen - das hat schon eine Weile gedauert - und dann das Ganze mit GeoGebra graphisch darstellen lassen. Da hing er schon ein Minütchen dran.
 
yummycandy schrieb:
Stimmt, und AMD wird bestimmt keine Vorabinformationen zu den Großkunden geschickt haben. Wie lange dauert nochmal die Entwicklung einer CPU?

Genau und du erzählst mir jetzt dass AMD geplant hatte, dass Bulldozer bei 32nm bei gleicher Leistung die selben Watt aus der Dose zieht, wie die Phenom II 6-Kerner in 45nm. Während der Entwicklung von Bulldozer ist irgendwas schief gegangen und deshalb hat Bulldozer (zumindest in dieser ersten Generation) nicht die Performance/Watt gebracht, die eigentlich zu erwarten wäre.
Es mag ja sein, dass der Bulldozer in dieser hochoptimierten Umgebung sein Muskeln, die er zweifelsohne hat, spielen lassen kann, aber das ändert nichts daran, dass Bulldozer in seiner jetzigen Form ineffizienter als erwartet ist. Oder was denkst du warum AMD momentan vor allem eines immer wieder wiederholt: Die Leistung/Watt soll bei Piledriver steigen.


yummycandy schrieb:
X386 hat vor allem eines, eine breite Unterstützung hinsichtlich der Software. Diese Architektur wird niemals effizient gegenüber den anderen sein, weil sie viel zu viel Altlasten mit sich herumträgt. Außerdem ist sie aufgrund der Herstellungsmasse extrem günstig gegenüber allen anderen Systemen.

Und diese Breite Unterstützung der Software ist auf einem >100.000 Kerne System sowas von egal. Da läuft garantiert kein Office, Photoshop und da es ein wissenschaftlicher Rechner ist auch bestimmt kein Maxon oder Autodesk Rendering Cluster drauf.

Auf diesem Rechner wird hochoptimierte und speziell für den entsprechenden Anwendungsfall entwickelte Software zum Einsatz kommen.

yummycandy schrieb:
Klar, du weißt auch, wie man eine Motorola 68k, PowerPC, MIPS oder SPARC CPU programmiert? Jeder der Ahnung hat, wird dir wiedersprechen.

Weil es ja auch so einen extremen Unterschied macht, ob man nun in x86 oder ARM, oder PowerPC etc pp programmiert. :rolleyes:
Das tut es allenfalls dann, wenn du absolut low level programmierst. In Assembler müsste man tatsächlich Ahnung davon haben wie die Hardware intern funktioniert, welche Befehle es gibt usw.
Aber es programmiert doch keiner komplette Simulationsframeworks in Assembler. Das wäre a) viel zu teuer und b) nahezu unmöglich zu maintainen.
Die wahrscheinlichsten Programmiersprachen hierfür wären wohl entweder C/C++ oder Programmiersprachen die speziell für wissenschaftliche Simulationen konzipiert wurden und auch mit dementsprechenden Features aufwarten können.
Und in diesem Falle ist die Umsetzung auf die jeweilige Architektur eine Sache des Compilers und mehr nicht. Solang ein Compiler für die Architektur da ist, muss man nahezu gar nichts an seinem Code anpassen.



Desertdelphin schrieb:
@Energiebedarf:

1,5 Megawatt. Sagen wir mal für Nr.1 20 Megawatt. Das wären 4 große Windräder. Sagen wir die wehen nur mit 20% brauchen wir 20 Windräder. Plus die Kosten des Servers könnte man für 1 Milliarde ein absolut umweltfreundlichen Super-Server bauen der verteilt Rechenaufgaben z.B. kostenlos für alle Bürger und Firmen bereitstellt. Genaue Vergabepraxis müsste erarbeitet werden klar. DAS wäre doch mal eine Investition die sich lohnt! Wie stolz wäre ich dann Deutscher zu sein ohne Witz! :eek:

Kannst du einfacher und billiger und vor allem sofort haben.
Stichtwort: distributed computing.
Wir haben 20 Millionen Haushalte in Deutschland. Wenn wir davon ausgehen dass in jedem 2. Haushalt ein Rechner steht und dieser im Durchschnitt so viel Leistung hat wie einer dieser Bulldozer Kerne, dann wären mal eben 10 Millionen Prozessorkerne vorhanden die man nutzen könnte, weil der Heimrechner den Großteil der Zeit sowieso nur im Idle rumhängt.
Programme wie Seti@Home und Folding@Home nutzen dieses Prinzip ja heute schon erfolgreich.
Du müsstest also nur noch die Windräder bauen. Und da ist die Politik ja heute schon fleißig dabei ;) .
 
Zuletzt bearbeitet:
dgschrei schrieb:
Netter kleiner Taschenrechner :D
...
Ach und noch ein kleiner Denkanstoß: Die Rechenleistung hier, entspricht gerade mal der Rechenleistung von ~ 276 Radeon HD6970 ^^
Wenn man die Programme einfach so auf GPUs zum laufen bringen würde, könnte man die selbe Leistung mit gerade mal ~ 70 kW erreichen :D
....

Das stimmt so aber nicht.
AMD gibt die HD6970 mit 675 MFLOPs für double precision an, ob sie die auch erreicht ist natürlich fraglich.

Der Hermit erreicht 1,045 PFLOPS => 1.045 TFLOPS => 1.045.000 GFLOPS => 1.045.000.000 MFLOPS

1.045.000.000 MFOPS / 675 MFLOP = 1.548.148
So viele HD6970 bräuchte man also. Keine Ahnung wie du auf die lächerlichen 276 kommst^^
Leistung min: 20 Watt, typisch: 190 Watt, max:250 Watt
Leistung: 190 Watt * 1.548.148 = 294 MWatt

Hermit Leistung: 1,55 Megawatt
Ist also ca 200x Energieeffiziente als die 1,5Mio HD6970 :D

Gruß, Kami
 
Zuletzt bearbeitet:
Zurück
Oben