News IBM stellt Blue Gene/W Supercomputer vor

Tommy

Chef-Optimist
Teammitglied
Registriert
März 2001
Beiträge
8.193
IBM hat die Inbetriebnahme des größten von einem Unternehmen - nämlich IBM selbst - genutzten Supercomputers bekannt gegeben. Im Thomas Watson Forschungszentrum von IBM in Yorktown Heights (New York) erzielte der „Blue Gene Watson“ (BGW) getaufte Supercomputer beim Linpack-Benchmark eine Leistung von 91,29 TeraFlop/s.

Zur News: IBM stellt Blue Gene/W Supercomputer vor
 
Ich kann leider mit der Leistung 135,5 TFLOPs relativ wenig anfangen. Ich kann mir unter der Zahl 135,5 TFLOPs genauso wenig vorstellen wie unter der Angabe 1 Astronomische Einheit ist 1,49597870691 × 10^8 km ... auch der Vergleich zu den aktuellen Supercomputern hilft mir nicht sonderlich.
Hat jemand ein Beispiel/Vergleich womit das menschliche Gehirn die Dimensionen oder die Leistungsfähigkeit abschätzen kann?
 
Enigmas Frage find ich berechtigt, weil ich micht nämlich anschließe :D

Aber wenn man bedenkt, dass die Playstation3 gerademal auf ~1,3 TeraFlops kommt und sie schneller ist als aktuelle PCs, dann fallen mir gleich die Augen aus dem Kopf :lol:

Sind die Berechnungen für die Klimaforschung etc. denn wirklich so umfangreich, dass dort soviel Power gebraucht wird (ist ja ein Teil wofür die Supercompis arbeiten) ?

Bye
 
Was mit dieser Leistung für Games möglich wären...*träum*

Aber ich frag mich wozu man so viel Leistung braucht, was is denn so intensiv dass es so viel Power braucht. :freak:
 
Daß man die Leistung des menschlichen Gehirns überhaupt in FLOPS angibt, halte ich für ScienceFiction. Vielleicht sogar nur Fiction...
Dazu ist es wahrscheinlich viel zu konfus. Und das is durchaus ernst gemeint! :)
 
@Lenny
1 Teraflop/s = 1 Billion Rechenoperationen pro Sekunde
Die Klimaberechungen sind äußerst umfangreich. Am Beispiel vom Wetter, wofür auch hohe Rechenleistungen benötigt werden, kann man das sehr schön nachvollziehen. Stell dir die Erde aufgeklappt als Karte vor. Über diese Karte wird ein Gitternetz gespannt (seit 2003 wird das Modell T511L60 verwendet mit 768*1536 Gitterpunkten pro Ebene und das bei 60 Ebenen da das Wetter dreidimensional ist).
Am Äquator bedeutet das einen Gitterpunktabstand von 26 km. Insgesamt gibt es also 768*1536*60=70.778.880 Gitterpunkte, für die jeweils mehrere Rechenoperationen (beispielsweise 100) durchgeführt werden müssen um das Wetter für einen bestimmten Zeitraum vorherzusagen. Also fallen 7.077.888.000 Rechnungen an, um das Wetter vorherzusagen wie es z.B. in 5 Minuten ist. Nun muß ich mit den neuen Daten wieder diese Rechnungen für alle Punkte durchführen um das Wetter in 10 Minuten vorherzusagen und so weiter. Da in Deutschland vorgeschrieben ist, dass zweimal am Tag das Wetter berechnet werden muss, bleiben für die Berechnungen nur wenige Stunden (die Daten müssen ja erst gesammelt, in das System eingegeben und aufbereitet werden). Wenn du dir die Wettervorhersage anschaust, bekommst du meistens einen Überblick über die nächsten drei Tage. Da fallen eine ganze Menge Rechenoperationen an. Hoffe das macht das alles etwas verständlicher. Klimaberechnungen sind noch viel umfangreicher, also wird auch mehr Rechenleistung benötigt. Andere Anwendungsgebiete von Hochleistungsrechnern sind z.B. Strömungsprobleme, Molekülstrukturen, Umweltprobleme, Entwicklung von Galaxien, Gentechnikprobleme, Flugkörperoptimierung, Crash-Test-Simulation, etc.


MfG

square
 
Zuletzt bearbeitet:
Weis jemand ob der auch für's WorlCommunityGrid arbeiten wird?

btw: Linpack-Benchmark... ma guckn ob man den sich irgendwo ziehen kann, bzw. ob der auch auf normalen Systemen läuft ;)


edit: mh, hab den Fortran und den C-Code gefunden (ma guckn ob ich den C compiliert bekomm), allerdings auch ne Java-Variante die bereits im Browser lauffähig war. Dort hab ich 137,6 MFlops erreicht, allerdings bin ich mir nicht so ganz sicher ob das so richtig ist, denn die Website kam mir vor als ob sie in diesem jahrtausend noch ned 1x aktualisiert wurde ^^
 
Zuletzt bearbeitet:
na wunderbar, hier wurden ja jetzt einige fragen angesprochen die sich mir schon die ganze zeit stellen.

was machen supercomputer?
wie hoch ist die rechenleistung einzuschätzen?

und weitere fragen :)


ist es technologisch gesehen denn heutzutage möglich mit einem supercomputer das menschliche gehirn zu simulieren? wenn ja oder auch nein, wo wäre denn dabei der sinn? was könnte man rausfinden?
 
@9:
wenn man davon ausgeht, dass sich die rechenleistung ca. alle 1,5 jahre verdoppelt, wird es noch etwa 10 jahre (über den daumen) dauern, bis die leistung des menschlichen hirn's simuliert werden könnte. :D
 
cerealnick schrieb:
na wunderbar, hier wurden ja jetzt einige fragen angesprochen die sich mir schon die ganze zeit stellen.

was machen supercomputer?
wie hoch ist die rechenleistung einzuschätzen?

und weitere fragen :)


ist es technologisch gesehen denn heutzutage möglich mit einem supercomputer das menschliche gehirn zu simulieren? wenn ja oder auch nein, wo wäre denn dabei der sinn? was könnte man rausfinden?

Anwendungsmöglichekeiten:
1. komplexe Proteinfaltuingsstrukturen berechnen mit allem was da zugehört H-Brücken, EA, usw.
2. Gen.Code in aufschlüsseln (nicht der Kram der das Human Genon Project gemacht hat, das war erst der Anfang und ist noch nicht zu gebrauchen (Junk-DNS und HR-Sequenzen müssen noch raus, etc, sehr rechenaufwendig, z.B. Wunsch-Needleman Algorithmus)
3. Hirn Simulieren, Versuch wie sich z.B. Op's auf das Hirn des Patienten auswirken ohne ihn aufzumachen.
4. Crashtest (macht man schon heute nur dann sind die genauer)
5. Physiksimus
6. Wetter
7. Universum (Ausdehnung, etc.)
8. Frauen :D
9. ...


Es gibt immer noch genug berechenbare Probleme, die sich auch nicht mit den schnellsten Computern in 50-60 Jahren in akzeptabler Zeit berechnen lassen, z.B. die n-te Potenz einer n-ten Potenz für genügend große n's.
 
Zuletzt bearbeitet:
interesseng.. da bleibt ja noch einiges zu tun. packen wirs an :freak:


:)
 
GnumbSkull schrieb:
@9:
wenn man davon ausgeht, dass sich die rechenleistung ca. alle 1,5 jahre verdoppelt, wird es noch etwa 10 jahre (über den daumen) dauern, bis die leistung des menschlichen hirn's simuliert werden könnte. :D

... halte ich für ein Gerücht - das menschliche Gehirn ist eine Art höchstleistungsfähiges neuronales Netz, dessen Leistungsfähigkeit - IMHO - niemals von irgendwelchen technischen Errungenschaften erreicht geschweige denn übertroffen werden wird.
Aber wie gesagt IMHO ...
 
Gauder schrieb:
Um das menschliche Gehirn zu simulieren sind ca. 10.000 - 15.000 TFLOPS nötig; also noch "etwas" mehr, als die schnellsten Supercomputer ;)

Ansonsten ist auch hier wieder Wikipedia sehr zu empfehlen: http://de.wikipedia.org/wiki/FLOPS :)


:freak:

genial... dann würde auf mir also z.B. Quake 3 oder gar Doom3 auf Software flüssig laufen?


Dauern wird das ja dann noch was. Mal sehen was es an Technik gibt, wenn dann Gehirne simuliert werden können ;)


Gruß
Mortiss
 
Enigma schrieb:
Ich kann leider mit der Leistung 135,5 TFLOPs relativ wenig anfangen. Ich kann mir unter der Zahl 135,5 TFLOPs genauso wenig vorstellen wie unter der Angabe 1 Astronomische Einheit ist 1,49597870691 × 10^8 km ... auch der Vergleich zu den aktuellen Supercomputern hilft mir nicht sonderlich.
Hat jemand ein Beispiel/Vergleich womit das menschliche Gehirn die Dimensionen oder die Leistungsfähigkeit abschätzen kann?

135,5 Tflops = 67,75mal PS3 = Spielen in Einer Auflösung von 14885976x7051251 Pixel (=ca140,5 Meapixel!)!

Ehrlich gesagt finde ich diesen Computer nicht sonderlich beeindruckend, denn dieses Projekt hängt eher vom Geld als von der Technik ab! Mit 1mrd € könnte man leicht einen 10mal so schnellen Computer bauen, man muss ja immer nur Prozessoren hinzufügen!
Deswegen finde ich systheme wie die PS3 mit 2Tflops technisch viel bewundernswerter!


PS: Bin mal gespannt, ob die PS3 wirklich in die Topp 500 aufgenommen wird!
Edit: sie müsste irgendwo zwischen Platz 95 und 125 sein!
 
Zuletzt bearbeitet:
Ist schon bemerkenswert, was man mit so einem Computermonstrum alles berechnen lassen kann.

Ich selbst stelle die Rechenleistung meiner 2 Rechner der Wissenschaft zur Verfügung. mit der Software BOINC (http://boinc.berkeley.edu/)

Aber diese Supercomputer sind extrem wichtig, denn auch wenn vieles schon berechnet wurde, es geht immer noch ein stückchen genauer
 
Mit 1mrd € könnte man leicht einen 10mal so schnellen Computer bauen, man muss ja immer nur Prozessoren hinzufügen!

Falsch.
Mit immer mehr Prozessoren wird auch der Overhead immer größer und irgendwann kosten neue Prozessoren mehr Leistung als sie bringen. Des weiteren muss die Architektur von vornherrein auf diese Anzahl der Prozessoren ausgelegt werden.
Und das teure, das muss mal gesagt werden, da jeder denkt das ein Supercomputer nur aus Hardware besteht, sind die Folgekosten eines Supercomputers. Das Personal ist sauteuer, die Software die such das ganze Teil verwaltet (komm mir jetzt keiner mit Linux, es ist zwar umsonst aber setzt das mal auf eine Multiskalare Architektur, da braucht ihr locker mehr als 4000 Mann-Arbeitsjahre (zum vgl. Solaris 10 hat in der Entwicklung so lange gebraucht).
Alles in allem machen die Hardwarekosten maximal 10% des Gesamtbudgets aus.
Am teuersten sind die Experten die das Teil entwickeln, Aufbauen, Warten und Pflegen.
Da verschwindet das ganze Geld hin.
Also die Kosten verhalten sich zu Rechenleistung zumindest exponential.
 
Zuletzt bearbeitet:
Trotzdem kann man mit 1mrd sicher einen schnelleren computer bauen, Entwicklungskosten eingerechnet. Aber Punkt ist ja, dass das genze wohl eher ein Prestigeprojekt ist, denn die mehr als 100tflops Leistung sind nur ein theoretisches Benchmarkergebnis und geben nicht unbedingt auskunft, wie brauchbar der Computer wirklich ist!
 
@15)
Die PS3 wird niemals dort aufgenommen!! denn die 1,...TFLOPS sind eher theoretischer Natur und setzt sich aus der Rechenleistung der CPU und der GPU zusammen. Die CPU hat allerdings um die 300MFLOPS, wenn mich nicht alles täuscht, da war mal eine News-Meldung.
Die GPU hat annähernd 1TFLOP, doch ist die GPU ein Prozessor, der nur auf eine Aufgabe ausgelegt ist (Grafik darstellen) Also kann man keinen Linpack-Benchmark laufen lassen, der dann 1,...TFLOPS ausgibt.

Und diese Supercomputer sind schon beeindruckend, finde ich, denn die Technik dahinter ist so genial. Was nützt die 1Mrd. Dollar, wenn du die 1Mio Prozzis nicht so miteinander verbinden kannst, dass sie effektiv parallel arbeiten, warscheinlich stellst du es dir etwas zu einfach vor, so eine Anzahl an Prozessoren zu verschalten.

Man sieht doch jetzt im PC-Bereich, wie schwierig es offenbar ist, 2 CPU's effektiv zusammen arbeiten zu lassen. Die Betonung liegt auf effektiv.
 
@4

ja ist wirklcih so anspruchsvoll da das klima sehr leciht zu beeinflussen ist und sehr komplex ist...

oder die infach antwort:
warum sollten sie so dinger bauen wenn sie sie net brauchen?
 
Zurück
Oben