News Europas schnellster Supercomputer in Jülich

Ähm, mal ganz blöd gefragt:

Wie starte ich diesen Linpack-Test? Bei mir ist die Endung *.ps mit IrfanView verknüpft, aber das kanns natürlich nicht öffnen. :(

MfG David
 
Leute ihr vergesset hier ne kleinigkeit : das sind hoch optimierte Computersysteme auf denen Hochoptimierten (Maschinen) Code zum einsatz kommt. Normale Desktop-Systeme sind das nciht und die verbauten CPU's sind allrounder. Klar sind die um einvielfachses langsamer.
 
Werden solche "Hochleistungsprozessoren" mit Lukü gekühlt oder welche methode ziehen die in betracht ?
 
Ja klar werden die mit Luft/Lüftern gekühlt (es ist im allgemeinen ziemlich laut in Serverräumen). Der Serverraum ist auch nochmal extra klimatisiert. Die Luft wird vorher so gefiltert, dass kein Staubkörnchen in den Serverraum gelangt. Außerdem sind die größenren Serveräume Handgranaten- und Kugelsicher und haben eine eigene Stromversorgung.
 
wie startet man denn nun diese .ps file? ch raffs net, bei mir will der die mit vlc abspeilen Oo

thx for help, cu nicky
 
habe 316 Mflop/s mit meinem venice @ 2,7GHz
 
Das der Java-Linpack Benchmark nicht stimmt, ist dir schon klar oder? :rolleyes:
Nimms mal zwölf, dann kommts hin (siehe #9).
 
Ycon schrieb:
45.8 TFlops = 45.8 Billionen Fließkomma-Operationen pro Sekunde
Wieviele CPUs sind denn da enthalten?
...
2048 CPUs sind da drinnnnnnne
 
Zuletzt bearbeitet:
Bitpower schrieb:
Die Linpack Tests werden normalerweise mit nativem Code ausgeführt. :rolleyes:
Logo - die Ergebnisse stimmen ja nicht mal ansatzweise. Trotzdem witzig. Würde mich nicht wundern, wenn es hier in Kürze einen Sammelfred zum Linpark-Java-Dingen-Bench gibt. Ist mal was anderes... und der Futuremark ist sowieso nur noch 'ne Diashow :lol: Vielleicht sollte man mal nen Superrechner mit dem 2006er befassen - vielleicht kriegt der das Teil mal ruckelfrei zum Laufen. :evillol:
 
glaubt ihr, dass auf so einem superrechner Windows Vista vernünftig laufen wird? Ich meine so eine Aero-Glas Oberflächte frisst bestimmt ganz schön...
 
@20) Da es keine spezialisierten Bereiche in den CPU chips in nem Supercomputer gibt müssten alle Effekte und alle erleichterden Prozesse in GraKas emuliert werden ... man kann davon ausgehen ,dass eine Emulierung der Prozesse ungefähr das 10.000 fache an Leistung braucht somit hat solch ein Supercomputer ungefähr die Grafikleistung einer Radeon 9800 pro ... wenn nicht weniger.

Allerdings nur theoretisch ,da ein Supercomputer aus so vielen Chips (16384) ungefähr 50-70% seiner Rechenzeit einzig auf die Verteilung der Rechenoperationen auf die verschiedenen CPUs verschwendet und diese Leistung somit einfach verloren geht.

Ciao
GraNak
 
europas schnellster supercomputer in jülich.....erinnert mich doch irgendwie an das riesenteil aus dem film "23" :D
 
@GraNak

Und weil ich zwei 7800GTX im SLI Verbund fahre hat KFJ schon bei mir angefragt ob ich ihnen meine überlegene Rechenleistung nicht vermieten kann.
Da ich aber viel spiele habe ich ihnen stattdessen meine ausgediehnte 9800pro geschick. Die freuen sich jetzt riesig ;-)
 
@gizeh
du kannst doch ne GPU nicht mit ner CPU vergleichen :rolleyes:
das zeug wird alles emuliert
wenn du auf deiner 9800pro die berechnungen die auf dem supercomputer laufen emulieren würdest, dann wäre sie warscheinlich langsamer, als n 486er :freak:
 
kennyalive schrieb:
@gizeh
du kannst doch ne GPU nicht mit ner CPU vergleichen :rolleyes:
das zeug wird alles emuliert
wenn du auf deiner 9800pro die berechnungen die auf dem supercomputer laufen emulieren würdest, dann wäre sie warscheinlich langsamer, als n 486er :freak:

Ich vergleiche nicht eine GPU mit einer CPU. Es ist aber nicht richtig das eine GPU 10.000 mal schneller rechnet, auch nicht auf ihrem Spezialgebiet. 10 - 50 mal schneller könnte hinkommen. Es gibt etliche Projekte die versuchen die Vorteile einer Graka für Mathematische Probleme nutzbar zu machen. Also die GPU rechnen zu lassen statt die CPU, um Aufgaben aus der Analytischen Geometrie etc. zu berechnen. Die kommen allerdings nur auf einen Faktor von 1,2 - 1,5. Das Problem ist die sehr viel höhere Genauigkeit die gefordert werden muss. Grafikkarten rechnen üblicher Weise mit 32 Bit (4 Byte). Bei mathematischen Anwendungen werden aber Mantissen mit höherer genauigkeit benötigt, desshalb wird dort mit 8 oder 10 Byte gerechnet. Das zwingt die Grakas mehrere Durchläufe zu machen. Dabei verlieren sie einen grossen Teil ihrer Performance den sie, zum grossen Teil, ihrer Ungenauigkeit zu verdanken haben. Schliesslich ist auf dem Bildschirm der Unterschied von halben oder gar viertel Pixeln nicht darstellbar. Also wird auf diese Genauigkeit verzichtet. Das vergessen viele hier.
Ich habe mal ein 3d-Programm geschrieben (für CPU, damals gab es noch keine 3D Karten) das sich genau diesen Umstand zu nutze gemacht hat. Ich habe eigene weniger genaue Funktion für Sinus, Cosinus und Tangens geschrieben. Das Ziel war dadurch die Grafigausgabe zu beschleunigen. Das hat auch funktioniert solang man damit nur die Ausgaben auf dem Bildschirm zaubern wollte. Für exakte Berechnungen waren die Funktionen nicht zu gebrauchen.
 
gizeh schrieb:
... Schliesslich ist auf dem Bildschirm der Unterschied von halben oder gar viertel Pixeln nicht darstellbar. Also wird auf diese Genauigkeit verzichtet. ....
1. ist diesder Unterschied sehr wohl sichtbar und 2. wird darauf nicht verzichtet, das nennt sich dann schlicht SuperSampling und MultiSampling.

Dass Grafikkarten ihre Leistung nur der Ungenauigkeit verdanken würden ist nun auch Quatsch, auch wenn ich auf einem Prozessor exakt gleich genau wie die Grafikkarte rechne ist die Grafikkarte massivst überlegen - in ihrem Aufgabenbereich. Dass ich bei CAD oft aber RayTracing verwende und bisher nur Rasterisierung-Grafikkarten gebaut werden ist was anderes, das bedeutet noch lange nicht eine echte Raytracingkarte wäre genauso lahm, wie die CPU beim RayTracing - die technische Machbarkeit belegt OpenRT.
 
Zurück
Oben