Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtNvidia Hopper: H100 treibt KI-Supercomputer im ExaFLOPS-Zeitalter an
Benannt nach der Informatikerin Grace Hopper, ist Hopper Nvidias nächste GPU-Architektur, die neue Herausforderungen im Datacenter meistern soll. Eine neue Transformer Engine kann entsprechende Deep-Learning-Architekturen beschleunigen. H100 ist die erste Hopper-GPU, die ExaFLOPS-Leistung zum Standard machen soll.
Immer wieder und weiterhin verrückt, welche Kracher da nachgeschoben werden.
Technik von vor nicht mal 5 Jahren wirkt einfach schon komplett überholt bei solchen Angaben und noch viel verrückter, in weiteren 5 wird auch Hopper nur noch ein müdes Lächeln sein.
Ich bin erstaunt, dass es hier noch Bilder (Renders?) von Karten mit Luftkühlung gibt... bei 700W hätte ich gedacht, dass das nurnoch mit Wasser geht.
Die Leistungsaufnahme von so einem Modul mit 8 Karten dürfte ja locker 6kW überschreiten, die restlichen Komponenten wollen schließlich auch Strom.
Ich würde sehr gerne mal Bilder von einem offenen DGX H100 sehen.
Ich bin erstaunt, dass es hier noch Bilder (Renders?) von Karten mit Luftkühlung gibt... bei 700W hätte ich gedacht, dass das nurnoch mit Wasser geht.
Die Leistungsaufnahme von so einem Modul mit 8 Karten dürfte ja locker 6kW überschreiten, die restlichen Komponenten wollen schließlich auch Strom.
Ich würde sehr gerne mal Bilder von einem offenen DGX H100 sehen.
Mit Luftkühlung (bzw eigentlich eher mit VaporChamber, denn mit Luft wird ja in jedem Fall gekühlt) geht das, weil die Chipgröße wahrscheinlich wieder enorm sein und auf Lautstärke gepfiffen wird.
Mit Heatpipes ginge das aber auch sicherlich aus dem gleichen Grund.
Besonders blöde daran, dass (im "Referenzdesign") nicht mit Flüssigkühlung gearbeitet wird ist halt der Umstand, dass die Abwärme ungenutzt verpufft. Das bringt immer ein großes Gefühl von Verschwendung mit sich.
And this is not the time to wonder
And this is not the time to cry
And this is not the time to sleep while we fight
And this is not the time to die
And this is not the time to wonder
'Cause this is just a time to fear
Don't worry about the meaning don't worry 'bout the world
It's the question how to see clear
Die im Artikel genannten TFLOPS beziehen sich auf die Tensor Leistung und nicht die Vector Leistung, dass nur am Rande.
Bin gespannt ob bei der Vector Leistung auch wieder 25% Steigerung drin sind, wie beim letzten Sprung oder ob da langsam die Grenzen erreicht sind. Zumal ja auch geschaut werden muss, was da durch Clockspeed oder weitere Kerne dazu kommt und was die Architektur bringt.
Wird auch spannend ob die neuen DPX Instruktionen ihren Weg zu Lovelace finden und damit CUDA nochmal mächtiger wird.
In Zeiten wie diesen, kann man Menschlichkeit gar nicht oft genug teilen und wertschätzen.
Ist daher auch letztens bei einem Benefiz-Konzert für die Ukraine angestimmt worden. 👍
In Rechenzentren ist es ja meistens klimatisiert und dann gibt es ja ganz andere Belüftungssysteme. Natürlich deutlich lauter, aber da können auch noch ganz andere Wattzahlen gekühlt werden.
@nlr mal ne Frage zu dem (Super)Pod der mittela NVSwirch verbunden ist.
Ist das dann eine große SNMP Maschine? Also so wie die SGI Kisten früher? Mir ist das aus der Präsentation leider nicht klar geworden. Wenn! Ja, dann wäre das ein richtig großes Ding. Ich habe aber irgendwie das Gefühl, das man da eher in die Richtung von PGAS geht. Aber wie gesagt völlig unklar leider...
Könnt ihr da noch ein paar Infos sammeln?
Und btw gab es etwas in Zusammenhang mit dem Bright Clustermanager?
Die letzten paar Jahre geht die Entwicklung so extrem schnell! Das ist schon gigantisch
Damals zur Zeit von der 8800 gtx zur nächsten gen, waren die Sprünge eher so mäh aber jetzt ist es einfach nur der Wahnsinn!
Gefühlt bekommt man alle zwei Generationen einfach die doppelte Leistung. Jetzt nur noch am stromhunger basteln