Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsHunter & Herder: Deutscher Supercomputer setzt auch auf AMD Instinct MI300A
Die Universität Stuttgart und Hewlett Packard Enterprise (HPE) haben heute die Installation von zwei neuen Supercomputern am Höchstleistungsrechenzentrum Stuttgart (HLRS) angekündigt. Vor allem mit dem zweiten System strebt Deutschland einen zweiten Exascale-Supercomputer nach Jupiter an.
So etwas wie "genug Rechenleistung" gibt es nicht. Umso schöner, wenn nicht nur Leistung zugebaut, sondern dabei auch ein Hersteller berücksichtigt wird, der mit seinen Instinct-Produkten gerade einen guten Auftritt hatte
Die Roadmap mit den Namen hatte das HRLS sogar 2022 schon herausgegeben. Damals natürlich noch ohne Details welche Komponenten verwendet werden. Interessant ist auch Hammer für 2032, was dem Namen nach, ja eigentlich ein AMD-System werden muss.
Hier war der Hunter noch für 2024 vorgesehen. Wie kommt es, dass er jetzt auf 2025 verschoben wurde? MI300A ist doch verfügbar. Oder verfügbar aber bis Ende 2024 schon ausgebucht/vorbestellt? Oder wie kommt es zu der Verschiebung?
Jupiter kostet deutlich mehr als 250 Millionen. Alleine die öffentlichen Fördermittel sind schon 500 Millionen:
Und da die öffentliche Hand das Projekt Jupiter massiv unterstützt, muss dies auch so sein: 250 Millionen Euro werden von der europäischen Supercomputing-Initiative EuroHPC JU und 250 Millionen Euro zu gleichen Teilen vom Bundesministerium für Bildung und Forschung (BMBF) und dem Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen (MKW NRW) getragen.
Wo genau und in welcher Gößenordnung? Die FP64 HPC-Leistung ist scheinbar vergleichbar (ExaFLOPs).
Was die FP16/FP8 Genauigkeit, KI-Leistung etc. betrifft, hat MI300(A) gegenüber MI250 massiv aufgeholt und dürfte in die Nähe von GH200 kommen. Auf den ersten Blick erschließen sich mir nicht die über 4-fachen Kosten, abseits vom Gewinnstreben Nvidias.
Edit:
Wenn man für 39 PetaFLOPs (vermtl. FP64) lediglich 136 HPE Cray EX4000-Knoten mit jeweile 4 x MI300A, sprich ingesamt 544 MI300A benötigt, braucht es ingesamt min. rund 14.300 MI300A Beschleuniger um 1 ExaFLOPs zu erreichen. Im Jupiter sind dagegen 23.752 GH200 vorgesehen. Damit dürfte Jupiter (mit Nvidia) dann tatsächlich bei der KI-Leistung vorne liegen, da AMD Instinct überproportional gute FP64 Leistung bietet und daher zwansgläufig weniger MI300A Beschleuniger in Herder zu finden sein werden als GH200 in Juptier. Bei der (HPC)Effizienz dürfte Herder jedoch Jupiter geradezu deklassieren. Wobei El Capitan dem Ganzen noch zuvorkommen wird.
Die HPE Cray EX4000 ist kein Knoten sondern ein Cabinet in das 64 blades passen
siehe Seite 2
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Die Dinger stehen da wo die Leute sind um die zu nutzen - und zu pflegen. In Deutschland an Hochschulen, genau wie in den USA und China. Dort hat man zusätzlich eben noch militärische Geräte, pardon, "für energietechnische Anwendungen".
Wenn Du die Abwärme nutzen möchtest - gibt einen ganzen Campus zu beheizen. Davon abgesehen ist die Region Stuttgart bei erneuerbaren Energien jetzt auch nicht ganz abgeschlagen...
Äh gerade Server und IT Systeme kann man doch problemlos remote nutzen.
Darauf basiert z.B. vermutlich 90% des Homeoffices.
Die Nutzer der Software sind sicher nicht deckungsgleich mit den HW Pflegern.
Bei Hetzner kostet der Storm in D das DOPPELTE im Vergleich zu Finnland - auch da wird doch niemand der einen neuen Server mietet und das aus irgendwechen Gründen muss, das in Deustchland machen selbst wenn er ihn dafür vom Inhalt her für Deutschland nutzt.
Solche Serverfarmen insbesondere AI/KI Farmen verbraten nunmal massig Strom rund um die Uhr auch wenn er oft superknapp ist in D im Winter - hier aus falschem nationalen Stolz Steuergelder der Bürger ohne Mehrwert zu verbraten wenn es nicht sein muss ist halt die falsche Einstellung.
Die Anzahl der Knoten steigt halt - von der Architektur her gewünscht möglichst exponentiell - der Stromverbauch der einzelnen KI Units sinkt aber sicher eher doch nur linear.
Hört sich alles ziemlich spannend an. Wir stehen hier gefühlt am Anfang einer neuen technischen Revolution. Immer gut zu hören, wenn auch deutsche Institute und Unternehmen ernsthaften Gebrauch von moderner IT-Technik machen. Gerade in dieser Beziehung hinkt Deutschland im internationalen Vergleich meilenweit hinterher. Das gilt auch für Europa im Gesamten. Ich bin ein absoluter Verfechter dafür, dass die EU ein bedeutender Technologiestandort in der Welt sein muss. Ansonsten werden wir über kurz oder lang unsere Souveränität und Unabhängigkeit verlieren. Und andere Weltmächte werden uns diktieren, was wir zu denken und zu tun haben.
Wer in einigen Jahren nicht Strom im Bereich von ~ 5 oder 10 oder 50 Kraftwerke hat die im Prinzip nur dafür 24/7 durchbollern der ist doch eh schon abgeschlagen - der kann nicht an der Spitze mithalten.
Denn die praktische Anwendung von AI und KI ist halt vor allem Masse an Energienutzung und weniger Klasse - ist einfach so.
Ausser man würde die AI/KI komplett ganz neu anders aufziehen - was aber doch extremst unwahrscheinlich ist weil das Prinzip der "Neuronenzahl" halt das Kernelement ist.
Ein trainiertes AI Netz mit 100 Milliarden Neuronen ist halt mit aller Wahrscheinlichkeit vor allem wenn es um universelle Intelligenz geht einem mit 10 Mrd haushoch überlegen. und eins mit 1 Billion dann sehr sehr vermutlich wieder....
Ein Hardcore Gamer der ein Netzteil mit 500W hat kann halt auch nicht die schnellste 4k oder 8k Maschine haben.
Wenn du auch ein Bündel Glasfaser zwischen den Standorten legst geht das sicher, dann braucht es nur noch ein paar Leute vor Ort die daran rumbasteln wenn nötig und für die Forschung an der Hardware gibts dann ggf. mehr Dienstreisen. Nach Skandinavien kommt man wenigstens auch ganz gut mit Auto, da muss man nicht fliegen. Dauert dann eben länger.
Ich denke mal dass das üblicherweise vor Ort an der Uni gebaut wird liegt auch daran dass die Nutzer ungern jedes mal einen Stapel SSDs per Kurier verschicken wollen wenn größere Datenmengen auf den Cluster geschoben werden müssen. Jetzt sind die Wege kurz, die Anbindung entsprechend günstig und eher ziemlich schnell im Vergleich zu Internet.
Und je nachdem ob und wie Forschung an der Hardware betrieben wird ist es ungünstig wenn diejenigen nicht 'mal kurz' rübergehen können um Hand anzulegen.
Ein Universitätscluster ist kein typischer (Web- oder Anwendungs-)Server.