Nvidia GB200 und DGX B200: Microsoft und OpenAI zeigen die ersten Blackwell-Systeme

Nicolas La Rocco
28 Kommentare
Nvidia GB200 und DGX B200: Microsoft und OpenAI zeigen die ersten Blackwell-Systeme
Bild: OpenAI

Die ersten Abnehmer von Nvidia Blackwell sind Microsoft und OpenAI, die den Empfang entsprechender AI-Systeme direkt in den sozialen Medien geteilt haben. Microsoft hat die Kombilösung GB200 im Einsatz, während OpenAI ein DGX B200 erhalten hat. Unterdessen will Foxconn die weltweit größte Fertigungsanlage für Blackwell bauen.

Spätestens seit Bekanntgabe Nvidias letzter Quartalszahlen Ende August schauen Börsenanalysten und Marktbeobachter ganz genau auf die Auslieferung von AI-Systemen auf Basis von Nvidias neuer Blackwell-Architektur, die das Unternehmen zur Hausmesse GTC im März vorgestellt hat. Denn im Vorfeld der Ergebnisse waren Gerüchte um Probleme mit dem Design und potenzielle Verschiebungen aufgekommen.

Belichtungsmaske für Blackwell angepasst

Nvidias Chief Financial Officer Colette Kress kommentierte die Quartalszahlen mit einer Veränderung der Belichtungsmaske für Blackwell, um die Ausbeute (Yield) zu steigern. Die Produktion soll im vierten Quartal hochgefahren werden und für einen Milliardenumsatz sorgen. Laut CEO Jensen Huang habe sich rein funktional aber nichts an der Blackwell-GPU verändert. „Blackwell production ramp is scheduled to begin in the fourth quarter and continue into fiscal 2026“, hieß es im August. Für Blackwell sieht Nvidia eine „incredible“ Nachfrage und wollte Samples noch im selben Monat an Partner verschicken.

Auch Oracle plant Großes mit Blackwell

Diese Samples respektive lauffähige AI-Systeme mit den neuen Beschleunigern sind jetzt bei Microsoft und OpenAI eingetroffen – zumindest haben die beiden Unternehmen deren Erhalt mit Beiträgen und Fotos auf X öffentlich gemacht. Ein Supercluster mit 131.072 Nvidia B200 und ein weiteres mit über 100.000 GB200 will unter anderem aber auch Oracle aufbauen, dort hat man bislang aber keine Fotos erster Lösungen veröffentlicht.

Microsoft zeigt GB200 im Einsatz

Microsoft verkündet auf X, dass Azure die weltweit erste Cloud mit einem AI-Server auf Basis des GB200 sei. Die von Nvidia GB200 Grace Blackwell Superchip getaufte Lösung vereint auf einem Board zwei B200-GPUs mit einer Grace-CPU, sodass beim Maximalausbau pro Rack 72 B200-GPUs (mit 144 Dies) und 36 Grace-CPUs zur Verfügung gestellt werden. Dort stehen dann insgesamt 6,75 TB HBM3e aufseiten der GPUs und zusätzlich über die CPUs insgesamt 16,875 TB LPDDR5X parat.

Kühlung nimmt Großteil des Racks ein

In dem von Microsoft veröffentlichten Foto sind im Compute-Rack auf der linken Seite acht Compute-Trays zu sehen, sodass (vorerst) 16 GPUs und 8 CPUs in dem System zum Einsatz kommen dürften. Die breitere rechte Seite des Aufbaus widmet sich vollständig der Kühlung, wie der große Wärmetauscher der flüssiggekühlten Lösung zeigt.

OpenAI zeigt DGX B200 auf Palette

OpenAI wiederum zeigt ein auf Palette geliefertes DGX B200, das acht B200-GPUs im SXM6-Format mit zwei Intel Xeon Platinum 8570 und bis zu 4 TB RAM kombiniert. Ein DGX B200 kommt laut Nvidia auf einen Verbrauch von maximal 14,3 kW.

Entsprechende Fotos haben Tradition bei OpenAI, so gab es im April dieses Jahres auch das weltweit erste DGX H200 auf einer Palette zu sehen – mit Jensen Huang und seiner Signatur auf dem Server. Und bereits 2016 ging das allererste DGX-1 (mit Pascal-GPUs) ebenfalls mit Unterschrift von Huang an OpenAI.

Foxconn baut größte Blackwell-Produktionsstätte

Um die Verfügbarkeit von Blackwell zu steigern und die immer wieder propagierte immense Nachfrage zu befriedigen, will Foxconn in Mexiko die weltweit größte Produktionsstätte für GB200 (also der 2-GPU-1-CPU-Lösung) errichten. „We're building the largest GB200 production facility on the planet“, sagte Foxconns SVP Benjamin Ting gegenüber Reuters. Laut mexikanischer Regierung soll das Werk bei Guadalajara im Bundesstaat Jalisco entstehen. Auch bei Foxconn heißt es, dass die Nachfrage nach Blackwell „very, very enormous“ sei.

Die Chips als solche werden laut Nvidias CEO Jensen Huang inzwischen in Serie gefertigt, die Nachfrage danach sei „verrückt“.