Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsFür das Metaversum: Metas KI-Supercomputer setzt auf 16.000 Nvidia-GPUs
Um das Metaversum zu erschaffen, baut Meta einen neuen KI-Supercomputer, der bei Fertigstellung 16.000 A100-GPUs von Nvidia nutzen soll, um Rechenaufgaben und Modelle zu verarbeiten. Der Supercomputer trägt den Name „AI Research SuperCluster“ (RSC) und soll Metas aktuellen Supercomputer auf V100-Basis um das 20-fache schlagen.
Ziemlich beeindruckende Zahlen. Aber woher will NV die ganzen Chips herzaubern? Da so ein Deal zwar schon weit vorraus geplant wird ist sicher schon einiges gelagert. Aber 16.000 Chips/Karten bringt man auch nicht mal eben nebenan unter. Vor allem da eh selten Lagerplätze da sind, muss ja alles "just in time" sein heutzutage.
Ist in der Arbeit zu sehen: produziert -> verpackt -> LKW.
Naja, sie starten mit 6k GPUs. Aber auch das ist ziemlich fett. Da sieht man mal wieder wieviel Geld in Werbung fließt nur ums uns Kunden zu manipulieren....
@Frank schaut euch mal bitte nochmals die Angaben zum Storage an. Da steht einmal bulk und einmal Cache. Ich bin mir jetzt nicht sicher, ob das wirklich alles Flash ist oder bulk HDDs sind.
Ich hatte allerdings auch ein Logo von Vast, oder welcher storage Hersteller war das doch gleich, gesehen.
Wäre sicherlich interessant das mal genauer zu beleuchten.
Kommt auf die Branche an. In der IT-Branche ist man bei solchen Sachen nicht ganz so in "Just-In-Time" wie zum Beispiel in der Automobilbranche, was auch daran liegt, das die Lagerhaltung einzelner GPU, CPUs und auch andere Bauteile relativ "kostengünstig" ist und eine Lagerhaltung in dem Fall nicht so massiv in die Kosten geht.
Auch wichtig ist, dass im IT-Bereich man eigentlich - selbst als Firma - eher kurze Lieferfristen gewohnt ist und man oft "von der Stange" kauft und man daher auch relativ gut eine gewisse Lagerhaltung umsetzen kann und sogar umsetzen muss. In anderen Branchen mit langen Lieferfristen kann man wiederum relativ gut mit "Just-In-Time" aggieren, da man auf der Fertigungsstraße eine gewisse "Planbarkeit" hat.
Das Problem aktuell ist eher, dass in der IT-Branche gewisse Lager einfach leer sind.
eine A100 hat 826 also ca 28.7mm^2
Macht bei einem typischen 300mm Wafer im Besten Fall in einem perfekten Prozess ohne jegliche Teildefekte 60 Chips.
Macht also bestenfalls 266 Wafer. Es sind jedoch riesen chips und es wird allgemein von 10% oberflaechenfehlern bei neuen Prozessen ausgegangen. Damit verliert man schon knapp 50% der chips als A100 Chips.
Kannst also von 250-500 Wafern rein fuer die A100 chips ausgehen
Für die Bilanz sicherlich ganz nett, im weltweiten GPU-Absatz aber auch nur ein Tropfen auf dem heißen Stein. Da sind wir eher in zweistelligem Millionenbereich unterwegs.