News Für das Metaversum: Metas KI-Supercomputer setzt auf 16.000 Nvidia-GPUs

Frank

Chefredakteur
Teammitglied
Registriert
März 2001
Beiträge
9.213
Um das Metaversum zu erschaffen, baut Meta einen neuen KI-Supercomputer, der bei Fertigstellung 16.000 A100-GPUs von Nvidia nutzen soll, um Rechenaufgaben und Modelle zu verarbeiten. Der Supercomputer trägt den Name „AI Research SuperCluster“ (RSC) und soll Metas aktuellen Supercomputer auf V100-Basis um das 20-fache schlagen.

Zur News: Für das Metaversum: Metas KI-Supercomputer setzt auf 16.000 Nvidia-GPUs
 
  • Gefällt mir
Reaktionen: aid0nex und [wege]mini
Ziemlich beeindruckende Zahlen. Aber woher will NV die ganzen Chips herzaubern? Da so ein Deal zwar schon weit vorraus geplant wird ist sicher schon einiges gelagert. Aber 16.000 Chips/Karten bringt man auch nicht mal eben nebenan unter. Vor allem da eh selten Lagerplätze da sind, muss ja alles "just in time" sein heutzutage.

Ist in der Arbeit zu sehen: produziert -> verpackt -> LKW.
 
  • Gefällt mir
Reaktionen: aid0nex und Delirus
Meta und Datenschutz... So, so...
 
  • Gefällt mir
Reaktionen: SchorschSepp, shortex, aid0nex und 41 andere
Sind 16.000 viel oder nicht? Kann das jemand mal einordnen?

Wie viele Grafikkarten verlassen denn pro Tag die Fabriken?
 
  • Gefällt mir
Reaktionen: flo.murr und drmaniac
16'000 A100 wären sage und schreibe 155 PFlops an FP64 Compute. Nach aktuellen Massstäben wäre das Platz #3 in der Top500 Liste :D
 
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, Horst_Koehler und 12 andere
Naja, sie starten mit 6k GPUs. Aber auch das ist ziemlich fett. Da sieht man mal wieder wieviel Geld in Werbung fließt nur ums uns Kunden zu manipulieren....

@Frank schaut euch mal bitte nochmals die Angaben zum Storage an. Da steht einmal bulk und einmal Cache. Ich bin mir jetzt nicht sicher, ob das wirklich alles Flash ist oder bulk HDDs sind.

Ich hatte allerdings auch ein Logo von Vast, oder welcher storage Hersteller war das doch gleich, gesehen.

Wäre sicherlich interessant das mal genauer zu beleuchten.

Edit

Ah ja pure storage ist das.

https://www.purestorage.com/de/products.html
 
Zuletzt bearbeitet: (Hinweis auf den storage Hersteller hinzugefügt.)
  • Gefällt mir
Reaktionen: onkuri und Dimos
Wattwanderer schrieb:
Wie viele Grafikkarten verlassen denn pro Tag die Fabriken?
Das weiß wohl nur NVidia selbst.

Z.B. Titan läuft mit knapp 18.000 GPU's, die Zahl selbst ist also nicht unüblich.
 
  • Gefällt mir
Reaktionen: GokuSS4
Es werden bestimmt keine normalen Grafikkarten sein, eher eine Sonderanfertigung.
 
  • Gefällt mir
Reaktionen: SchorschSepp, aid0nex, Yaggoth und 38 andere
Obligatorische Frage:

But can it run Crysis.

Und wenn ja wie oft paralell...
 
  • Gefällt mir
Reaktionen: Gesualdo, Arzuriel, onkuri und 6 andere
Die ganzen Userdaten müssen ja analysiert werden. Die Dimensionen sollten zu Denken geben.
Kenshin_01 schrieb:
Ziemlich beeindruckende Zahlen. Aber woher will NV die ganzen Chips herzaubern?
Hah, es werden mehr GPUs gefertigt als jemals zuvor in der Geschichte der Menschheit. Sie werden nur ungleich verteilt...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hoplahop, electronish, -byTe- und 9 andere
Ark schrieb:
Es werden bestimmt keine normalen Grafikkarten sein, eher eine Sonderanfertigung.

Da steht doch dabei, dass es A100 GPUs sind. Anhand der Bauform wahrscheinlich ähnlich wie im DGX System oder bei den normalen Racks.
 
edenjung schrieb:
Obligatorische Frage:

But can it run Crysis.

Und wenn ja wie oft paralell...
Ca. 16'000 Mal. Je nach Qualitätsanspruch auch bis zu 112'000 Mal (via MIG) ;)
 
  • Gefällt mir
Reaktionen: fox40phil und edenjung
Mein Beileid!

Die GPUs könnten viel sinnvolleren Zwecken, zb. den Gamern, zugute kommen.
Statt dessen werden sie für so einen Mist verbrannt. :rolleyes:
 
  • Gefällt mir
Reaktionen: Nightmare25, mightyplow und savuti
Kenshin_01 schrieb:
Vor allem da eh selten Lagerplätze da sind, muss ja alles "just in time" sein heutzutage.
Kommt auf die Branche an. In der IT-Branche ist man bei solchen Sachen nicht ganz so in "Just-In-Time" wie zum Beispiel in der Automobilbranche, was auch daran liegt, das die Lagerhaltung einzelner GPU, CPUs und auch andere Bauteile relativ "kostengünstig" ist und eine Lagerhaltung in dem Fall nicht so massiv in die Kosten geht.

Auch wichtig ist, dass im IT-Bereich man eigentlich - selbst als Firma - eher kurze Lieferfristen gewohnt ist und man oft "von der Stange" kauft und man daher auch relativ gut eine gewisse Lagerhaltung umsetzen kann und sogar umsetzen muss. In anderen Branchen mit langen Lieferfristen kann man wiederum relativ gut mit "Just-In-Time" aggieren, da man auf der Fertigungsstraße eine gewisse "Planbarkeit" hat.

Das Problem aktuell ist eher, dass in der IT-Branche gewisse Lager einfach leer sind.
 
  • Gefällt mir
Reaktionen: 7LZ, Recharging und Kenshin_01
GokuSS4 schrieb:
compliance vs echter DS :D

Wattwanderer schrieb:
Sind 16.000 viel oder nicht? Kann das jemand mal einordnen?

Wie viele Grafikkarten verlassen denn pro Tag die Fabriken?
https://caly-technologies.com/die-yield-calculator/
nehmen wir mal den hier.

eine A100 hat 826 also ca 28.7mm^2
Macht bei einem typischen 300mm Wafer im Besten Fall in einem perfekten Prozess ohne jegliche Teildefekte 60 Chips.
Macht also bestenfalls 266 Wafer. Es sind jedoch riesen chips und es wird allgemein von 10% oberflaechenfehlern bei neuen Prozessen ausgegangen. Damit verliert man schon knapp 50% der chips als A100 Chips.
Kannst also von 250-500 Wafern rein fuer die A100 chips ausgehen

In 2020 oder 2021 gabs news, dass AMD 20k Wafer/Monat fuer GPUs kauft.
Zu Nvidia gabs glaube ich noch nie Zahlen
Hier die TSMC Wafer Capa nach Prozess: https://www.reddit.com/r/AMD_Stock/comments/knwrod/tsmc_wafer_capacity_roadmap/
ZU Samsung habe ich gerade keine aktuelle Liste gesehen
 
  • Gefällt mir
Reaktionen: stefan92x, Nellsoon, GT200b und 8 andere
...und nachts lässt man dann bitcoins rasseln ?
 
  • Gefällt mir
Reaktionen: Nightmare25, ldos und flappes
Zurück
Oben