News Nvidia DGX-2: NVSwitch verbindet 16 GV100-GPUs für 81.920 Shader

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.681
Nvidia hat auf der GTC einen speziellen Chip namens NVSwitch vorgestellt, mit dem 16 GV100-GPUs miteinander verbunden werden können, um die Rechenleistung zu erhöhen. Bei NVSwitch handelt es sich um ein Interconnect Fabric, das mit 900 GB/s fünf Mal so viel Bandbreite wie der aktuell beste PCIe-Switch aufweisen soll.

Zur News: Nvidia DGX-2: NVSwitch verbindet 16 GV100-GPUs für 81.920 Shader
 
Ein echtes Schnäppchen bei den Eckdaten. Das Ding könnte auch locker das 3-fache kosten und wär immer noch hochattraktiv.
 
Wenn man die Leistung braucht sicher interessant. Solange es die nicht günstiger woanders gibt verkauft NV da sicher einiges.
 
Ich weiß nicht darin stecken nur 2 CPUs. Ob das eine sinvolle balance ist?
 
Hach, bei dieser Technik denke ich wehmütig daran, wie toll X-Fire/SLI auch auf'm Desktop umgesetzt sein könnte, wenn zB GPU 1 auf den VRAM von GPU 2 setzt oder beide perfekt parallelisiert rechnen. Mit Vulkan/DX12 allea möglich, aber niemand macht's 😒
 
@Averomoe: ...weil Gaming "tot" ist; HPC - speziell Deep Learning - ist der Wachstumsmarkt. Deshalb liegt dort der Fokus und Gaming wird links liegen gelassen.
 
ampre schrieb:
Ich weiß nicht darin stecken nur 2 CPUs. Ob das eine sinvolle balance ist?

Theoretisch wären bis zu zwei 28-Kerner mit 2,5 GHz Basistakt möglich. Mal angenommen, das skaliert alles recht gut und unter sehr vielen Vereinfachungen hinsichtlich der Architekturen, wären das in der Welt des gewöhnlichen Konsumenten ein Äquivalent von nem 33-kernigen 8700 gepaart mit 19 GeForce GTX 1080 Ti. Da die Arbeitslast massiv GPU-lastig ist, scheinen mir die zwei CPUs zum aufbereiten der Tasks ausreichend.

PS: Bitte steinigt mich nicht für den Vergleich. Ich weiß gut, dass das nicht miteinander vergleichbar ist. ;)
 
Zuletzt bearbeitet:
Mit dem Ding kann man bestimmt toll minen :freak:
 
hurra, 300 Watt * 16 = 4,8 KW , kann man gleich drei Phasen nehmen , bleiben 1,6 KW pro Stromanbindung, ui da wirds WARM.
 
Zuletzt bearbeitet von einem Moderator:
But can it run Crysis?
 
Was machen die mit den anderen 5,2KW? Oder laufen dir Grafikkarten mit 500 Watt?
 
@Eusterw

hm, die nehmen einfach 2 von den Dingern, dann hat man auch die Chance das mal die Sicherung rausfliegt.
 
googl-tpu-comparison-3_A5BD1509F1EE4543ABFBCA6F8D86A50A.jpg


NV hat einen Neuen Gegner und der heißt Google und deren CPU APU GPU was auch immer heisst TPU ;)
Deswegen auch neuerdings diese TensorCore Recheneinheiten in der Titan V mit 110 TeraFLOPS Leistung
 
Bringt was? in der Wissenschaft wohl genau 0, hatte sich nicht vor kurzem eine gpu Serie von NV bei Wissenschaftlichen Tests verrechnet
 
HerrRossi schrieb:
Mit dem Ding kann man bestimmt toll minen :freak:

das traurige ist, die menschheit ist so wirklich so dumm und verschwendet so ein rechenpotential für diesen sch**ss
 
Die Frage mit Crysis finde ich diesmal aber wirklich passend ^^
Da es ja die Chips direkt mit dem Interconnect verbindet ist die Frage ob das ganze vom Treiber als 1 GPU verwaltet wird oder als 16 Separat.
Das die Treiber vermutlich nicht für Gaming ausgelegt sind ist ja klar, aber erst kürzlich hat doch Unreal das Realtime Raytracing Video auf nVidia GPU's gezeigt.
 
FreedomOfSpeech schrieb:
But can it run Crysis?

GnumbSkull schrieb:
But can it run Crysis? :watt: :D

Haha, totaler Klassiker hier :rolleyes:

Wenn man die Frage ernst nimmt, dann lautet die Antwort: Nein! Ihr beiden könnt Euch ja mal das Datenblatt zum Vorgänger ansehen, der nvidia DGX-1. Na, was meint Ihr?

Also, Crysis wird darauf nicht laufen (und das nicht nur, weil auf der DGX-1 und DGX-2 ein Linux läuft), but it can run CUDA! :)
 
Zurück
Oben