Bilder
Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU
Derzeit üblicher Aufbau eines Datacenters (Bild: Nvidia)Nvidia A100-GPU (Bild: Nvidia)A100-GPU aus Basis der Ampere-Architektur (Bild: Nvidia)GA100 Vollausbau mit 128 SMs (Bild: Nvidia)SM im Detail (Bild: Nvidia)Neue Standard MAD TF32 (Bild: Nvidia)Tensor Cores der 3. Generation (Bild: Nvidia)Sparsity-Beschleunigung für bis zu 20 Mal höhere KI-Leistung (Bild: Nvidia)20 Mal höhere KI-Leistung für FP32 mit TF32 und INT8 (Bild: Nvidia)MIG bis zu zu sieben GPUs pro A100 (Bild: Nvidia)Zwei Rome-CPUs von AMD kommen auch zum Einsatz (Bild: Nvidia)DGX A100 liefert 5 PetaFLOPS FP16 (Bild: Nvidia)Rechenleistung mit Sparsity-Beschleunigung (Bild: Nvidia)Ab sofort für 199.000 US-Dollar vor Steuern lieferbar (Bild: Nvidia)DGX A100 (Bild: Nvidia)DGX A100 (Bild: Nvidia)DGX A100 (Bild: Nvidia)Ampere soll aus diesem Aufbau mit 25 Racks nur noch 1 Rack machen (Bild: Nvidia)1 Rack mit 5 DGX A100 für ein Zehntel der Kosten des alten Aufbaus (Bild: Nvidia)DGX A100 SuperPOD mit 140 A100-GPUs und Mellanox-Interfaces (Bild: Nvidia)Nvidia erweitert eigenen Supercomputer SATURNV um Ampere (Bild: Nvidia)HGX A100 für Drittanbieter von A100-Clustern (Bild: Nvidia)EGX A100 (Bild: Nvidia)EGX A100 für den Einsatz in der Edge-Cloud (Bild: Nvidia)EGX A100 für den Einsatz in der Edge-Cloud (Bild: Nvidia)Einsatzgebiete für EGX A100 (Bild: Nvidia)Nvidia Drive Orin nutzt ebenfalls die Ampere-Architektur (Bild: Nvidia)