Bericht Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU

Für den DGX A100 SuperPOD gibt Nvidia einen Spitzenleistung von 700 PetaFLOPS für KI-Berechnungen an, womit das System auf einen Schlag in den Top-20 des TOP500-Rankings für Supercomputer landen soll.
Also soweit ich weiß ist für die Top500 Messung immer noch Linpack ausschlaggebend. Da gibts aber auch eine Ergebnisverfifikation und es wird FP64 verwendet. Demnach wäre die Angabe eines Rankings basierend auf kleineren Fließkommaformaten mit eben reduzierter Genauigkeit und Rechenaufwand unsinnig, bzw falsch.

Ansonsten ziemlich große Zahlen, auch wenn man die Zahlenschieberei berücksichtigt.
Ich vermute mal viel Entwicklungsleistung steckt auch in den ganzen Datenverbindungen ohne die all die Rechenleistung nicht genutzt werden könnte. Das lässt hoffen dass es auch bei den CPUs noch gut weitergeht, Thema Kommunikation zwischen den CCX.
 
54 Mrd. Transistoren auf knapp 8 cm² ... wow.
Ganz egal wer so etwas (oder diese Anlagen zum Produzieren) baut, da muss man schon den Ingenieurshelm ziehen! 😃
 
Sieht echt Hübsch aus:love:
 
Die Spieler werden auch Volta noch 2 Jahre kaufen, warum dann eine neue Grafikkarte präsentieren?
 
Und wenn ich mir die Entwicklung von Alexa seit 2017 anschaue bezweifle ich das der Faktor 20 irgendwas an der Qualität ändert.

Vielleicht in 10 Jahren. Alexa muss mindestens 200 Mal besser werden was die "inteligenz" angeht.

Ich sehe nur eine Reihe von abfragen und Approximationen und Regeln die von Entwicklern und Anwendern verfasst wurden.

Nothing More. Sehr schade. Ich bin von dem gesamt System super enttäuscht. Außerdem können meine 6 dots der dritten Generation nicht Mal erkennen wen man von ihnen anspricht....
 
Floxxwhite schrieb:
Ich sehe nur eine Reihe von abfragen und Approximationen und Regeln die von Entwicklern und Anwendern verfasst wurden.

Nothing More. Sehr schade. Ich bin von dem gesamt System super enttäuscht. Außerdem können meine 6 dots der dritten Generation nicht Mal erkennen wen man von ihnen anspricht....

Da bin ich bei dir, die KI-Betitelung ist einfach nur werbewirksam und teilweise irreführend, von einem selbstlernendem Ding ohne Zutun sind wir, je nachdem wie man es sehen möchte, zum Glück (wenn's um Einschränkungen) oder leider (wenn's um Komfort geht) noch weit entfernt.
 
  • Gefällt mir
Reaktionen: Floxxwhite
Da freut mich sich auf die neuen Nvidia Gaming Karten und dann wird darüber nicht berichtet 🙄
 
  • Gefällt mir
Reaktionen: dermatu
Schade, für mich als Endkunden leider uninteressant.
 
  • Gefällt mir
Reaktionen: thommy86
PHuV schrieb:
Das hat er so oft erwähnt. Ich sage, die 3080TI wird dann bei 1499 € liegen.
Was in dem Fall aber kaum verwundert dürfte. Der GA100 wird ein ziemlich teurer Chip bei seinen über 800 mm². Die Frage aktuell ist auch, ob der GA100 RT-Cores besitzt oder nicht besitzt. (Es scheint nämlich so zu sein, dass er keine hat.)

Beim GA100 sind in den SM 64 FP32-CC, 64 INT32-CC sowie 32 FP64-CC untergebracht sowie 4 Tensor-Cores.
34-1080.a71e33ba.jpg

(Bild von CB kopiert, Quelle NVIDIA)

Die FP64-CC dürften bei einem GA100 auf jeden Fall rausfallen. Sieht man sich den schematischen Plan des GA100 an, besitzt er aber keine RT-Cores.
33-1080.5ad914a7.jpg

(Bild von CB kopiert, Quelle NVIDIA)

Hier gibt es jetzt einige Fragen, die man stellen kann. Sicher ist bei einem fiktiven GA102, dass die FP64-CC rausfallen werden:
Frage 1 ist, wie viel Platz durch den Wegfall der FP64-CC gespart wird.
Frage 2 ist, ob der GA102 auch 128 SM besitzen wird.
Frage 3 ist, wieviele RT-Cores kommen hinzu und wie viel Platz benötigen sie.

Das Speicherinterface kann man etwas "heraus" nehmen. Die Die-Shots, die ich nun zu Vega64 als auch Polaris gesehen habe, entsprechen ca. 64Bit eines GDDR5 Interface 1024Bit eines HBM-Interface. HBM hat ja ein recht simples Interface. ;)

GA102 wird vermutlich genauso fett wie der GA100 und damit auch entsprechend kostenintensiv als Chip, selbst in 7nm.

Recharging schrieb:
Da bin ich bei dir, die KI-Betitelung ist einfach nur werbewirksam und teilweise irreführend, von einem selbstlernendem Ding ohne Zutun sind wir, je nachdem wie man es sehen möchte, zum Glück (wenn's um Einschränkungen) oder leider (wenn's um Komfort geht) noch weit entfernt.
Naja, man spricht ja heute in den "Fachkreisen" auch nicht umsonst von Deep Learning, als wirklich von KI/AI. Und so beeindruckend der Sprung 2015 mit Alpha Go war und dem Deep Learning, so sehr hat sich jetzt halt auch wieder Ernüchterung in den Fachkreisen breit gemacht.

Die Grundlagen des DL und der KI-Forschung haben sich aktuell nicht drastisch geändert und stammen immer noch aus den 80er und 90er. Hab mich mal mit einem Freund am MIT unterhalten, der seit 20 Jahren in der KI-Forschung arbeitet, und viele der Konzepte die seit 2015 nun ihren "Durchbruch" hatten, stammen eben aus den späten 80er und frühen 90er, damals fehlte aber die Rechenleistung.

Vielen Forschern war schon 2015 klar, dass zwar ein "Durchbruch" gelungen ist, weil nun die Theorien endlich in die Praxis umgesetzt werden konnten, aber bei den Theorien fehlt es halt aktuell an neuen Ideen, die wieder einen neuen Entwicklungsschritt einleiten.

Das Thema ist echt interessant und ich kann jedem nur empfehlen sich zumindest mal den Grundlagen der KI-Forschung zu befassen. Es gibt eben nicht nur Neurale-Netzwerke, sondern eben auch den evolutionäre Algorithmen und nun, wo man mit den neuralen Netzen wieder gegen eine Wand rennt, besinnt man sich auch wieder auf Algorithmen und versucht hier jetzt weiter zu kommen und auch beide Systeme miteinander zu verbinden, damit man den nächsten Schritt gehen kann.
 
  • Gefällt mir
Reaktionen: Jan
F1Freak schrieb:
Also kann man davon ausgehen:
GA102 = RTX 3080 Ti = 40% schneller als 2080 Ti
GA103 = RTX 3080 = 2080 Ti Niveau mit 12 GB
GA104 = RTX 3070 = 2080S Niveau mit 10GB
GA106 = RTX 3060 = 2070S Niveau, aber nur 6 GB
GA107 = RTX 3050 = 2060S Niveau, aber nur 4 GB

Wobei das echt schade wäre, so nette GA106 / GA107 verkrüppelt durch das Speicherinterface, obwohl die Dinger in 7nm ja viel sparsamer als die Vorgänger sein dürften...
3080 +10% Leistung gegenüber der 2080ti und deutlich mehr Power in Raytracing für 700€ und sie ist gekauft :)

Kann mir gut vorstellen, dass die 3080 leistungsstärker als die 2080ti wird...
 
Draco Nobilis schrieb:
Ich kann einfach nur hoffen das NVIDIA bei den Konsumern auf die Preisbremse tritt, sonst könnten Konsolen tatsächlich mal den PClern noch zum Verhängnis werden.
Auch das Leistungsdelta zwischen Einsteiger xx60er und xx80er TI sollte nicht immer weiter auseinanderklaffen. optimiert wird nämlich immer für die Einsteigervariante, nicht für das 0,1% TI Nutzer.

Zumindest schön das NVIDIA AMD bei Server CPUs nutzt. Das sollte auf jeden Fall wieder einigen zu denken geben. Mit Rabatt alleine kann Intel hier einfach nicht mehr Punkten.

Ich gehe davon aus, dass die 3080Ti bei 1400€ einsteigen wird. Es wird einfach ein Monster werden und nicht günstiger als bisher.

Einzig AMD kann das verhindern. Da Nvidia hier jedoch ein Technik-Feuerwerk abbrennen wird, denke ich nicht das Big Navi mit RDNA2 Basis da mitgehen kann.
 
Ich denke mal wir werden erstmal garnix sehen.Der profitable Markt geht vor und wenn ich mir allein die Verfügbarkeit der Shield Pro so angucke.

Die GDC Heute erlischt förmlich meine Hoffnung das zeitnah was rauskommt.Ich denke die Abnahme wird enorm hoch sein, was die Kapazitäten bestimmt gut auslastet.

Ob das dieses Jahr noch was wird....
 
Wartet erstmal ab, evtl wartet Nvidia wirklich ab was AMD mit RDNA2 und Arcturus veröffentlicht.

Dann sehen wir vielleicht mehr im Workstation und consumer Segment
 
  • Gefällt mir
Reaktionen: v_ossi
Marble Madness (wer sich noch erinnern kann), mal anders:

Auch aus dem NVIDIA Showcase...
Das ist mal ne Nummer...

Auch nicht schlecht
https://news.developer.nvidia.com/rendering-millions-of-dynamics-lights-in-realtime/

Man sieht mit was für einem Vortrieb nvidia die neuen Technologien an den Start bringt.
Man kann ihnen nicht vorwerfen, dass sie untätig seien...

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Krautmaster
t3chn0 schrieb:
Einzig AMD kann das verhindern. Da Nvidia hier jedoch ein Technik-Feuerwerk abbrennen wird, denke ich nicht das Big Navi mit RDNA2 Basis da mitgehen kann.
Für den großen Navi werden aktuell 80 CU gehandelt, also 5120 Shader (und NUR 5120) Shader. AMD hat zwar an der IPC der Shader gearbeitet, jedoch wird das NVIDIA auch getan haben, außer sie haben sich auf TC und RT-Cores konzentriert und die CCs sind noch auf dem Stand von Turing.

Frage ist halt: Wie gut kann AMD nun RDNA2 die CUs auslasten, wie gut kann nVidia ihre SM auslasten usw. Man wird hier abwarten müssen.
 
Teralios schrieb:
Das Thema ist echt interessant und ich kann jedem nur empfehlen sich zumindest mal den Grundlagen der KI-Forschung zu befassen. Es gibt eben nicht nur Neurale-Netzwerke, sondern eben auch den evolutionäre Algorithmen und nun, wo man mit den neuralen Netzen wieder gegen eine Wand rennt, besinnt man sich auch wieder auf Algorithmen und versucht hier jetzt weiter zu kommen und auch beide Systeme miteinander zu verbinden, damit man den nächsten Schritt gehen kann.

Danke für den Einblick, es ist ja wahnsinnig spannend aber der Praxisgewinn ist halt noch spürbar klein - wenn man die Vorstellungen im Geiste so abwägt.

Trotz massiver Kapazitätsausweitung ist ja, wie du richtig sagst, man in etwa dort, was man in den 1980er und 1990er so erdacht hat. Da fehlen halt letztlich noch ein paar Potenzen um tatsächlich zu den Erwartungen des gemeinen Konsumenten aufzuschließen. 😆
 
ZeroZerp schrieb:
Marble Madness (wer sich noch erinnern kann), mal anders:

Man sieht mit was für einem Vortrieb nvidia die neuen Technologien an den Start bringt.
Man kann ihnen nicht vorwerfen, dass sie untätig seien...

sieht echt nice aus auf der... Quadro 8000 mit 48GB ram zum Preis von 7000€...:D. Den Vortrieb lassen sie sich aber auch vergolden.
 
Nvidia selbst setzt auf AMD Epic Prozessoren... das spricht wortwörtlich Bände über die Leistung der Server Prozessoren von AMD (im Vergleich zu Intel).

Nun hoffen wir mal, dass AMD dies ebenfalls im Graka-Segment mit RDNA 2 erreicht, wie sie es mit Zen 2 erreicht haben im Prozessor-Segment.

Ich finde den Artikel selbst höchst interessant, auch wenn es sich eher auf den Profi-Sektor bezieht.
 
  • Gefällt mir
Reaktionen: Colindo
Zurück
Oben