Bericht Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU

Starke Zahlen.

Die Grundfläche nahezu gleich gelassen, dafür mehr als doppelt so viele Transistoren verbaut und den Stromverbrauch nur 1/3 bei gleichem Takt erhöht.

Damit kann man doch arbeiten.

mfg
 
NVIDIA CEO Jensen Huang :
"The more you buy, the more you save"

Das hat er so oft erwähnt. Ich sage, die 3080TI wird dann bei 1499 € liegen.
 
@nlr Koennt ihr die Tabelle noch einmal ueberarbeiten und auch die anderen Werte mit reinnehmen? So ist das etwas unuebersichtlich.

Also irgendwie ist das ganze jetzt doch nicht so ueberzeugend. An der CUDA Core IPC hat sich null getan und der Vorsprung wird rein durch mehr Cores erreicht. Wenn Ampere wirklich so aehnlich auch fuer Consumer kommen soll, dann bestimmen nur Cores und Takt die Leistung. Dann ist es auch weniger verwunderlich, dass Geruechte sagen, dass Nvidia etwas mehr Gas geben will mit der Veroeffentlichung und auf RDNA2 schielt.

Der Fokus ist also komplett auf den Tensor Cores. Die normale FP16 und FP32 Leistung um den Faktor 2.5 erhoehen ist nicht schlecht, aber es sind neue und einfache Einheiten. TF32 ist jetzt nicht wirklich bahnbrechend. Verzichte ich auf Praezision habe ich mehr Leistung, ok. @nlr Was nicht rauskommt, wie will Nvidia sicherstellen, dass der FP32 Output korrekt ist? Laut dem Artikel werben sie mit FP32 in und FP32 out und verwenden intern TF32. Wird hier gesagt, dass die Zahl nicht korrekt sein muss? Ansonsten kann man das wirklich nur explizit verwenden wenn meine Anwendung damit auch klar kommt, aber eben nicht als Standard. Was in dem Artikel etwas komisch ist, ist die Verzehnfachung von INT8 aufgrund eines Tricks aehnlich wie TF32 oder wirklich komplett ohne? Das liest sich etwas unguenstig.

Zur Sparsity-Beschleunigung: Auf was fuer Netzwerke wird sich da bezogen? Man kann auch in Software Verbindungen reduzieren um mehr Leistung zu erhalten. Und, wie wird erkannt welche Verbindungen wenig genutzt werden und nicht wichtig sind? Das birgt eine ganze Menge Furstrationspotential je nachdem wie das umgesetzt ist.

Mehr Speicher, mehr Bandbreite, da macht sich nicht viel. 33% mehr TDP, das ist schon ordentlich. Mal hoffen, dass da viel davon auf die Tensor Cores geht und nicht auf die CUDA Cores. Die Groesse des Chips allerdings... ich moechte die Preise und Ausbeute sehen, vor allem letzteres. Wobei ich mich auch Frage wieviel groesser die Tensor Cores wurden. CUDA Cores und Speicherinterface wurden jetweils 50% mehr, aber die Chipgroesse bleibt gleich bei einem Shrink der wohl in Richtung 40% kleinerer Flaeche geht. Da sollten 10% uebrig bleiben, aber die Anzahl der Cores wurde verringert.

Wer das als Titan sehen will kann schon mal sein Auto verkaufen.
 
Schöner Schritt nach vorne von Nvidia!! Interessant finde ich, dass AMD Epyc verbaut wird. Kam etwas unerwartet, aber nicht unverdient.


Smartin schrieb:
ich dachte, heute gibt es erste Infos zum Turing Nachfolger. Das dauert dann wohl noch :(
Zu viel Fanboy Geschwätz auf Wtftech gelesen? War doch klar, dass heute der Professionelle Teil angekündigt wird.
 
Simanova schrieb:
Bei Karten mit Video-Ausgang, ja
Und falls nicht, macht es Threadripper für dich ;)

 
tochan01 schrieb:
Zitat von t3chn0:
Absolut krass was Nvidia da auf die Straße bringt. Ich finde das einfach nur noch beeindruckend mit wie viel Innovationen und Performance/Verbrauch hier Gas gegeben wird.
(was Sie sich teuer bezahlen lassen werden)

Außerdem benutzt Nvidia nun Prozessoren von AMD, wie kann sowas nur sein? Was machen denn nun die ganzen Anti-Nvidia und pro AMD Fanboys?
(AMD hat mehr Corse, PCIe 4.0, bei günstigerem Preisen = Logische entscheidung)

Oh man, das muss sich unglaublich schäbbig anfühlen =D. Ich feier das einfach nur extrem.
(Wer, Intel? Die haben einfach gepennt bzw. ihren neuen Prozess nicht im Griff = kein passendes Angbot geliefert)

Triggered :lol: Und dabei hat @t3chn0 nur von Nvidia und AMD gesprochen, lesen liegt den „Fanboys“ hier auch nicht wirklich, aber Hauptsache mit PCIe 4.0 auf einem Mainstreamboard argumentieren, da du ja auch so viele 2x 100GbE Mellanox Karten in Betrieb hast :lol:
 
Duke711 schrieb:
die geringeren Einnahmen aus dem Konsumerbereich zweitrangig.
Wir sprechen schon von dem gleichen Nvidia, bei welchem die GeForce-Sparte den größten Anteil an Umsatz und Gewinn hat? Natürlich liegt der Fokus auf Datacenter, AI, etc., wenn es um Innovationen und Fortschritt geht, aber trotzdem werden neue GeForce Karten kommen und 2 Jahre nach der letzten Generation ist es nun halt mal soweit. Ich meine mehr als spekulieren kann man nicht, aber wir können ja Ende des Jahres nochmal darauf zurückkommen.;)
 
Kacha schrieb:
So ist das etwas unuebersichtlich.

Vorab hatte Nvidia nur Informationen zu A100 preisgegeben, den GA100 als dessen Basis nicht einmal erwähnt. Zwar lag nahe, dass A100 nicht der Vollausbau ist, die ganzen Infos zu GA100 müssen wir uns jetzt aber erst einmal noch genauer zu Gemüte führen, was @Wolfgang bereits tut. Aber gut Ding will etwas Weile haben! :)
 
  • Gefällt mir
Reaktionen: ahuev0 und danyundsahne
Bei mir läuft schon lange AMD / NVIDIA. So What?
 
  • Gefällt mir
Reaktionen: .Sentinel.
pietcux schrieb:
Bei mir läuft schon lange AMD / NVIDIA. So What?

Das dürfte bei vielen der Fall sein, aber für manch einen „Religiösen“ geht das zu weit.
 
  • Gefällt mir
Reaktionen: miro98, FLCL, McTheRipper und 2 andere
PPPP schrieb:
du ja auch so viele 2x 100GbE Mellanox Karten in Betrieb hast :lol:

... noch nicht....:D.
Verstädnisfrage. Was ist an der PCI 4.0 Aussage falsch?

Zitat Artikel
Den CPUs stellt Nvidia im DGX A100 1 TB RAM und 15 TB NVMe-SSD-Speicher mit PCI-Express-4.0-Anbindung zur Seite.

Die "Alten" Xeon Platinum 8168 haben nur 3.0. Limitiert das nicht die NVMe's? Die werden jetzt keine "Mainstream oldschool" klotten mit 500 MB/s einbauen.... :D

Bei PCI 3.0 ist mit 3500 MByte/s schluss beim lesen... 4.0 liegt bei faktor 2.
 
Zuletzt bearbeitet:
Jan schrieb:
Vorab hatte Nvidia nur Informationen zu A100 preisgegeben, den GA100 als dessen Basis nicht einmal erwähnt. Zwar lag nahe, dass A100 nicht der Vollausbau ist, die ganzen Infos zu GA100 müssen wir uns jetzt aber erst einmal noch genauer zu Gemüte führen, was @Wolfgang bereits tut. Aber gut Ding will etwas Weile haben! :)

Ich dachte eigentlich auch eher an die TF32 Performance, Sparsity Performance und so weiter. Derzeit ist das nur im Test und es ist etwas unpraktisch zu lesen wenn der Test von FP32 mit 312 TFLOPS redet, in der Tabelle die Zahl fuer FP16 steht, aber eigentlich TF32 gemeint ist.

Bzw. wenn der Takt fuer den A100 stimmt sollte der Rest sich doch einfach errechnen lassen? Mit Stern und Anmerkung hochgerechnet. ;)

Oh, und habt ihr Preise fuer die GPUs alleine? Die 200k sind ja fuer ein komplettes System.
 
Mustis schrieb:
Der Hauptgrund ist, dass man eben genau gar nichts seitens Nvidia bisher dazu gesagt hat. Wird langsam bisschen knapp, wenn man bedenkt, wieviel Zeit sonst so vergeht zwischen erster offizieller Ankündigung und Marktstart...

Schauen wir uns doch Turing an. Erstmals offiziell als Quadroableger angekündigt am 14. August 2018, Als Gamingversion am 20. August 2018 angekündigt, erschienen ist die 2080 dann genau einen Monat später am 20. September, die 2080Ti war etwa verspätet verfügbar.

Also bei Turing war es ziemlich genau ein Monat. Schauen wir auf Pascal, angekündigt am 7. Mai 2016. Erste Tests gab es 10 Tage später..

(Daten von 3dCenter.org)

Also ich weiß nicht ganz, worauf du nun hinaus möchtest, aber wenn Nvidia in etwa so weiter macht, dann haben wir da bis Ende des Jahres noch mehr als genug Zeit für eine theoretische Ankündigung. Selbst wenn dazwischen 3 Monate liegen sollte, hätte Nvidia noch einiges an Zeit bis dahin.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andybmf und MrNejo
johnieboy schrieb:
An den Leaks von KittyKitties zu den Gaming Karten scheint was dran zu sein
https://twitter.com/VideoCardz/status/1260903348158554112

Anhang anzeigen 918770


Dazu kommt dieses Video von vor 2 Tagen, hört sich zumindest plausibel an.


Also kann man davon ausgehen:
GA102 = RTX 3080 Ti = 40% schneller als 2080 Ti
GA103 = RTX 3080 = 2080 Ti Niveau mit 12 GB
GA104 = RTX 3070 = 2080S Niveau mit 10GB
GA106 = RTX 3060 = 2070S Niveau, aber nur 6 GB
GA107 = RTX 3050 = 2060S Niveau, aber nur 4 GB

Wobei das echt schade wäre, so nette GA106 / GA107 verkrüppelt durch das Speicherinterface, obwohl die Dinger in 7nm ja viel sparsamer als die Vorgänger sein dürften...
 
Floppes schrieb:
Zu viel Fanboy Geschwätz auf Wtftech gelesen? War doch klar, dass heute der Professionelle Teil angekündigt wird.
Arroganzanfall?
Dir mag es klar gewesen sein, da Du offensichtlich alles weißt, ich wusste es nicht, was ich geschrieben hatte, und dachte, dass heute die ersten Infos zur neuen RTX kommen. Ist ja auch nicht so unübliches "Geschwätz", wenn es ursprünglich mal hieß, dass die Karten Richtung Juli langsam auf den Markt kommen sollen.
 
  • Gefällt mir
Reaktionen: FLCL
Ich kann einfach nur hoffen das NVIDIA bei den Konsumern auf die Preisbremse tritt, sonst könnten Konsolen tatsächlich mal den PClern noch zum Verhängnis werden.
Auch das Leistungsdelta zwischen Einsteiger xx60er und xx80er TI sollte nicht immer weiter auseinanderklaffen. optimiert wird nämlich immer für die Einsteigervariante, nicht für das 0,1% TI Nutzer.

Zumindest schön das NVIDIA AMD bei Server CPUs nutzt. Das sollte auf jeden Fall wieder einigen zu denken geben. Mit Rabatt alleine kann Intel hier einfach nicht mehr Punkten.
 
Zurück
Oben