Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtNvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU
tl;dr:Nvidia hat erste Details zur neuen GPU-Architektur Ampere verraten. Als Nachfolger von Volta richtet sich Ampere mit GA100 zu Anfang an den Einsatz im Datacenter für das KI-Training und Inferencing. Die erste Ampere-GPU A100 soll in diesem Szenario 20 Mal so schnell sein wie Volta. Das erste Produkt ist das DGX A100.
Ich hoffe auf einen baldigen Turing Nachfolger mit HDMI 2.1 Unterstützung für 4K 120Hz Oled Fernsehr mit G-Sync. Dann können diese ganzen lächerlichen Gaming Monitore vergessen werden. Ich gehe davon aus, dass es H2 2020 einen Gaming Ableger von Ampere geben wird.
Der Artikel ist extrem detail- und umfangreich, vielen Dank für diese klasse Arbeit! Aber der Großteil der Community wartet doch fieberhaft auf Infos der Consumer-Variante, oder?
Im Artikel ist ein Fehler! (Wenn ich nicht völlig zu blöd bin)
Die Leistungs-Werte in der Tabelle auf der 1. Seite stimmen nicht. Im Text darunter ist bspw. von einer Rechenleistung von 312 TFLOPS bei FP32 die Rede, in der Tabelle steht aber 19,5. Auch die anderen Werte stimmen nicht, direkt darunter stehen andere.
Es sieht aus, als wären die Werte in der Tabelle alle um eine Zeile nach unten gerutscht.
Dazu kommt dieses Video von vor 2 Tagen, hört sich zumindest plausibel an.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Das wird kein HBM dummy stack sein, sondern einfach ein 8GB Stapel der für ECC draufgeht. Schließlich sind dies Produkte für den Server- und nicht den Gamingsektor.
Mit Sicherheit nicht. Das wird doch immer deutlicher! Nvidia hat den kurzfristigen Fokus ganz klar auf den Volta Nachfolger Ampere gerichtet und dieser ist ohne deutliche Anpassungen nicht als Desktop-Grafikkarte nutzbar. Und selbst wenn, die dort nötige ALUs aka CUDA Leistung steigt bei Ampere kaum an, 24% wie man hier sieht. Man muss also sogar offen, dass die Gaming Ampere sich deutlich unterscheidet von der Datacenter Ampere, sonst wird der Leistungssprung sehr übersichtlich. Auch fehlen wohl RTX Kerne und ich bezweifele, dass Nvidia die bereits wieder aufgibt nach einer Generation.
Für mich wird immer unwahrscheinlicher, dass ein 2080 TI Nachfolger noch dieses Jahr kommt.
hauptsächlich Marketing und Funktionserklärung
keine details zur Architektur
Notiert der chip heißt a100 (108sm=6912shader) ist was kleiner als gedacht und kann als mig kombiniert werden.
vieles ist software/firmware optimiert und lassen sich getrennte vm gpu zuordnen.
bzw aufgaben exklusiv berechnen auf nutzer gewählten arbeitsschritten.
Für Software Entwickler sehr interessant in den bereichen AI autonomen fahren und datacenter
Den quadro Nutzer ist das völlig egal somit ist das reine Werbung für HPC
keine 2d 3d modelling oder auch rendern nur zahlen für HPC
Würde mich nicht wundern das damit besser gemint werden kann.(kryptozahlen Berechnung)
Die FP16 Perfomance ist einfach nur faszinierend!
Die 3. Generation der Tensor-Cores gibt ihr bestes die gerade aufkommenden AI ASICs obsolet zu machen (auch wenn die Tensor Cores streng genommen genau das sind)
Ich vermute, dass durch die stark gesteigerte Leistung, die Entwicklung von neuen AI Modellen sich deutlich beschleunigt, da sich jetzt auch Universitäten und mittel-große Unternehmen die Rechenleistung leisten können einen Bert selbst zu trainieren
Ob es auch so gekommen wäre, wenn Intel PCIe 4.0 geboten hätte? Wahrscheinlich hätte man AMD dann mal wieder den Rücken gekehrt wie es viele Andere weiterhin tun.
Ob es auch so gekommen wäre, wenn Intel PCIe 4.0 geboten hätte? Wahrscheinlich hätte man AMD dann mal wieder den Rücken gekehrt wie es viele Andere weiterhin tun.