Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU
- Ersteller nlr
- Erstellt am
- Zum Bericht: Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU
Reset90 schrieb:kein wort verstanden..... wann kann ich eine rtx 3070 super kaufen?
Steht doch praktisch direkt schon vor der Tür....
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
Starke Zahlen.
Die Grundfläche nahezu gleich gelassen, dafür mehr als doppelt so viele Transistoren verbaut und den Stromverbrauch nur 1/3 bei gleichem Takt erhöht.
Damit kann man doch arbeiten.
mfg
Die Grundfläche nahezu gleich gelassen, dafür mehr als doppelt so viele Transistoren verbaut und den Stromverbrauch nur 1/3 bei gleichem Takt erhöht.
Damit kann man doch arbeiten.
mfg
Botcruscher
Captain
- Registriert
- Aug. 2005
- Beiträge
- 4.013
Auf eine Super, also den aufgemotzten Refresh mit mehr Speicher/Einheiten, wird er noch einiges warten müssen.Duke711 schrieb:Steht doch praktisch direkt schon vor der Tür....
@nlr Koennt ihr die Tabelle noch einmal ueberarbeiten und auch die anderen Werte mit reinnehmen? So ist das etwas unuebersichtlich.
Also irgendwie ist das ganze jetzt doch nicht so ueberzeugend. An der CUDA Core IPC hat sich null getan und der Vorsprung wird rein durch mehr Cores erreicht. Wenn Ampere wirklich so aehnlich auch fuer Consumer kommen soll, dann bestimmen nur Cores und Takt die Leistung. Dann ist es auch weniger verwunderlich, dass Geruechte sagen, dass Nvidia etwas mehr Gas geben will mit der Veroeffentlichung und auf RDNA2 schielt.
Der Fokus ist also komplett auf den Tensor Cores. Die normale FP16 und FP32 Leistung um den Faktor 2.5 erhoehen ist nicht schlecht, aber es sind neue und einfache Einheiten. TF32 ist jetzt nicht wirklich bahnbrechend. Verzichte ich auf Praezision habe ich mehr Leistung, ok. @nlr Was nicht rauskommt, wie will Nvidia sicherstellen, dass der FP32 Output korrekt ist? Laut dem Artikel werben sie mit FP32 in und FP32 out und verwenden intern TF32. Wird hier gesagt, dass die Zahl nicht korrekt sein muss? Ansonsten kann man das wirklich nur explizit verwenden wenn meine Anwendung damit auch klar kommt, aber eben nicht als Standard. Was in dem Artikel etwas komisch ist, ist die Verzehnfachung von INT8 aufgrund eines Tricks aehnlich wie TF32 oder wirklich komplett ohne? Das liest sich etwas unguenstig.
Zur Sparsity-Beschleunigung: Auf was fuer Netzwerke wird sich da bezogen? Man kann auch in Software Verbindungen reduzieren um mehr Leistung zu erhalten. Und, wie wird erkannt welche Verbindungen wenig genutzt werden und nicht wichtig sind? Das birgt eine ganze Menge Furstrationspotential je nachdem wie das umgesetzt ist.
Mehr Speicher, mehr Bandbreite, da macht sich nicht viel. 33% mehr TDP, das ist schon ordentlich. Mal hoffen, dass da viel davon auf die Tensor Cores geht und nicht auf die CUDA Cores. Die Groesse des Chips allerdings... ich moechte die Preise und Ausbeute sehen, vor allem letzteres. Wobei ich mich auch Frage wieviel groesser die Tensor Cores wurden. CUDA Cores und Speicherinterface wurden jetweils 50% mehr, aber die Chipgroesse bleibt gleich bei einem Shrink der wohl in Richtung 40% kleinerer Flaeche geht. Da sollten 10% uebrig bleiben, aber die Anzahl der Cores wurde verringert.
Wer das als Titan sehen will kann schon mal sein Auto verkaufen.
Also irgendwie ist das ganze jetzt doch nicht so ueberzeugend. An der CUDA Core IPC hat sich null getan und der Vorsprung wird rein durch mehr Cores erreicht. Wenn Ampere wirklich so aehnlich auch fuer Consumer kommen soll, dann bestimmen nur Cores und Takt die Leistung. Dann ist es auch weniger verwunderlich, dass Geruechte sagen, dass Nvidia etwas mehr Gas geben will mit der Veroeffentlichung und auf RDNA2 schielt.
Der Fokus ist also komplett auf den Tensor Cores. Die normale FP16 und FP32 Leistung um den Faktor 2.5 erhoehen ist nicht schlecht, aber es sind neue und einfache Einheiten. TF32 ist jetzt nicht wirklich bahnbrechend. Verzichte ich auf Praezision habe ich mehr Leistung, ok. @nlr Was nicht rauskommt, wie will Nvidia sicherstellen, dass der FP32 Output korrekt ist? Laut dem Artikel werben sie mit FP32 in und FP32 out und verwenden intern TF32. Wird hier gesagt, dass die Zahl nicht korrekt sein muss? Ansonsten kann man das wirklich nur explizit verwenden wenn meine Anwendung damit auch klar kommt, aber eben nicht als Standard. Was in dem Artikel etwas komisch ist, ist die Verzehnfachung von INT8 aufgrund eines Tricks aehnlich wie TF32 oder wirklich komplett ohne? Das liest sich etwas unguenstig.
Zur Sparsity-Beschleunigung: Auf was fuer Netzwerke wird sich da bezogen? Man kann auch in Software Verbindungen reduzieren um mehr Leistung zu erhalten. Und, wie wird erkannt welche Verbindungen wenig genutzt werden und nicht wichtig sind? Das birgt eine ganze Menge Furstrationspotential je nachdem wie das umgesetzt ist.
Mehr Speicher, mehr Bandbreite, da macht sich nicht viel. 33% mehr TDP, das ist schon ordentlich. Mal hoffen, dass da viel davon auf die Tensor Cores geht und nicht auf die CUDA Cores. Die Groesse des Chips allerdings... ich moechte die Preise und Ausbeute sehen, vor allem letzteres. Wobei ich mich auch Frage wieviel groesser die Tensor Cores wurden. CUDA Cores und Speicherinterface wurden jetweils 50% mehr, aber die Chipgroesse bleibt gleich bei einem Shrink der wohl in Richtung 40% kleinerer Flaeche geht. Da sollten 10% uebrig bleiben, aber die Anzahl der Cores wurde verringert.
Wer das als Titan sehen will kann schon mal sein Auto verkaufen.
Floppes
Lieutenant
- Registriert
- Apr. 2017
- Beiträge
- 848
Schöner Schritt nach vorne von Nvidia!! Interessant finde ich, dass AMD Epyc verbaut wird. Kam etwas unerwartet, aber nicht unverdient.
Zu viel Fanboy Geschwätz auf Wtftech gelesen? War doch klar, dass heute der Professionelle Teil angekündigt wird.Smartin schrieb:ich dachte, heute gibt es erste Infos zum Turing Nachfolger. Das dauert dann wohl noch
danyundsahne
Commodore
- Registriert
- Okt. 2007
- Beiträge
- 4.486
Und falls nicht, macht es Threadripper für dichSimanova schrieb:Bei Karten mit Video-Ausgang, ja
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
tochan01 schrieb:Zitat von t3chn0:
Absolut krass was Nvidia da auf die Straße bringt. Ich finde das einfach nur noch beeindruckend mit wie viel Innovationen und Performance/Verbrauch hier Gas gegeben wird.
(was Sie sich teuer bezahlen lassen werden)
Außerdem benutzt Nvidia nun Prozessoren von AMD, wie kann sowas nur sein? Was machen denn nun die ganzen Anti-Nvidia und pro AMD Fanboys?
(AMD hat mehr Corse, PCIe 4.0, bei günstigerem Preisen = Logische entscheidung)
Oh man, das muss sich unglaublich schäbbig anfühlen =D. Ich feier das einfach nur extrem.
(Wer, Intel? Die haben einfach gepennt bzw. ihren neuen Prozess nicht im Griff = kein passendes Angbot geliefert)
Triggered Und dabei hat @t3chn0 nur von Nvidia und AMD gesprochen, lesen liegt den „Fanboys“ hier auch nicht wirklich, aber Hauptsache mit PCIe 4.0 auf einem Mainstreamboard argumentieren, da du ja auch so viele 2x 100GbE Mellanox Karten in Betrieb hast
Wir sprechen schon von dem gleichen Nvidia, bei welchem die GeForce-Sparte den größten Anteil an Umsatz und Gewinn hat? Natürlich liegt der Fokus auf Datacenter, AI, etc., wenn es um Innovationen und Fortschritt geht, aber trotzdem werden neue GeForce Karten kommen und 2 Jahre nach der letzten Generation ist es nun halt mal soweit. Ich meine mehr als spekulieren kann man nicht, aber wir können ja Ende des Jahres nochmal darauf zurückkommen.Duke711 schrieb:die geringeren Einnahmen aus dem Konsumerbereich zweitrangig.
- Registriert
- Apr. 2001
- Beiträge
- 16.232
Kacha schrieb:So ist das etwas unuebersichtlich.
Vorab hatte Nvidia nur Informationen zu A100 preisgegeben, den GA100 als dessen Basis nicht einmal erwähnt. Zwar lag nahe, dass A100 nicht der Vollausbau ist, die ganzen Infos zu GA100 müssen wir uns jetzt aber erst einmal noch genauer zu Gemüte führen, was @Wolfgang bereits tut. Aber gut Ding will etwas Weile haben!
pietcux schrieb:Bei mir läuft schon lange AMD / NVIDIA. So What?
Das dürfte bei vielen der Fall sein, aber für manch einen „Religiösen“ geht das zu weit.
tochan01
Rear Admiral
- Registriert
- Mai 2007
- Beiträge
- 5.157
PPPP schrieb:du ja auch so viele 2x 100GbE Mellanox Karten in Betrieb hast
... noch nicht.....
Verstädnisfrage. Was ist an der PCI 4.0 Aussage falsch?
Zitat Artikel
Den CPUs stellt Nvidia im DGX A100 1 TB RAM und 15 TB NVMe-SSD-Speicher mit PCI-Express-4.0-Anbindung zur Seite.
Die "Alten" Xeon Platinum 8168 haben nur 3.0. Limitiert das nicht die NVMe's? Die werden jetzt keine "Mainstream oldschool" klotten mit 500 MB/s einbauen....
Bei PCI 3.0 ist mit 3500 MByte/s schluss beim lesen... 4.0 liegt bei faktor 2.
Zuletzt bearbeitet:
Jan schrieb:Vorab hatte Nvidia nur Informationen zu A100 preisgegeben, den GA100 als dessen Basis nicht einmal erwähnt. Zwar lag nahe, dass A100 nicht der Vollausbau ist, die ganzen Infos zu GA100 müssen wir uns jetzt aber erst einmal noch genauer zu Gemüte führen, was @Wolfgang bereits tut. Aber gut Ding will etwas Weile haben!
Ich dachte eigentlich auch eher an die TF32 Performance, Sparsity Performance und so weiter. Derzeit ist das nur im Test und es ist etwas unpraktisch zu lesen wenn der Test von FP32 mit 312 TFLOPS redet, in der Tabelle die Zahl fuer FP16 steht, aber eigentlich TF32 gemeint ist.
Bzw. wenn der Takt fuer den A100 stimmt sollte der Rest sich doch einfach errechnen lassen? Mit Stern und Anmerkung hochgerechnet.
Oh, und habt ihr Preise fuer die GPUs alleine? Die 200k sind ja fuer ein komplettes System.
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 9.053
Mustis schrieb:Der Hauptgrund ist, dass man eben genau gar nichts seitens Nvidia bisher dazu gesagt hat. Wird langsam bisschen knapp, wenn man bedenkt, wieviel Zeit sonst so vergeht zwischen erster offizieller Ankündigung und Marktstart...
Schauen wir uns doch Turing an. Erstmals offiziell als Quadroableger angekündigt am 14. August 2018, Als Gamingversion am 20. August 2018 angekündigt, erschienen ist die 2080 dann genau einen Monat später am 20. September, die 2080Ti war etwa verspätet verfügbar.
Also bei Turing war es ziemlich genau ein Monat. Schauen wir auf Pascal, angekündigt am 7. Mai 2016. Erste Tests gab es 10 Tage später..
(Daten von 3dCenter.org)
Also ich weiß nicht ganz, worauf du nun hinaus möchtest, aber wenn Nvidia in etwa so weiter macht, dann haben wir da bis Ende des Jahres noch mehr als genug Zeit für eine theoretische Ankündigung. Selbst wenn dazwischen 3 Monate liegen sollte, hätte Nvidia noch einiges an Zeit bis dahin.
Zuletzt bearbeitet:
johnieboy schrieb:An den Leaks von KittyKitties zu den Gaming Karten scheint was dran zu sein
https://twitter.com/VideoCardz/status/1260903348158554112
Anhang anzeigen 918770
Dazu kommt dieses Video von vor 2 Tagen, hört sich zumindest plausibel an.
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Also kann man davon ausgehen:
GA102 = RTX 3080 Ti = 40% schneller als 2080 Ti
GA103 = RTX 3080 = 2080 Ti Niveau mit 12 GB
GA104 = RTX 3070 = 2080S Niveau mit 10GB
GA106 = RTX 3060 = 2070S Niveau, aber nur 6 GB
GA107 = RTX 3050 = 2060S Niveau, aber nur 4 GB
Wobei das echt schade wäre, so nette GA106 / GA107 verkrüppelt durch das Speicherinterface, obwohl die Dinger in 7nm ja viel sparsamer als die Vorgänger sein dürften...
@Shoryuken94 Wahrscheinlich geht es darum, wieviel Zeit zwischen Volta und Turing war. Aber das ist ja alles nicht direkt vergleichbar. Lassen wir uns überraschen.
Arroganzanfall?Floppes schrieb:Zu viel Fanboy Geschwätz auf Wtftech gelesen? War doch klar, dass heute der Professionelle Teil angekündigt wird.
Dir mag es klar gewesen sein, da Du offensichtlich alles weißt, ich wusste es nicht, was ich geschrieben hatte, und dachte, dass heute die ersten Infos zur neuen RTX kommen. Ist ja auch nicht so unübliches "Geschwätz", wenn es ursprünglich mal hieß, dass die Karten Richtung Juli langsam auf den Markt kommen sollen.
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Ich kann einfach nur hoffen das NVIDIA bei den Konsumern auf die Preisbremse tritt, sonst könnten Konsolen tatsächlich mal den PClern noch zum Verhängnis werden.
Auch das Leistungsdelta zwischen Einsteiger xx60er und xx80er TI sollte nicht immer weiter auseinanderklaffen. optimiert wird nämlich immer für die Einsteigervariante, nicht für das 0,1% TI Nutzer.
Zumindest schön das NVIDIA AMD bei Server CPUs nutzt. Das sollte auf jeden Fall wieder einigen zu denken geben. Mit Rabatt alleine kann Intel hier einfach nicht mehr Punkten.
Auch das Leistungsdelta zwischen Einsteiger xx60er und xx80er TI sollte nicht immer weiter auseinanderklaffen. optimiert wird nämlich immer für die Einsteigervariante, nicht für das 0,1% TI Nutzer.
Zumindest schön das NVIDIA AMD bei Server CPUs nutzt. Das sollte auf jeden Fall wieder einigen zu denken geben. Mit Rabatt alleine kann Intel hier einfach nicht mehr Punkten.
Ähnliche Themen
- Antworten
- 14
- Aufrufe
- 4.355