Bericht Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU

KI als Kernkompetenz für autonomes Fahren. Jo, hoffentlich stimmen die Spaltmaße.
 
  • Gefällt mir
Reaktionen: Kuomo und adriatic
Mustis schrieb:
Mit Sicherheit nicht. Das wird doch immer deutlicher! Nvidia hat den kurzfristigen Fokus ganz klar auf den Volta Nachfolger Ampere gerichtet und dieser ist ohne deutliche Anpassungen nicht als Desktop-Grafikkarte nutzbar. Und selbst wenn, die dort nötige ALUs aka CUDA Leistung steigt bei Ampere kaum an, 24% wie man hier sieht. Man muss also sogar offen, dass die Gaming Ampere sich deutlich unterscheidet von der Datacenter Ampere, sonst wird der Leistungssprung sehr übersichtlich. Auch fehlen wohl RTX Kerne und ich bezweifele, dass Nvidia die bereits wieder aufgibt nach einer Generation.

https://www.pcgameshardware.de/Graf...ehr-aber-sicher-andere-Konfiguration-1350184/
 
  • Gefällt mir
Reaktionen: xBitwinSDKx, Onkel Föhn und Zockmock
Es ging darum, dass heute die Gaming Variante mit vorgestellt werden würde unter Umständen bzw. viele das meinten. Ob die Dinger nun einen Namen haben oder nicht, ist doch Wumpe. Die Gaming Ampere wird ähnlich große Unterschiede haben wie Volta und Turing, umhin 2 verschiedene Chips.
 
Hat doch Tensor Cores, daher ist auch Hardware seitiges RT möglich.
Nur weils nicht erwähnt wurde heißt es nicht das die GPU es nicht kann, ist schließlich eine Konferenz wo es nicht um games und spieler geht.

Die Chips bzw. die Architektur wird im Nachhinein nicht mehr geändert
A100 in abgespeckter Variante wirds auch für Spieler geben in 1-2 Jahren.
Vielleicht wird A100 auch die neue Titan, so wie vor einigen Jahren mit Big Kepler.

War doch bisher immer so, nur Volta hat es damals nicht als Spieler GPU geschafft.
Es wurde auch noch nie eine Architektur extra angepasst für Spieler
 
Teralios schrieb:
hier wird AMD früher oder später auch entsprechend "einfache" Schaltungen in ihre Grafikkarte einbauen müssen, wenn sie da mit halten wollen
Wenn die Software das nutzt und dann auch auf AMD laufen wird, werden sie das wohl auch tun. Ohne nutzen bräuchte Nvidia das ja nicht. Vielleicht hat AMD das auch schon in Arbeit.
 
@Häschen Da die Tensor Cores auf den Turings nur das Denoising (wenn ich mich recht entisnne) machen reicht das allein für RTX nicht aus. Es fehlt die RT Einheit auf dem DIng mit den RT Kernen von denen Turing 68 hat bei der 2080 TI. Zumindest werden die nirgends erwähnt und ich bezweifele, dass Nvidia dies nicht tun würde, wenn sie vorhanden wären.
 
Macht die Software aus denn Tensor Cores nicht die RT einheit?
Sonst hätte turing drei unterschiedliche Cores neben Cuda
 
Mustis schrieb:
Ja dazu muss man die aber auch erstmal haben. die 2080 Ti taktet selbst im Bost 500 mhz weniger... die 1080 Ti taktete auch bei 1500 und un sollen 500mhz direkt mehr sein?

Die 2080Ti taktet real in Spielen zwischen 1700 und 1900mhz. Übertakten lassen sich so ziemlich alle 2080Tis auf 2000-2100mhz.

Da sind 2000mhz nicht wirklich so viel angenommen bei einer potentiellen Desktop Ampere Karte.

Mustis schrieb:
Ja isn Shrink, halte ich für dennoch unwahrscheinlich zumal auch 1080 Ti auf 2080 Ti einen Shrink enthielt und die Taktraten dennoch weitgehend identisch waren.

Nein. Die 12nm waren kein Full Node Shrink. Das war ein optimierter 16Nm Prozess. 7nm sind ein echter Sprung mit deutlich gesteigerter Transistordichte

Mustis schrieb:
Da die Tensor Cores nur das Denoising (wenn ich mich recht entisnne) machen reicht das allein für RTX nicht aus. Es fehlt die RT Einheit auf dem DIng mit den RT Kernen von denen Turing 36 hat bei der 2080 TI.

Die Tensorcores haben nicht viel mit Raytracing zu tun. Du könntest aber auch auf der A100 GPU theoretisch Raytracing nutzen. Das konnte auch Volta schon. Ist nur nicht sonderlich effizient. Aber die A100GPU dürfte ausgehend von den Voltawerten wahrscheinlich in Raytracingspielen trotz fehlender Einheiten in etwa vielleicht eine 2080 erreichen.
 
  • Gefällt mir
Reaktionen: xBitwinSDKx
Soweit ich weiß sind Tensor und RT auch in Hardware 2 verschiedene Sachen.
Shoryuken94 schrieb:
Da sind 2000mhz nicht wirklich so viel angenommen bei einer potentiellen Desktop Ampere Karte.
Meine MSI lässt sich nich auf 2100mhz übertakten...
Und was sollen diese 2000 für AMpere dann sein? Basis? Boost? OC? die von dir genannten Werte beziehen sich auf die BAsis/Boostwerte des Standardmodells, ergo muss ich auch diese Werte bei AMpere gegenüberstellen. Und wenn bereits der Boost auf 2000 liegt, müsste ja oC bei 2400-2500 sein...

ZUm RT. Ach ne! Auch ne 1080 TI kann RT nur halt nicht so effektiv. Was nen geheimnis. Und die Tensorcores haben eine Funktion bei RT, nämlich Denoising und ist aufgrund dessen für RT ziemlich relevant: https://www.hardwareluxx.de/index.p...-und-den-neuen-shader-funktionen.html?start=6
 
Zuletzt bearbeitet von einem Moderator:
Mustis schrieb:
Der Hauptgrund ist, dass man eben genau gar nichts seitens Nvidia bisher dazu gesagt hat. Wird langsam bisschen knapp, wenn man bedenkt, wieviel Zeit sonst so vergeht zwischen erster offizieller Ankündigung und Marktstart...
Die Gaming-Ableger von Turing wurden im August vorgestellt und kamen im September, aslo inwiefern wird es knapp? Das neue Desktop-Karten noch dieses Jahr kommen gilt als sehr warscheinlich, weil sich trotz fehlender Konkurrenz eine Marktsättigung bildet und man somit neue Produkte braucht, um Verkaufszahlen und Umsatz hochzuhalten.
 
  • Gefällt mir
Reaktionen: xBitwinSDKx, Jedi123 und Darkscream
Mustis schrieb:
@ZeroZerp
Die reine FP32 Leistung steigt nur relativ minimal und das beim Vollausbau.
Das wissen wir nicht. Wir reden hier von einem theoretischen TFLOPs Wert, auf den man noch nie irgendwas geben konnte. Schaffen sie es die ALUs besser auszulasten, also die IPC zu steigern, die Kommunikationsanbindung zu straffen etc., dann kann da an tatsächlich nutzbarer Leistung deutlich mehr drin sein.

Also welche Leistungssteigerung siehst du? Also sofern man nicht über DLSS in deutlich geringer Auflösung zocken will (mich at auch das DLSS 2.0 noch nicht soweit überzeugt, dass ich auf native Auflösung verzichten will, da es noch immer unschärfer ist) habe ich zwar ggf. gestiegen RTX Leistung, aber im Kern eine fast schon stagnierende Leistung.
Wenn Du das 20- Fache Rechenbudget allein über die Tensor- Cores hast (kann mir nicht vorstellen, dass wir das auf den Gaming- Karten zu sehen bekommen), kannst Du die DLSS Qualität steigern, DLSS weiter beschleunigen und tatsächlich noch das Denoising, was derzeit noch gut 50% der Rechenlast beim Pathtracer ausmacht, auf diese schieben. Dann hast Du die bessere Qualität als nativ aufgelöst, die Du hier forderst.

Und dann reden wir noch nicht davon, dass es auch mehr Shader- und RT Cores geben wird, die das ganze zusätzlich beschleunigen.
Werden dann noch anteilig Berechnungen, die für die Tensor gestützte FP32 Berechnung genutzt werden, eben über diese geleitet (lt. Bericht kann man die dafür automatisiert, wie einen Proxy nutzen), werden die klassichen Shader bei deutlicher Beschleunigung der TF32- tauglichen Operationen, zusätzlich weiter entlastet.

Zudem gab es hier vor Kurzem einen Test von DLSS2.0. Die leichte Unschärfe ist ist relativ.
Bei den TAA- Verfahren wurde ein Sharpen Attribut aktiviert (z.B. Deliver us the moon), während man die bei DLSS2.0 unterlassen hat. Es liegt also nicht am Verfahren, sondern an einer Einstellung.

Siehe auch hier:
https://www.computerbase.de/forum/t...ndlich-was-moeglich-ist.1943343/post-24082522

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xBitwinSDKx, v_ossi und Darkscream
Krautmaster schrieb:
hm letztes mal kam glaub der Desktop Pendant wenige Wochen / Monate nach der HPC Variante.
Kommt darauf an, wie man es nun deuten will.

Den GA100 werden wir - wenn es hochkommt - auf einer Titan-Karte sehen, hier ist die Frage, in wie weit sie Architektur in den jeweiligen Chips an ihre Aufgabe anpassen.*

ZeroZerp schrieb:
Mal sehen, was sich von den Daten auf die Spielegrafikkarten rüberretten lässt, bzw. was nvidia zulassen will :)
Hätte, könnte, stünde....
Vermutlich wird ein fiktiver GA102 auf die gleiche Anzahl an FP32-CUs kommen, die FP64-CUs werden durch "doppelte" Menge an INT32-CUs ersetzt und was dann an Platz frei bleibt wird durch RT-Cores ersetzt.

Sprich vermutlich wieder pro SM 64 FP32-CC und 64 INT32-CC. Dazu die Tensore-Cores.

Na, vermutlich wird ein GA102 um die FP64-CCs gestutzt, um den Chip kleiner zu bekommen. Ansonsten wird sich wohl nicht viel ändern, das reicht aber auch. :D

Fritzler schrieb:
Das "TF32" klingt aber echt nach Beschiss weil der Name mehr genauigkeit suggeriert als überhaupt vorhanden ist.
Kommt immer auf die Berechnung an. Man muss sich halt bewusst sein, dass TF gewisse Einschränkungen mit sich bringen wird.

Aber selbst FP32 ist heute für viele "Rechnungen" - Abseits einiger Fachbereiche - in der Regel eher absolut unnötig. Es gibt durchaus Bereiche, in denen TF32 sehr gut die Leistung steigern kann, weil man auf auf gewisse Genauigkeit in der Mantisse braucht, aber die Genauigkeit des Exponenten.

Shoryuken94 schrieb:
Nvidia hat doch selbst bestätigt, dass es keine Trennung mehr zwischen den Architekturen gibt und Ampere sowohl im HPC Bereich, als auch in anderen bereichen eingesetzt wird.
Jaein, muss man an der Stelle sagen. NVIDIA hat mit Pascal quasi auch nur eine Architektur auf dem Markt gehabt nach dem Namen, diese aber je nach Hauptaufgabengebiet entsprechend angepasst. Pascal für HPC hatte pro SM 64 FP32-Shader, 32 FP64-Shader und halt doppelt soviele SM wie Pascal für Spieler und die Quadros.

Bei Ampere könnte NVIDIA ein ähnliches Spiel spielen, nämlich das GA100 als HPC-Chip ausgelegt wird und die SM entsprechend für diese Aufgabe primär angepasst werden, sprich 64 FP32-CU, 32 FP64-CUs und mehr TCs, während für GA102 dann die SM aus 64 FP32-CU, 64 INT32-CU, etwas weniger TCs ausgelegt werden.
Mit hoher Wahrscheinlichkeit wird GA für Spieler einfach um die 64 FP32-CC gestutzt werden.

Man sollte sich hier nicht zu sehr auf den Namen versteifen. Während bei Fermi und Kepler der "Unterschied" noch primär per Treiber realisiert wurde (FP64-Leistung) hat man bei Pascal sehr wohl - obwohl es dieselbe Grundarchitektur war - die Chips für die entsprechenden Einsatzszenarien gestaltet und man wird diese Unterteilung auch bei Ampere beibehalten. Die SM werden eben bei GA100 für den HPC-Markt konfiguriert und bei GA102 und alle anderen für den GPU-Markt.

CUDACores, TensoreCores wiederum lassen sich ja gut als Grundlage gemeinsam entwickeln.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: derSafran und Shoryuken94
uncrypted schrieb:
Die wichtigste bisher unbeantwortete Frage ist aber, does it run Crysis ????

Die Frage sollte eher lauten: But can it run Crysis Remastered?

Ich weiß, ich weiß, das Teil ist nicht zum zocken da. Der musste trotzdem sein. :D
 
Sieht wirklich wie das Pendant von Volta aus. Die Turing-Gamerkarten waren ja 1:1 die Quadros, aber nicht die Datacenter-Karten. Kommen also später, irgendwann.

Wenn sich für die Gamerkarten an der Architektur nichts ändert (einfacher Shrink) gilt die übliche TSMC-Weisheit: Doppelte Anzahl Kerne bei gleichem Takt oder 25% mehr Takt bei gleicher Anzahl Kerne. Wird wahrscheinlich eine Mischung aus beidem.
Häschen schrieb:
Macht die Software aus denn Tensor Cores nicht die RT einheit?
Sonst hätte turing drei unterschiedliche Cores neben Cuda
Turing hat in der Tat Cuda-Cores, Tensor-Cores und RT-Cores, jeweils in unterschiedlicher Anzahl.
 
  • Gefällt mir
Reaktionen: Häschen
Absolut krass was Nvidia da auf die Straße bringt. Ich finde das einfach nur noch beeindruckend mit wie viel Innovationen und Performance/Verbrauch hier Gas gegeben wird.

Außerdem benutzt Nvidia nun Prozessoren von AMD, wie kann sowas nur sein? Was machen denn nun die ganzen Anti-Nvidia und pro AMD Fanboys?

Oh man, das muss sich unglaublich schäbbig anfühlen =D. Ich feier das einfach nur extrem.
 
  • Gefällt mir
Reaktionen: Draguspy und PPPP
but can it run Crysis?


Fehlt nur noch ein Betriebssystem wie Skynet oder so :D
 
MrNejo schrieb:
Die Gaming-Ableger von Turing wurden im August vorgestellt und kamen im September, aslo inwiefern wird es knapp? Das neue Desktop-Karten noch dieses Jahr kommen gilt als sehr warscheinlich, weil sich trotz fehlender Konkurrenz eine Marktsättigung bildet und man somit neue Produkte braucht, um Verkaufszahlen und Umsatz hochzuhalten.

Wenn das so wichtig wäre, hatte man diesen bereits vorgestellt. Nvidia scheint aber den Fokus sehr auf die Wissenschaft/Industrie zu legen und da sind die geringeren Einnahmen aus dem Konsumerbereich zweitrangig. Auch ist der A100 wegen seinen Mermalen für den Konsumerbereich uninteressant. Wird wohl ein anderer Chip werden und Volta kam übrigens schon 2017, ein Jahr vor dem Konsumerprodukten, raus.
Der neue Chip wird sich wohl erst noch in der Entwicklungsphase befinden. Weiter kann er nicht sein, da man sich ja offensichtlich auf den A100 konzentriert hat.
Aber glaube ruhig weiter an einem Release im Q3 oder Q4, das ist sowas von unwahrscheinlich.
 
  • Gefällt mir
Reaktionen: Mustis
uncrypted schrieb:
Die wichtigste bisher unbeantwortete Frage ist aber, does it run Crysis ????
mic_ schrieb:
but can it run Crysis?

Ergänzung.... Crysis "remastered"!!!!!!!


t3chn0 schrieb:
Absolut krass was Nvidia da auf die Straße bringt. Ich finde das einfach nur noch beeindruckend mit wie viel Innovationen und Performance/Verbrauch hier Gas gegeben wird.
(was Sie sich teuer bezahlen lassen werden)

Außerdem benutzt Nvidia nun Prozessoren von AMD, wie kann sowas nur sein? Was machen denn nun die ganzen Anti-Nvidia und pro AMD Fanboys?
(AMD hat mehr Corse, PCIe 4.0, bei günstigerem Preisen = Logische entscheidung)

Oh man, das muss sich unglaublich schäbbig anfühlen =D. Ich feier das einfach nur extrem.
(Wer, Intel? Die haben einfach gepennt bzw. ihren neuen Prozess nicht im Griff = kein passendes Angbot geliefert)
 
Zuletzt bearbeitet:
johnieboy schrieb:
An den Leaks von KittyKitties zu den Gaming Karten scheint was dran zu sein
https://twitter.com/VideoCardz/status/1260903348158554112

Anhang anzeigen 918770


Dazu kommt dieses Video von vor 2 Tagen, hört sich zumindest plausibel an.

Hört doch mal bitte auf mit diesem Video. Der Typ hat die plausiblen Daten von Kittys Leaks geklaut und dann seine Wahnvorstellungen aka 4xRT und DLSS 3.0 als Injektor dazugesponnen. Ist doch klar was hier läuft. Der Typ sollte null Beachtung dafür kriegen.
 
  • Gefällt mir
Reaktionen: derSafran
Zurück
Oben