News Nvidia Quadro RTX: Turing mit bis zu 16 TFLOPS und RT-Cores für Raytracing

ampre schrieb:
Ich komme zu der Annahme weil RT predistiniert für Shader ist
Nein ist es nicht. Wurde unter anderem in den Links zu den CB Storys zum Thema Ray Tracing erklärt. Ray Tracing kann am besten und weitaus effizienter über speziell dafür vorgesehene Kerne berechnet werden.
 
Mustis schrieb:
Nein ist es nicht. Wurde unter anderem in den Links zu den CB Storys zum Thema Ray Tracing erklärt. Ray Tracing kann am besten und weitaus effizienter über speziell dafür vorgesehene Kerne berechnet werden.
Hast du einen link wo das steht?
 
Such bei CB einfahc nach Ray Tracing... gab dazu über die JAhre 5 Berichte... Und du solltest nachlesen, was Shader tun...

Sicher kann man Strahlenberechnungen (nichts anderes ist Ray Tracing) auch über Shader machen. Effizient is das nicht.
 
ampre schrieb:
Ich komme zu der Annahme weil RT predistiniert für Shader ist. Man bindet sich keinen Klotz ans Bein wenn man für etwas Leistungsverlust sehr flexibel sein kann und doch die Wx9100 kann realtime Raytracing.
[...]
RT läuft bisher bei AMD und Nvidia über die normalen Shader.
Bei Turing dagegen kommt dedizierte Hardwarelogik zum Einsatz, die sich explizit um die Raytreffer kümmert und das Durchqueren von der Bounding volume hierarchy (BVH) beschleunigt, dass ist eine Datenstruktur bezüglich der Geometrie, welche verwendet wird um die Szene einzuteilen und die Dinge zu verwerfen, die von Rays nicht getroffen werden.

Bezogen auf Nvidias Zahlen bei ihrer Area-Light-Software scheint Turing Raytracing bei ungefähr gleicher Rechenleistung mindestens 2 mal so schnell ausführen zu können:
https://twitter.com/SoufianeKHIAT/status/1029159860464545792

Die Quadro besitzt eine fast doppelt so hohe Rechenleistung und Bandbreite im Vergleich zur einer 1080GTX ist aber nicht nur doppelt so schnell, sondern 4-5-fach.
Und da deswegen ist auch das Marketing so aktiv was angebliches real-time Raytracing angeht, weil für einzelne Effekte nicht mehr 20-40ms benötigt werden, sondern nach nur einer Generation das Ganze auf 5-10ms reduziert werden konnte und das kann man dann auch wirklich in echte Anwendungssoftware integrieren und 30FPS und mehr erreichen.
 
  • Gefällt mir
Reaktionen: TheBobSuffix und .Sentinel.
30fps wäre aber Steinzeit, oder? Man sprach von 6fach weniger Zeit und hat sich an den Balken gemessen, ganz sicher die beste Präsentationsmöglichkeit rausgesucht. Nur konnte ich nicht ganz verstehen, ob man einen mGPU Verbund meinte oder eine einzelne Karte.

Die (SW) UE4 RTRT Demo lief ja auf einem Titan V Verbund bei über 60fps, aber andere solchen auf einer P8000 gerade bei 20-25fps gelegen haben (Porschejubiläum).

Schon gelesen: https://twitter.com/intelnews/status/1006592543201480706
 
30FPS sind je nach Spiel relativ gut spielbar und jedem steht es frei Raytracing zu aktivieren, auf Kosten der Framerate.
Wenn die Framerates zwischen 30-60FPS je nach Spiel und Einstellungen legen, dann kann man das mit einem G-Sync Monitor sicherlich ganz annehmbar genießen.

Wie es am Ende wirklich sein wird, müssen wir halt abwarten.
Metro: Exodus wird Anfang 2019 erscheinen und möglicherweise schon zu Beginn RTX und Raytracing Settings anbieten.

Den Vergleich den Nvidia angestellt hat, wurde vermutlich mit einzelnen GPUs durchgeführt.
Welche genau weiß ich nicht, auf der Folie steht nur Pascal vs. Turing.
Bei der UE4 Star Wars Demo soll Turing (vermutlich P8000) 22FPS geschafft haben, Pascal lediglich 3,2 FPS.
Die Porsche-Demo lief nur mit 1,7FPS bei Pascal 11,6 FPS bei Turing.
http://www.pcgameshardware.de/Grafi...idia-GPU-Architektur-1262761/galerie/2913192/
 
kann man nicht Gsync geht nicht so weit runter und erkläre mal den Shooter Gamern dass sie mit 30FPS Gamen sollen. Die jammern schon bei 60.

Davon abgesehen alles was HW ist macht den Chip größer und teuer tja so ist dass.

Auch bezweifle ich dass den mehr aufwand sich viele antuen werden, wenn sie schon bei DX12 und Vulkan kein bock haben.
 
Du meinst die Shooter Gamer die eh alles auf Low stellen damit man Gegner leichter erkennt und 144fps aufwärts hat?
Die dürften an der Optik am wenigsten interessiert sein.
Wie gesagt ist es ja eine optionale Sache.
Du hast bei den Zwischenkonsolen auch schon häufig die Wahl zwischen Full HD 60fps, erweiterte Grafiksetting bei 30fps oder hohe Auflösung bei 30fps.

Es gibt ja nicht nur schnelle Shooter. Einige Genre wo man eh langsam unterwegs ist und mehr Zeit hat die Landschaft zu bewundern bieten sich halt eher an.
Aber irgendwo muss es seinen Anfang nehmen um darauf aufzubauen. Von Heute auf Morgen zauberst auch keine 100 Games mit der Technik aus dem Hut wenn man damit 2 Jahre wartet.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Mal zum Thema:

Turing als Big-Chip wird für Nvidia wohl nicht genug abwerfen - wenn überhaupt - um ihn im Consumer-Markt zu bringen. Höchstens, wie bereits erwähnt, in Form einer Titan XT. Sollte Nvidia allerdings in der Perforrmance-Klasse bei einem 256bit-SI bleiben, wovon ich mal ausgehe, dann wäre der Speicherdurchsatz von 448GB/s zu wenig um auf Big-Pascal in Form der 1080ti aufschließen zu können. Da liegt man bei 528GB/s trotz GDDR5X.
Mal gucken was Nvidia letztendlich an der Architektur verändert hat.
 
pclovely schrieb:
Weißt du zufällig ob es Unterschiede zwischen NVDLA und DLAA gibt. OptiX vs DXR?

Nvidia führte ja DLAA bei der Rechenzeit mit auf, mich würde interessieren ob das mit einer Open Lizenz abrufbar ist, wie bei NVDLA? Sprich werden die Dokumentationen auf Github veröffentlich oder ist DLAA closed?
DLAA = Deep-Learning Anti-Alisiang.
Nvidia hat glaube ich gesagt das man ein AI Netzwerk auf Kantenglättung für das Ausgabematerial trainiert hat.
Ob Nvidia diese Infrastruktur und die Algorithmen offen legt, dass weiß ich nicht.
NVDLA ist dagegen ein Framework für die Entwicklung von AI-Hardware?

Die genauen Unterschiede zwischen OptiX vs. DXR kenne ich nicht, aber anscheinend sind die Shader-Typen bzw. die logische Arbeitspipeline sehr ähnlich.

SKu schrieb:
Mal zum Thema:

Turing als Big-Chip wird für Nvidia wohl nicht genug abwerfen - wenn überhaupt - um ihn im Consumer-Markt zu bringen. Höchstens, wie bereits erwähnt, in Form einer Titan XT. Sollte Nvidia allerdings in der Perforrmance-Klasse bei einem 256bit-SI bleiben, wovon ich mal ausgehe, dann wäre der Speicherdurchsatz von 448GB/s zu wenig um auf Big-Pascal in Form der 1080ti aufschließen zu können. Da liegt man bei 528GB/s trotz GDDR5X.
Mal gucken was Nvidia letztendlich an der Architektur verändert hat.
Nvidia hat dank besserer Bandbreiteneffizienz mit der 1070 GTX und 256GB/s die gleiche Leistung auf die Waage gebracht, wie die 980Ti mit 336GB/s.
https://www.computerbase.de/2016-06...-test/4/#diagramm-performancerating-1920-1080

Eine 1080Ti besitzt darüber hinaus nicht 528GB/s, sondern 484GB/s, die Titan X 480 GB/s und die Titan Xp 547GB/s.
Da ist es mehr als machbar, die 1080Ti mit 448GB/s zu schlagen.
 
Mcr-King schrieb:
Auch bezweifle ich dass den mehr aufwand sich viele antuen werden, wenn sie schon bei DX12 und Vulkan kein bock haben.

Der Witz ist ja, dass Raytracing die Dinge vereinfacht. Keine 1000 Tricks mehr einsetzen müssen, um es so aussehen zu lassen als ob...
 
  • Gefällt mir
Reaktionen: TheBobSuffix
Locuza schrieb:
Eine 1080Ti besitzt darüber hinaus nicht 528GB/s, sondern 484GB/s

Ist nicht ganz korrekt. Es gibt, genauso wie bei der 1080 und 1060 auch, unterschiedliche Speicherbestückungen, die im Laufe der Zeit auf den Markt gekommen sind. Die Top-Modelle der 1080ti haben 528GB/s und nicht 484.

Dein Link zeigt mir nur, dass die 1070 ca. auf dem Niveau einer 980ti liegt. Ich glaube aber nicht, dass Nvidia bei der kommenden 2070 RTX hier die schnellsten GDDR6 Chips verbauen wird.
 
Welche aber, soweit ich es sehe, nie die ersten Varianten ersetzt haben und Boardpartner nur die Möglichkeit haben schnelleren Speicher zu verbauen.
Im Angebot sehe ich bis Heute mehrheitlich die Ausführungen mit 8 oder 10Gbps GDDR5(X)-Speicher.

Man wird natürlich abwarten müssen, ob eine x070 wieder an die Leistung vom vorherigen Ti-Modell kommt, aber eine 2080 sollte es schaffen bzw. darüber liegen.
 
Locuza schrieb:
DLAA = Deep-Learning Anti-Alisiang.Ob Nvidia diese Infrastruktur und die Algorithmen offen legt, dass weiß ich nicht.
Eine schnell berechnete Kantenglättung mit 64 gedrehten Samples über AI, daher muss man auch aufpassen was nVidia dann mit Consumer so liefert. Dann geht der ms Vorteil womöglich verloren oder man braucht ihn auf der Gamerplattform nicht.

Locuza schrieb:
NVDLA ist dagegen ein Framework für die Entwicklung von AI-Hardware?
Als offene Community.

Locuza schrieb:
...aber anscheinend ist die logische Arbeitspipeline sehr ähnlich.
Denke ich auch. Trotzdem Danke.
 
Hier nochmal eine Übersicht der DX Level.
http://www.pcgameshardware.de/Grafi...-Support-Geforce-Radeon-Treiber-1204767/2/#a3

Warum man nicht alles drin hat ganz einfach dass passt nit in so ein mini Chip alla GTX Gaming. Dass ganze wird sich erst zeigen was am ende im Gaming Chip drin ist NV ist Meister im zusammen schneiden.

HBM wäre im Profi bereich auch besser nur steht es der Gewinn Max von NV im weg. Lieber weniger an den Kunden verkaufen um später nochmal was nach zuschieben. ;-)
 
Mcr-King schrieb:
Warum man nicht alles drin hat ganz einfach dass passt nit in so ein mini Chip alla GTX Gaming. Dass ganze wird sich erst zeigen was am ende im Gaming Chip drin ist NV ist Meister im zusammen schneiden.
Aber alles passt in eine kleine Skylake iGPU.
Und wie schätzt du eig. Pascals Featureset anhand der Tabelle ein gegenüber AMDs GCN1-4?
Kann Pascal mehr oder weniger Zeug?
 
Zurück
Oben