Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Quadro RTX: Turing mit bis zu 16 TFLOPS und RT-Cores für Raytracing
Nein ist es nicht. Wurde unter anderem in den Links zu den CB Storys zum Thema Ray Tracing erklärt. Ray Tracing kann am besten und weitaus effizienter über speziell dafür vorgesehene Kerne berechnet werden.
Nein ist es nicht. Wurde unter anderem in den Links zu den CB Storys zum Thema Ray Tracing erklärt. Ray Tracing kann am besten und weitaus effizienter über speziell dafür vorgesehene Kerne berechnet werden.
Ich komme zu der Annahme weil RT predistiniert für Shader ist. Man bindet sich keinen Klotz ans Bein wenn man für etwas Leistungsverlust sehr flexibel sein kann und doch die Wx9100 kann realtime Raytracing.
[...]
RT läuft bisher bei AMD und Nvidia über die normalen Shader.
Bei Turing dagegen kommt dedizierte Hardwarelogik zum Einsatz, die sich explizit um die Raytreffer kümmert und das Durchqueren von der Bounding volume hierarchy (BVH) beschleunigt, dass ist eine Datenstruktur bezüglich der Geometrie, welche verwendet wird um die Szene einzuteilen und die Dinge zu verwerfen, die von Rays nicht getroffen werden.
Die Quadro besitzt eine fast doppelt so hohe Rechenleistung und Bandbreite im Vergleich zur einer 1080GTX ist aber nicht nur doppelt so schnell, sondern 4-5-fach.
Und da deswegen ist auch das Marketing so aktiv was angebliches real-time Raytracing angeht, weil für einzelne Effekte nicht mehr 20-40ms benötigt werden, sondern nach nur einer Generation das Ganze auf 5-10ms reduziert werden konnte und das kann man dann auch wirklich in echte Anwendungssoftware integrieren und 30FPS und mehr erreichen.
30fps wäre aber Steinzeit, oder? Man sprach von 6fach weniger Zeit und hat sich an den Balken gemessen, ganz sicher die beste Präsentationsmöglichkeit rausgesucht. Nur konnte ich nicht ganz verstehen, ob man einen mGPU Verbund meinte oder eine einzelne Karte.
Die (SW) UE4 RTRT Demo lief ja auf einem Titan V Verbund bei über 60fps, aber andere solchen auf einer P8000 gerade bei 20-25fps gelegen haben (Porschejubiläum).
30FPS sind je nach Spiel relativ gut spielbar und jedem steht es frei Raytracing zu aktivieren, auf Kosten der Framerate.
Wenn die Framerates zwischen 30-60FPS je nach Spiel und Einstellungen legen, dann kann man das mit einem G-Sync Monitor sicherlich ganz annehmbar genießen.
Wie es am Ende wirklich sein wird, müssen wir halt abwarten.
Metro: Exodus wird Anfang 2019 erscheinen und möglicherweise schon zu Beginn RTX und Raytracing Settings anbieten.
Den Vergleich den Nvidia angestellt hat, wurde vermutlich mit einzelnen GPUs durchgeführt.
Welche genau weiß ich nicht, auf der Folie steht nur Pascal vs. Turing.
Bei der UE4 Star Wars Demo soll Turing (vermutlich P8000) 22FPS geschafft haben, Pascal lediglich 3,2 FPS.
Die Porsche-Demo lief nur mit 1,7FPS bei Pascal 11,6 FPS bei Turing. http://www.pcgameshardware.de/Grafi...idia-GPU-Architektur-1262761/galerie/2913192/
Du meinst die Shooter Gamer die eh alles auf Low stellen damit man Gegner leichter erkennt und 144fps aufwärts hat?
Die dürften an der Optik am wenigsten interessiert sein.
Wie gesagt ist es ja eine optionale Sache.
Du hast bei den Zwischenkonsolen auch schon häufig die Wahl zwischen Full HD 60fps, erweiterte Grafiksetting bei 30fps oder hohe Auflösung bei 30fps.
Es gibt ja nicht nur schnelle Shooter. Einige Genre wo man eh langsam unterwegs ist und mehr Zeit hat die Landschaft zu bewundern bieten sich halt eher an.
Aber irgendwo muss es seinen Anfang nehmen um darauf aufzubauen. Von Heute auf Morgen zauberst auch keine 100 Games mit der Technik aus dem Hut wenn man damit 2 Jahre wartet.
Weißt du zufällig ob es Unterschiede zwischen NVDLA und DLAA gibt. OptiX vs DXR?
Nvidia führte ja DLAA bei der Rechenzeit mit auf, mich würde interessieren ob das mit einer Open Lizenz abrufbar ist, wie bei NVDLA? Sprich werden die Dokumentationen auf Github veröffentlich oder ist DLAA closed?
Turing als Big-Chip wird für Nvidia wohl nicht genug abwerfen - wenn überhaupt - um ihn im Consumer-Markt zu bringen. Höchstens, wie bereits erwähnt, in Form einer Titan XT. Sollte Nvidia allerdings in der Perforrmance-Klasse bei einem 256bit-SI bleiben, wovon ich mal ausgehe, dann wäre der Speicherdurchsatz von 448GB/s zu wenig um auf Big-Pascal in Form der 1080ti aufschließen zu können. Da liegt man bei 528GB/s trotz GDDR5X.
Mal gucken was Nvidia letztendlich an der Architektur verändert hat.
Weißt du zufällig ob es Unterschiede zwischen NVDLA und DLAA gibt. OptiX vs DXR?
Nvidia führte ja DLAA bei der Rechenzeit mit auf, mich würde interessieren ob das mit einer Open Lizenz abrufbar ist, wie bei NVDLA? Sprich werden die Dokumentationen auf Github veröffentlich oder ist DLAA closed?
DLAA = Deep-Learning Anti-Alisiang.
Nvidia hat glaube ich gesagt das man ein AI Netzwerk auf Kantenglättung für das Ausgabematerial trainiert hat.
Ob Nvidia diese Infrastruktur und die Algorithmen offen legt, dass weiß ich nicht.
NVDLA ist dagegen ein Framework für die Entwicklung von AI-Hardware?
Die genauen Unterschiede zwischen OptiX vs. DXR kenne ich nicht, aber anscheinend sind die Shader-Typen bzw. die logische Arbeitspipeline sehr ähnlich.
SKu schrieb:
Mal zum Thema:
Turing als Big-Chip wird für Nvidia wohl nicht genug abwerfen - wenn überhaupt - um ihn im Consumer-Markt zu bringen. Höchstens, wie bereits erwähnt, in Form einer Titan XT. Sollte Nvidia allerdings in der Perforrmance-Klasse bei einem 256bit-SI bleiben, wovon ich mal ausgehe, dann wäre der Speicherdurchsatz von 448GB/s zu wenig um auf Big-Pascal in Form der 1080ti aufschließen zu können. Da liegt man bei 528GB/s trotz GDDR5X.
Mal gucken was Nvidia letztendlich an der Architektur verändert hat.
Eine 1080Ti besitzt darüber hinaus nicht 528GB/s, sondern 484GB/s, die Titan X 480 GB/s und die Titan Xp 547GB/s.
Da ist es mehr als machbar, die 1080Ti mit 448GB/s zu schlagen.
Ist nicht ganz korrekt. Es gibt, genauso wie bei der 1080 und 1060 auch, unterschiedliche Speicherbestückungen, die im Laufe der Zeit auf den Markt gekommen sind. Die Top-Modelle der 1080ti haben 528GB/s und nicht 484.
Dein Link zeigt mir nur, dass die 1070 ca. auf dem Niveau einer 980ti liegt. Ich glaube aber nicht, dass Nvidia bei der kommenden 2070 RTX hier die schnellsten GDDR6 Chips verbauen wird.
Welche aber, soweit ich es sehe, nie die ersten Varianten ersetzt haben und Boardpartner nur die Möglichkeit haben schnelleren Speicher zu verbauen.
Im Angebot sehe ich bis Heute mehrheitlich die Ausführungen mit 8 oder 10Gbps GDDR5(X)-Speicher.
Man wird natürlich abwarten müssen, ob eine x070 wieder an die Leistung vom vorherigen Ti-Modell kommt, aber eine 2080 sollte es schaffen bzw. darüber liegen.
Eine schnell berechnete Kantenglättung mit 64 gedrehten Samples über AI, daher muss man auch aufpassen was nVidia dann mit Consumer so liefert. Dann geht der ms Vorteil womöglich verloren oder man braucht ihn auf der Gamerplattform nicht.
Locuza schrieb:
NVDLA ist dagegen ein Framework für die Entwicklung von AI-Hardware?
Warum man nicht alles drin hat ganz einfach dass passt nit in so ein mini Chip alla GTX Gaming. Dass ganze wird sich erst zeigen was am ende im Gaming Chip drin ist NV ist Meister im zusammen schneiden.
HBM wäre im Profi bereich auch besser nur steht es der Gewinn Max von NV im weg. Lieber weniger an den Kunden verkaufen um später nochmal was nach zuschieben. ;-)
Warum man nicht alles drin hat ganz einfach dass passt nit in so ein mini Chip alla GTX Gaming. Dass ganze wird sich erst zeigen was am ende im Gaming Chip drin ist NV ist Meister im zusammen schneiden.
Aber alles passt in eine kleine Skylake iGPU.
Und wie schätzt du eig. Pascals Featureset anhand der Tabelle ein gegenüber AMDs GCN1-4?
Kann Pascal mehr oder weniger Zeug?