News Nvidia Quadro RTX: Turing mit bis zu 16 TFLOPS und RT-Cores für Raytracing

Ich bin mir fast sicher das kein Touring in den 20x0 Modellen verbaut sein wird... Das wird mit Sicherheit Ampere... Aber man muss Nvidia mal für die zu 100% Geheimhaltung loben... Da haben viele kleinere Firmen, weit größere Probleme.
 
Xes schrieb:
... die Karten echt erst 2019 erscheinen würde Nvidia AMD unnötigerweise schon 4 Monate vorher klare Informationen darüber liefern, woran sie sich messen müssen und wie sie ihre Karten zu sizen haben. Zudem würde man sich das eigene Geschäft kaputt machen da die Leute nurnoch mit unbehagen die alten Karten kaufen würden wenn sie klar wüssten dass bald neue und (vermutlich) viel schnellere Karten kommen.
Die Preise sind also jedesmal deutlich gesunken bei ähnlicher Leistung. Aber gut das ist alles Mutmaßung. Ende nächster Woche wissen wir besser bescheit.

Gut, nur wird sich AMD/RTG vermutlich nicht mit den Oberklasse-GPUs von nVidia (Turing/Ampere, egal, Hauptsache GTX) messen wird muessen/koennen und der Tapeout von Navi duerfte mittlerweile schon laengere Zeit durch sein, so dass da grossartig seitens AMD/RTG jetzt nichts mehr gedreht und gewendet wird koennen, denn der Kuchen ist im Prinzip schon gebacken, jetzt geht es nur noch um "Guss und Deko" (Treiberoptimierung, Navi-Feature-Implementierung, Marketingvorbeitungen, Zusammenarbeit mit Publishern wie Bethesda fuer evt. optimierte Launch-Titel, etc.).

Guter Schlusspunkt :daumen:, ich denke allzuviel wird man nicht erwarten koennen fuer diese nVidia GPU-Generation, bei mir waeren der Speicherausbau (12+GB) und -durchsatz (16+ Gbps) sowie neue sinnvolle Architekturneuerungen (zu denen Gameworks Raytracing natuerlich per Definition nicht gehoert, da es nur nVidia Vormachtsstellung weiter zementieren soll im GPU-Bereich, entgegen Konsumenteninteressen) moegliche Kaufgruende fuer Turing/Ampere.

Eigentlich verbietet es sich (fuer mich) aber als strategischer, langfristig ausgerichteter Kaeufer in der aktuellen Marktsituation zu nVidia Produkten zu greifen und auf Navi kann ich allemal warten und von annaehrend GTX1080Ti Leistung in 7nm kann man evt. sogar dann ausgehen bzw. darauf hoffen.

Navi wird dann aller aktuellen Voraussicht nach zwar nur zur Mittelklasse in 2019 reichen, aber wer braucht um Himmels Willen denn (beschnittene) GT/GA102 Leistung ausser ein paar UHD/4K-Hobby-Enthusiasten/-Early Adopter?

Mehr Spass macht letzteres gewiss auch nicht (vor allem wenn man bedenkt wieviel Geld man ueberproportional dahinein verschleudert, weil das Preis-Leistungs-Verhaeltnis diplomatisch ausgedrueckt eher unstimmig ist, aber hey, nicht mein Bier/Problem/Business und ich will es auch nicht madig reden, wenn es den Leuten Spass macht/dadurch fuer die Allgemeinheit bessere Tevchnik frueher erschwinglicher wird, nur zu also ;) ).

Mein Ego kann damit leben von ehemals unterer Oberklasse zukuenftig auf Mittelklasse herab zu steigen, zumal ich sowieso kaum Zeit habe zu spielen und fuer WQHD eine Navi-Karte lange Zeit reichen duerfte (wenn die spekulierte Leistung in 7nm erreicht werden kann zu annehmbaren Preisen), insbesondere, wenn dann 12+ GB Speicher verbaut werden wuerden :cool_alt:.
 
Zuletzt bearbeitet:
Wann kommt den AMD mal eine Ankündigung?
 
Raytracing bringt doch momentan nichts. Ich kann mir nicht vorstellen, dass die Karten trotz Optimierungen schnell genug für den Detailgrad heutiger Spiele sind. Aber es steckt noch mehr dahinter, warum NVidia das jetzt macht - Marktmacht. Wieder gibt es einen proprietären Standard mehr, so wie Gameworks und GSync, mit denen NVidia versucht, Entwickler wie Nutzer zu binden. Wer NVidia damit unterstützt, der darf sich später nicht beklagen, dass der Fortschritt versiegt und die Preise steigen, weil die Konkurrenz da nichts bieten kann (so wie wir es mit intel sahen). Und alles nur wegen der Grafikgeilheit...
 
Ich hab jetzt nicht alle Kommentare gelesen, aber kann mir einer kurz Raytracing for Dummies erklären?

Welche konkreten Auswirkungen hat das zB auf kommende Spiele?
Oder ist das eine Sache, die nur für professionelle Anwendungen relevant ist?
 
Auf Raytracing in Games warte ich seit 20 Jahren. Werden wohl erst einige spezielle Effekte darüber laufen und in 10 Jahren die gesamte Beleuchtung. Die Rasterizer-Technik scheint ausgereizt und die Performance für echtes Raytracing in greifbarer Nähe.
Ich hoffe es dauert nicht mehr lang bis zu den neuen Consumer-Karten. Werde auf jedenfall upgraden wegen 1440p.
Go Go Nvidia!:king:
 
Bulletchief schrieb:
Ich hab jetzt nicht alle Kommentare gelesen, aber kann mir einer kurz Raytracing for Dummies erklären?

Welche konkreten Auswirkungen hat das zB auf kommende Spiele?
Oder ist das eine Sache, die nur für professionelle Anwendungen relevant ist?

In Metro wird es für AO+GI eingesetzt


Und Remedy hat auf der GDC auch angekündigt es in ihrer aktuellen Engine zu nutzen für reflektionen und glaub auch GI.
 
@Bulletchief

Raytracing ist eine andere Methode zu rendern. Wie der Name sagt werden richtige strahlengänge nachvollzogen.

Das ist unglaublich rechenintensiv, weil pro Bild je nach "Auflösung" mehrere Millionen strahlen losgeschickt werden, die auf Geometrie und Oberflächen unterschiedlich reagieren. Dafür ist das Ergebnis sehr realitätsnah. Das wird oft in Architekturmodellen so gemacht.

In Realtime für Spiele ist das für eine komplette Szene zu rechenintensiv. Daher wird sich nvidia erstmal mit raytracing Effekten in einer rasterizer Engine zufrieden geben müssen.

Haupteinsatz hier ist dynamisches Ambient occlusion, Schlagschatten, farbige lichter und Reflexionen.

Ich behaupte aber, dass gute Grafiker 90% der Optik von reinem raytracing in rasterizer engines hinbekommen, bei 10% der nötigen rechenleistung. Spiele sollten keine Grafikdemos sein. Das Zeug muss mehr als nur gut aussehen, bspw auch gut laufen. Dazu muss nicht sämtliche Beleuchtung "echt" sein, sondern nur echt aussehen.

Umgekehrt rettet raytracing keine schlechten Grafiker. Raytracing macht nicht alles ohne Aufwand geil.

Raytracing ist per se nicht schlecht und schon ziemlich alt, und sicherlich die Zukunft, wenn die Hardware soweit ist.

Das was nvidia aber damit vor hat, läuft mit ziemlicher Sicherheit wieder auf das übliche physx gameworks gegimpe raus.
 
Marflowah schrieb:
Hier auf CB wurden ja mal Vergleichsbilder (Spiele-Szene oder Demo-Szene weiß ich nicht mehr genau) mit und ohne Raytracing nebeneinandergelegt - also da musste man ja echt mit der Lupe hingucken, damit man da Unterschiede sehen konnte. Und das bei Standbildern. Bin mir nicht sicher ob das den x-fach gesteigerten Rechenaufwand rechtfertigt.

Für Blinde mag das gelten... Alle anderen sehen einen beträchtlichen Sprung der Bildqualität von Rasterisierung zu Raytracing:

1534243857706.png


Und sei es, dass man SVOGI oder SVXGI statt mit Voxeln mit echten Rays annähern kann. Dann ist das auch schon eine Revolution. Endlich echte global Illumination in den Spielen!

Endlich werfen Gegenstände/Charaktere nicht mehr nur einen oder zwei unnatürlich harte Schatten gleicher Intensität, wenn sie von mehreren Lichtquellen beleuchtet werden.

Endlich sieht es in Szenen in Räumen nicht mehr wie im Bild oben (Rasterized) aus, da werden die Kontaktschatten mit fehlerhaften Ambient Occlusion verfahren berechnet, sondern wie im zweiten Bild, wo die Objekte plastisch am Tisch verhaftet scheinen.
Von korrekten Reflexionen inklusive Radiosity (wenn gewünscht mit x- Bounces) nicht zu sprechen.

Das was viele hier als "kleiner Schritt", unbrauchbar und als zweites "PhysX" bezeichnen, wäre ein MEILENSTEIN in Sachen grafischer Qualität einhergehend mit höheren Framezahlen, wenn die standard Recheneinheiten durch Spezialchips entlastet werden.

Zudem wurde wohl deutlich an der Effizienzschraube gedreht.
Mit mehr als 10% weniger ALUs wird fast 10% mehr Rechenleistung erreicht.

Also ich bin sehr sehr positiv überrascht, dass man nach dem Jahrelangen Stillstand in der Technik nun wieder deutliche Fortschritte erkennen kann, die nicht nur im Verkleinern der Strukturen und Anheben der Takt- und ALU Zahlen besteht.

Und das ohne von der Konkurrenz dazu gezwungen zu werden ;)

TOP!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hardware_Hoshi, Fliz, SVΞN und 4 andere
Bulletchief schrieb:
Ich hab jetzt nicht alle Kommentare gelesen, aber kann mir einer kurz Raytracing for Dummies erklären?

Hier ist nochmal das offizielle Video von nvidia. Da kann man gut sehen was passiert:
 
Beteigeuze. schrieb:
und? es wird nvidia nicht daran hindern ihre eigenen raytracing gameworkseffekte zu bringen

Die Behauptung war dass Raytracing nVidia proprietär ist. nVidia bietet einfach wieder vorgefertigte Bausteine für bestimmte Effekte an, wie sie es auch jetzt schon mit Gameworks tun. Und genauso wie jetzt fast alle Gameworkseffekte DX11 basiert sind, werden die Raytracing Effekte auf DX12-Raytracing basieren.
Sie werden also auch auf AMD laufen, sofern sie diese DX12-Technik unterstützen, sind aber nicht für deren Architektur optimiert, sondern auf die nVidia-Architektur.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Locuza schrieb:
Nvidia hat da schon eigene Middleware entwickelt und inwiefern das für andere GPUs von anderen Herstellern verfügbar sein wird, ist gerade nicht publik.

Jepp, so ist es aber, es passt nicht zu nVidias Kunden-/Firmenpolitik (seit Kepler) die Raytracing-Umsetzung quelloffen fuer alle zugaenglich zu machen (vor allen Dingen, wenn die Entwicklung nVidia etwas gekostet hat, wird man sie nicht freiwillig teilen wollen), so "bloed" ist meist nur AMD/RTG (mit einigem bis viel Glueck auch noch Intel).

Somit rechne ich mit einer proprietaeren Raytracing-Umsetzung nVidias und da boete sich Gameworks geradezu an, um sich basierend auf der eigenen Marktmacht gegenueber AMD/RTG (vielleicht dann auch irgendwann Intel gegenueber) einen kuenstlichen und signifikanten Vorteil zu verschaffen, und es zudem als "zur kompletten/uneingeschraenkten Gaming-Erfahrung dazugehoerend" vermarkten zu koennen.

So wie ich irgendwo vor nicht allzu langer Zeit gelesen hatte, plant nVidia ueber einige Jahre hinweg erst im Gaming-Segment Raytracing schrittweise einzufuehren.

Somit wird sich eine erste, jetzt moegliche "Raytracing-optimierte" GeForce GPU-Generation schnell ueberleben oder schnell limitieren was die Einbindung von Raytracing angeht und mit so einer Salamitaktik (gestaffelter Raytracing Leistung bei Gaming-GPUs) kann man dann die Kundschaft maximal ausnehmen/abziehen bis vielleicht in 5 Jahren erste relativ uneingeschraenkte Raytracing-faehige Gaming-GPUs zu haben sind.

Das alles setzt natuerlich voraus, dass die potentielle Kundschaft bei nVidia anbeist und da irgendwo einen spuerbaren/relevanten technologischen Mehrwert erkennen wird oder es obliegt Teilen der Gaming-Presse, so etwas zu suggerieren, denn letztere nimmt ja mit Enthusiastensystemen zukuenftige Entwicklungen vorweg und setzt teilweise Trends (klassische Trendsetter eben), auch wenn das oftmals schon beworbene UHD/4K aktuell immer noch ein Elfenbeinturm-Dasein fristet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: grossernagus
sind aber nicht für deren Architektur optimiert, sondern auf die nVidia-Architektur.
Und weil diese Bausteine Closed-Source sind, kann AMD dafür nicht richtig optimieren.
Nichtmal die Spieleentwickler bekommen den Quellcode!
 
  • Gefällt mir
Reaktionen: Iscaran
omg... man kann Ray Tracing nicht proprietär machen. Es ist eine physikalische Berechnung. Man kann nur vorgefertigte Bausteine anbieten, die Programmierer nutzen können. Diese könnte man aber jederzeit auch selbst programmieren. Immer wieder dieser auf blanken Unwissen propagierte Mist ey...
 
  • Gefällt mir
Reaktionen: Oneplusfan, kisser, cruse und 2 andere
@Hill Ridge
Spieleentwickler bekommen nicht nur den Quellcode, sondern sind auch eingeladen Verbesserungen beizutragen, so wie es beim jetzigen Gameworks bereits ist.
Und wer keine vorgefertigten Effekte will, kann ja immer noch seine eigenen programmieren, sofern er die Fähigkeit, Zeit und das Geld dafür hat.
 
Wenn Turing dann für VR unterstützt wird, dann bedeutet das ja 25-fache fps im Spiel beim VR-Zocken? das wäre so mega geil! dann kann erst mal alles flüssig gespielt werden, auch mit 4k / 5k VR Brillen :)
 
DocWindows schrieb:
Die Behauptung war dass Raytracing nVidia proprietär ist. nVidia bietet einfach wieder vorgefertigte Bausteine für bestimmte Effekte an, wie sie es auch jetzt schon mit Gameworks tun. Und genauso wie jetzt fast alle Gameworkseffekte DX11 basiert sind, werden die Raytracing Effekte auf DX12-Raytracing basieren.
Sie werden also auch auf AMD laufen, sofern sie diese DX12-Technik unterstützen, sind aber nicht für deren Architektur optimiert, sondern auf die nVidia-Architektur.
Das kommt ganz auf die Innereien von RTX an.
Nicht jeder GameWorks Effekt ist und war über die DX11 API umgesetzt, einige Dinge wurden durch Nvidia exklusive APIs bereitgestellt, wie Conservative Rasterization, was Nvidia für The Division und Watch Dogs 2 integriert hat.

Wenn ein Entwickler vanilla DXR verwendet oder RTX nur auf DXR aufbaut, ohne eigene sonder APIs, dann wird das theoretisch bei jedem laufen, wenn nicht, dann nicht oder nur eingeschränkt.

Hill Ridge schrieb:
Und weil diese Bausteine Closed-Source sind, kann AMD dafür nicht richtig optimieren.
Nichtmal die Spieleentwickler bekommen den Quellcode!
Spieleentwickler können Zugang zu den Quellcode von vielen GameWorks-Modulen bekommen, Nvidia hostet hinter einem Account-Check und einem EULA Agreement den Code von HBAO+, HairWorks, PhysX und anderem auf GitHub.
Und der freie Markt zwingt natürlich nicht jeden seinen Code offen zu legen.
Der Quellcode für die ganzen Spiele draußen liegt den Herstellern auch nicht offen vor, meist gibt es nur Zugang dazu wenn man lokal mit dem ISV kooperiert oder er Teile davon einem offen stellt, ansonsten muss der Befehlsstrom analysiert werden und optimiert, dass ist für jeden Hersteller auch tägliches Brot.
Die Aufhängung wegen der "Blackbox" ist extrem.
 
  • Gefällt mir
Reaktionen: Dispo und .Sentinel.
BestinCase schrieb:
Wann kommt den AMD mal eine Ankündigung?

Gut' Ding will wohl Weile haben ;) ... schaetze ich 'mal.

Nun, ich hoffe nur, dass Navi mehr Potential/Features frei setzen kann, als es RX Vega geschafft hat und vielleicht ja noch eine (RX Navi) Ueberraschung winkt, wer weiss (dann koennte es fast knapp fuer eine GTX1180Ti/2080Ti in 7nm mit der uneingeschraenkten Leistungskrone in 2019 werden ... zum Glueck fuer nVidia gibt es notfalls ja noch einen Plan B/Gameworks)?
 
Zuletzt bearbeitet:
Zurück
Oben