Eine interessante Anekdote lieferte die GDC-Präsentation von Nvidia bezüglich der Entscheidung für dedizierte Raytracing-Kerne bei der
Turing-Architektur. Wie die untere Abbildung von Nvidia zeigt, hätte
Pascal nur mit herkömmlichen Recheneinheiten ein Monster-Chip werden müssen, um die gleiche Leistung wie eine GeForce RTX 2080 bei Raytracing in Spielen zu erreichen.
Der Vergleich mag ja beeindruckend sein und alles, aber diese Begründung Nvidias für die Raytracing-Kerne geht doch etwas am Kern der Sache vorbei. Dass spezialisierte Hardware für spezielle Aufgaben wesentlich effektiver sein kann als General Purpose-Hardware, ist ja nichts neues.
Die Sache ist doch, das sich die Gamer vor den RTX-Karten eher nicht darüber beklagt haben, dass sie zu wenig Raytracing-Leistung haben. Das Problem der High-End-Gamer war doch wohl eher, wie sie in ganz normalen Spielen (ohne Raytracing) bei guten Qualitätseinstellungen möglichst hohe und konstante Frameraten auf ihren neuen >120Hz UHD/WQHD-Monitoren hinbekommen können. Deswegen hofften sie auf eine neue GPU-Generation mit möglichst viel "Rohleistung".
Nvidia hätte dieses existierende Problem besser lösen können, indem sie den Platz auf der neuen GPU statt für neue, spezialisierte Raytracing- und Deep-Learning-Cores für konventionelle Cores/Shader genutzt hätten.
Statt dessen haben sie mit Raytracing ein ganz neues, zusätzliches Problem erfunden und präsentieren eine erstmal nur halbwegs befriedigende Lösung dafür.
Zum Raytracing-Treibersupport für alte Karten.
Das ist wohl eher ein Werbegag, als eine nette Geste. Die Nutzer der "alten" Pascal-Karten sollen in Spielen und Benchmarks direkt sehen können, wie veraltet und unbrauchbar ihre Karten für Raytracing sind. Einen anderen, praktischen Nutzen wird das eher nicht haben, wenn selbst die kleineren RTX-Karten (2070/2060) mit aktiviertem Raytracing oft noch nicht genug Leistung für gute Frameraten bringen.