Vorweg: Ich habe jetzt nicht alle 8 Seiten gelesen, weil es mir etwas zu viel ist.
Replay86 schrieb:
Raytracing überzeugt mich bisher nicht. Hätte Nvidia lieber mal so viel Energie und Geld in PhysX gesteckt. Da sah selbst eine alte Oma ein Unterschied.
Hätte nur nicht viel gebracht, weil damals schon die Konsolen primäre Entwicklungplattform waren und man dafür sorgen musste, dass die Spiele auch auf ATi/AMD-Karten laufen, sowie eben Intel.
PhysX konnte durch tolle physikalische Effekte glänzen - ich hab mal Mafia 2 und Co mit PhysX gespielt - und es machte Spaß, aber wirklich vermissen tut man sie auch nicht. Sie tragen aber durchaus zur Atmosphäre bei.
ZeroZerp schrieb:
In der Tat wäre ein von Grund auf auf Raytracing ausgelegtes Produkt schneller.
Na ja, um die Shader kommt man nicht herum, da dieses auch in DXR eine wichtige Rolle habe. Genau so braucht man eine Vielzahl der alten Infrastruktur auch für DXR.
Im Endeffekt wird man mal abwarten müssen, wie die DXR-Implementierung von AMD am Ende arbeitet und ob die Verbindung von BVH-Funktionen mit der TMU wirklich gut arbeitet und sich daraus Vorteile ergeben. Wenn die dann jeder TMU die entsprechenden Funktionen geben, hätte selbst eine "Mittelklasse" Navi-Karte 144RT-Cores.
Ich denke, dass nVidia sich mit ihren immer stärker dedizierten Recheneinheiten in der GPU auf dem Markt für Grafikberechnungen verrennen könnte. Was im Profisegment durchaus ein guter Weg ist, bläht im klassischen Bereich der GPU den Chip massiv auf. Klar klingt es im ersten Moment toll, dass die Shader nun theoretisch 64FP-Befehle und 64Int-Befehle zur gleichen Zeit ausführen können. Gleichzeitig stell ich mir die Frage, ob das in der Form so notwendig ist und ein anderes Design nicht besser wäre.
Denn im Endeffekt kommt man - wenn man jetzt echt genau und spitz findig ist - jetzt zur Situation, dass nVidia aus ihrer Architektur mit sehr vielen Recheneinheiten nur das gleiche leistet wie Navi mit ihren umstrukturierten Shadern, von denen aber dennoch nur 64 pro Cluster vorhanden sind. 64FP-Shader + 64SP-Shader schaffen das, was Navi mit ihren 64FP-Shadern schafft. (Takt bereinigt natürlich.
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
)
Aber eines überrascht mich halt nicht: Die RTX Serie führt das Feature ein, aber für Spiele, die später das Feature wirklich nutzen, ist die aktuelle Serie eigentlich zu langsam und DAS war vorher zusehen. Es war in der Form eigentlich fast immer so. Mit den aktuellen RTX-Karten hat man nicht wirklich in eine langfristige Karte investiert, denn bereits Quake 2 RTX zeigt auf, dass die Karten eigentlich zu langsam sind.
Silverangel schrieb:
In diesem Fall dann Vergleich zwischen "nicht vorhanden" und "RTX" bringt einen im Vergleich da auch kein Stück weiter.
Nur, dass man hier etwas unterscheiden muss: Die Alternativen sind im Endeffekt auch nicht wirklich "effizienter" als die RT-Lösungen und in der Regel wesentlich komplizierter zu implementieren.
Klar gibt es Tricks, mit denen man Reflexionen an Oberflächen in ähnlicher Form implementieren kann, wir sprechen hier dann aber von verschiedensten Einschränkungen. Screen Space Reflections können nur das spiegeln, was im Bild zu sehen ist und hängt meist sogar etwas zurück. Will man nun auch Bereiche außerhalb des Sichtfelds reflektieren, muss man zu Backface-Reflections greifen und dann wird es richtig kompliziert und auch teuer. Die Leistung bei diesen beiden Methoden wird oft auch nur dadurch gewonnen, in dem man viele Details weg lässt und die Auflösung drastisch reduziert. Hier macht man sich halt zu nutze.
Würde man Backface-Reflections und Screen-Space-Reflections in wirklich der Qualität nun einbinden, wie es über RT möglich ist, würde die Leistung der Spiele vollständig kollabieren, denn diese beiden Techniken sind bei gleicher Qualität viel ineffizienter als über RT.
Ähnlich verhält es sich mit der Screen Space Ambient Occlusion. Auch hier nähert man sich der eigentlich richtigen Lichtstimmung nur an. Durch Tricks, die oft mit pauschalen Annahmen arbeiten, beschleunigt man die Verfahren massiv, schafft eine passende Lichtstimmung - kein korrekte - und schafft Qualität. Würde man aber SSAO in der Form implementieren, die wirklich richtig arbeitet, wächst der Aufwand massiv an und auch hier zeigt sich dann, das die Tricks am Ende für weitere Verbesserungen mehr Leistung benötigen würden als eine direkte Implementierung in RT.
Und so verhält es sich mit vielen weiteren Tricks, die man heute nutzt um das Bild immer näher an eine korrekte Belichtung heran zu führen - sprich Schatten, Lichtstimmung, Reflexionen. Die Tricks um das Bild immer weiter zu verbessern werden immer aufwendiger, kosten immer mehr Leistung und verlieren im Vergleich zu RT damit immer mehr an Attraktivität.
Das Ende der Rasterzierung bei Echtzeit-3d wurde bereits vor Jahren vorher gesagt, weil bestimmte Effekte in der "klassischen" Berechnung immer mehr Rechenleistung benötigen und wenig bringen. Man konnte dann durch Verrinerung der Auflösung, Weglassen von Effekten, von pauschalen Annahmen den Aufwand drücken, so dass es doch Sinn machte diese Effekte in "Echtzeit" zu implementieren.
Und so verhält es sich mit vielen Effekten. Es gibt Näherungsverfahren, die durch drastische Vereinfachungen umgesetzt werden können, will man die Qualität dann aber steigern, wird es immer komplizierter und irgendwann ist die Implementierung in RT auch von der Leistung her effizienter.
Und genau darum geht es hier: Die Tricks beim Rasterizer sind an ihr Limit gekommen, was die Echtzeitberechnung angeht. Alles was man nun noch an Verbesserung bringt, kostet oft sehr viel mehr Leistung, als es optisch bringt. Wirkliche Verbesserung kann man nur noch durch den Schwenk auf einen Ray-Tracer, hier Path-Tracer erzielen und dieser bietet ab jetzt nur noch Vorteile, denn statt Effekte über Tricks wie Screen Space Reflections, Screen Space Occlusion und Co zu berechnen, bietet Path Tracing das alles in einem.
Ein einfacher Path-Tracer bietet ohne großen Aufwand all das, was in einem Rasterizer über komplexe Puffer-Strukturen und Co realisiert werden muss. Keine Shader, die am Ende über das Bild rüber huschen um Ambient Occlusion zu berechnen. Keine Shader, die umständlich aus harten Schatten weiche machen müssen und da ggf. sogar harte Schatten die hart bleiben sollten, weich zeichnet.
Keine Umwege über Voxel, alles nicht notwendig.
ZeroZerp schrieb:
... sondern ein gesamtes Featureset, von dem man hinter vorgehaltener Hand immer in Zeitdimensionen von "in 10 - 20 Jahren" gesprochen hat.
Wir wollen mal ehrlich bleiben: Man sprach um die Jahrtausendwende davon, dass RT mit diesem Featureset in ca. 10 vielleicht 15 Jahren den Markt erreicht. Man sprach um 2005, dass es noch so 10 - 15 Jahre dauern kann und auch 2010 sagte man, dass es wohl noch so 10 - 15 Jahre dauert.
Genau so sagte man damals aber auch immer wieder, dass es wohl auch schneller gehen könnte, da die Tricks beim Rasterizer am Ende sind und unnötig teuer werden und man fand dann halt doch einen Weg, der es ermöglichte, dass man beim Rasterizer blieb.
Jetzt ist halt wirklich das Ende der Fahnenstange erreicht. Man hat im Endeffekt RT immer nur weiter nach hinten verschoben, weil man neue Tricks fand oder Lösungen, die es irgendwie ermöglichten. Das ist nun vorbei.
ZeroZerp schrieb:
Teils werden Spiele komplett gepathtraced (Quake, Minecraft).
Und zeigen gleichzeitig, dass die erste Generation der RTX-Karten alles andere als eine Investition für den Spieler in die Zukunft waren, weil die Hardware eigentlich dafür viel zu schwach ist.
Sobald die ersten wirklichen RT-Engines kommen, ist die RTX20x0-Serie zu langsam dafür. Man investiert mit einer RTX20x0 nicht in die eigene Zukunft, man ist nur als erstes mit dabei und bereitet den Weg. Ähnlich wie damals die ersten T&L-Karten, DX8 und ebenso DX9-Karten, genau so die ersten DX11-Karten. Man bereitet den Weg für die Zukunft, sobald es standard wird, ist man zu langsam.