Colindo schrieb:
Den Denoiser gibt es aber nicht für Spiele, deswegen meine Einschränkung. Da wird RT nicht von beschleunigt, nur von DLSS.
Ich glaube nicht, dass etwas dagegen spricht, den auch in Real Time zu verwenden.
Hier hat das mal jemand getestet:
Real-Time Ray Tracing using the OptiX Deep Neural Network Denoising AI
Die Performance ist zwar wie erwartet schlecht und nimmt die üblichen 50% der Leistung in Anspruch, die man auch bei anderen Verfahren benötigt, aber bei den Ampere Karten ist es ja jetzt möglich alle Kern-Typen parallel zu nutzen und da sollte das ja jetzt nicht mehr all zu extrem in's Gewicht fallen, wenn man etwas clever ist.
Wichtigster Vorteil scheint momentan die hohe Qualität des Denoisers zu sein, weswegen man die Anzahl der ursprünglich zu berechnen Rays reduzieren kann und dennoch zum gleichen Ergebnis kommt. Das erhöht also die Performance beim tatsächlichen Raytracing.
Letztendlich wird das aber wohl niemand nutzen, denn kein Entwickler wird ein herstellerunabhängiges Raytracing via DirectX implementieren und dann ein herstellerspezifisches Denoising implementieren, welches wiederum anpassungen am Raytracing erfordert um seine Vorteile auszuspielen.
Von daher wird das so viel Einsatz finden, wie Nvidias hardwarebeschleunigtes PhysX.
Und ob RTX mittlerweile die Tensor-Cores nutzt, weiß ich nicht. Aber bei der Vorstellung war das noch nicht der Fall. Deswegen meine Einschränkung auf DLSS.
Naja. Kommt immer darauf an, was du unter RTX verstehst. Das Raytracing findet auf den RT Cores statt. Das Denoising könntest du auf den Tensor Cores durchführen. Hängt aber wie gesagt vom Entwickler ab und wird sicherlich so gut wie nie vorkommen.
Was ich mir allerdings von möglichst vielen Entwicklern erhoffe ist, dass sie DLSS implementieren oder es sich von Nvidia implementierne lassen. Das ist ja quasi als Leistungsverdoppler zu betrachten und sollte nach Möglichkeit schon implementiert werden.