incurable schrieb:
Die nach dem Einsatz eines temporalen Matschfilters vorhandene Unschärfe widerlegt diese Behauptung.
Du scheinst nicht zu wissen, wie TAA funktioniert.
Es wird kein Filter übers Bild gelegt, der es weichzeichnet, sondern es werden Bildinformationen über mehrere Frames hinweg gesammelt und mittels bewegungsvektoren getrackt.
So entsteht eine höhere Abtastung der Szene über eine gewisse Zeit. Diese höhere Abtastung ist genau das was man benötigt, um echtes AntiAliasing zu machen.
Anstatt zusätzliche samples tatsächlich zu berechnen, werden sie aus vorherigen Frames akkumuliert.
Die subjektiv wahrgenommene Unschärfe kommt zum einen durch den Kantenglättungseffekt, denn auch Bruteforce SSAA wirkt subjektiv unschärfer gegenüber dem rohbild, obwohl der Detailgehalt höher ist. Kommt daher, dass der Kantenkontrast geringer ist aufgrund weniger Aliasing Artefakte und zum anderen ist die Hitrate in Bewegung mit TAA nicht so groß bzw. präzise, wie im Standbild, was eben auch für ein wenig Unschärfe sorgen kann.
Fakt ist aber, dass immer deutlich mehr Informationen vorliegen, als nativ ohne TAA vorhanden wären, denn sonst würde man das Flimmern und Aliasing nicht wegbekommen. Dass das Bild mit TAA weitestgehend frei von Filmmern und Aliasing ist, beweist, dass mehr Bildinformationen da sind.
Zum Vergleich: FXAA ist in der Tat ein Matschfilter. FXAA nutzt keinerlei zusätzliche Samples und kann nur auf Basis des aktuellen Frames arbeiten und versuchen Aliasing zu erkennen und weich zu zeichnen. FXAA scheitert aber in Bewegung und flimmert fröhlich vor sich hin. Hier braucht es zwingend zusätzliche Samples, die TAA eben genauso wie ein SSAA liefern kann. Deswegen flimmert da nichts mehr oder nur noch sehr wenig. Ein Weichzeichner könnte das nicht leisten. Mehr Samples bzw. eine höhere Abtastrate hingegen schon. Und genau das passiert auch.
DLSS und FSR sind dann eine deutlich weiterentwickelte form von TAA und deutlich effektiver im verwerten von Samples aus vorherigen Frames. Die beiden Techniken generieren so viele Samples, dass es ausreicht, um damit sowohl AntiAliasing zu machen, als auch ein Bild in höherer Auflösung neu zu rekonstruieren.
Sorry, aber wer TAA als Matschfilter bezeichnet, hat keine Ahnung, wie es funktioniert.
Dass es noch nicht das Optimum darstellt und eine gewisse Unschärfe in Bewegung mit sich bringt mag ja sein, aber es gibt keine Alternative, die auch nur ansatzweise so effektiv und effizient beim AntiAliasing ist, wie temporale Verfahren.
Zumal es sehr einfach ist, die Unschärfe los zu werden. Etwas scharfzeichner und ein wenig Supersampling mit geringem Faktor reicht bereits aus, um die Schärfe ans absolute Maximum dessen zu bringen, was der Monitor auflösen kann.
Das TSR in der Unreal Engine 5 macht das bereits selbstständig. Mit den höchsten Stufen bei der AntiAliasing bzw. Upsampling Qualität bekommt der Upscaler nicht die native Displayauflösung als Zielauflösung, sondern eine höhere. Dadurch findet ein zusätzlicher Downsampling Pass statt, der sehr effektiv Unschärfe beseitigt.
Kann man auch mit DLSS nutzen, indem man Nvidias DL-DSR mit DLSS kombiniert.
So kann man auf einem 1440p Display z.B. DLSS Performance mit DL-DSR @4K kombinieren.
Dann wird das Bild in 1080p berechnet, DLSS macht daraus ein 4K Bild, welches via DL-DSR auf 1440p downsampled wird.
Das Ergebnis ist ein sehr gutes Bild ohne Unschärfe, was besser aussieht, als mit TAA@Nativ und auch besser als DLSS Quality und sogar schneller läuft.
Also wie gesagt, die Unschärfe wird man sehr einfach los. Ansonsten sind temporale Verfahren nicht mehr wegzudenken und werden mit Raytracing und Pathtracing immer essenzieller. Du solltest akzeptieren, dass dieser Weg seit mittlerweile ca 10 Jahren beschlossene Sache und wir mit DLSS, XeSS, FSR und TSR bereits seit längerem Nachfolgetechnologien zu TAA haben, die sich jedoch das selbe Prinzip zu Nutze machen.
Du musst also sehen, wie du für dich das beste daraus machst.