Xpect schrieb:
Früher wurden Spiele wenn überhaupt dann mit DOWNsampling getestet. DAS ist das, was gut als AA dient. AA selbst ist normalerweise auch sowas wie Downsampling.
Von Upscaling halte ich halt tatsächlich nicht viel.
Auch "Upscaling" via DLSS ist technisch gesehen Downsampling.
Bei klassischem MSAA oder SSAA dreht sich ja alles darum, die Szene so oft abzutasten (also mehr Pixel/Samples zu berechnen) bis man genug Informationen zusammen hat, um die Kanten sauber und ohne Flimmern und Treppchen abzubilden. Und um das überhaupt tun zu können, braucht man mehr samples als die zielauflösung an Pixeln hat. Das heißt, selbst upscaling via DLSS/FSR könnte keine Kantenglättung erreichen, wenn die Anzahl der Samples nicht höher wäre, als die Bildschirmauflösung. Ergo ist auch das was man als upscaling versteht, effektiv ein downsampling wenn man es auf die Samples bezieht, die verrechnet werden.
DLSS macht das natürlich etwas anders als SSAA, aber das Ziel ist das gleiche. Bei DLSS werden über mehrere Frames hinweg Samples gesammelt und dadurch sehr viele Bildinformationen gewonnen. Man spart es sich also die Samples zusätzlich zu berechnen, weil man sie aus vorherigen Bildern ohne weitere Rechenkosten gewinnt und so effektiv ebenfalls eine Mehrfachabtastung der Szene erreicht, ähnliche wie mit SSAA.
DLSS ist sogar so gut darin Bildinformationen über Zeit zu sammeln, dass es nichtmal mehr nötig ist, die Szene in voller Auflösung zu rendern. DLSS holt so viele Bildinformationen zusammen, dass sowohl Kantenglättung als auch das auffüllen von fehlenden Pixeln möglich ist. (also das was man als upscaling versteht).
Effektiv findet ja auch kein upscaling im klassischen Sinne statt, sondern einfach ein resampling des Bildes in voller Auflösung auf Basis der zusammengetragenen samples über Zeit. In welcher Auflösung das Spiel intern rechnet ist dabei völlig egal, da es von DLSS praktisch sowieso völlig neu gerendert/gesampled wird.
Die Interne Auflöusung des Spiels reduziert am Ende nur die potenzielle Menge an Samples die DLSS über Zeit sammeln kann. Aber selbst 720p interne Renderauflösung reichen ja mittlerweile um ein recht ansehnliches 4K Bild zu erzeugen. Ab 1080p (DLSS Performance) sieht es sogar schon richtig gut aus und spätestens mit DLSS Quality übertrifft DLSS in den allermeisten Fällen TAA bei nativer Renderauflösung.
Man muss hier aufhören, über "Auflösungen" zu reden. Viel wichtiger ist, aus wie vielen Samples das Bild am Ende zusammengesetzt wird. Und wenn DLSS da im Quality Modus mehr brauchbare Samples zusammentragen kann, als das veraltete TAA bei nativer Auflösung, dann erzeugt DLSS praktisch automatisch das bessere Bild.
Natürlich können wir als Endnutzer die Telemetrie der algos nicht auslesen, aber damit sollte zumidnest greifbar sein, warum "upscaling" via DLSS so gute Ergebnisse erzielen kann. Das ist halt nicht nur Hokus Pokus, der ein schlechtes Bild gut aussehen lässt. DLSS arbeitet mit echten Bildinformationen aus dem Spiel und erreichnet daraus ein möglichst detailliertes Bild. So wie jeder AntiAliasing Algorithmes bisher es auch getan hat. Mit mal mehr und mal weniger guten Ergebnissen.
Wenn man es mit der alten Brille sehen will, kann man DLSS Performance auch als 2x MSAA, Balanced als 4x MSAA und Quality als 8x MSAA sehen. Wer sich hier auf "upscaling -> iiih mag ich nicht" versteift, der belügt sich mMn selbst. Denn so wie man sich das klassischerweise vorstellt funktioniert es halt nicht.
Xpect schrieb:
Klar, schließt du ne alte PS3 an einen 4K Fernseher an, passiert da intern Upscaling, natürlich. Aber besonders beim PC, der theoretisch so mega gewaltig viel Leistung hat, sollte Upscaling und Upsampling einfach nicht nötig sein. Ansonsten ist, wie schon gesagt, das Spiel beschissen optimiert.
Das Thema hatten wir hier schon 1000x. Lumen und Nanite kosten eben ordentlich Leistung.
Lumen ist Raytracing. Vor wenigen Jahren gabs Spiele da waren alleine für stark abgespecktes Raytracing upscaling notwenidig, weil es sonst in echtzeit nichtmal lauffähig war. Heute ist aber selbst Software Lumen viel aufwändiger und Nanite kostet nochmal ähnlich viel leistung zusätzlich. Völlig logisch, dass das starke Hardware incl. Upscaling und Frame Generation braucht. Das hat nichts mit Optimierung zu tun, wenn man sogar sieht, was für ne wahnsinns Grafik damit jetzt möglich ist.
Und nein, der PC hat nicht "mega gewaltig viel Leistung".
Es braucht schon mindestens eine 4070ti oder 7900XT um die Konsolen um Faktor 2 zu überbieten.
Und was bringt das dann? Von 720p renderauflösung die manche Spiele nutzen auf vielleicht 1440p?
Von 30 auf 60 FPS?
Von Medium/High Settings auf Ultra RT Settings?
Such dir EINES davon aus, dann weißt du, was der durchschnittliche obere mittelklasse Gaming PC besser kann.
Wirklich viel ist das nicht.
Um ne Konsole wirklich zu deklassieren und sich in allen genannten Punkten gleichzeitig abzusetzen, brauchste schon mindestens ne 4080/4090 oder die nächste GPU Generation. Und ja, das war auch mal anders. Zu PS4 zeiten war der PC viel weiter voraus und gleichzeitig war diese Hardware auch halb so teuer wie heute.