HighDefinist
Lt. Junior Grade
- Registriert
- Nov. 2019
- Beiträge
- 433
Ja, je hoeher die Aufloesung (und Framerate), desto mehr Sinn macht es, bestimmte Luecken irgendwie approximativ zu schliessen. Das sieht man jetzt schon bei FSR, wo 4k Quality wesentlich ueberzeugender zu sein scheint als 1440p Quality.Draco Nobilis schrieb:Es wird wohl in 3 Jahren so sein, das eine DLSS KI später einfach für alle Spiele angewendet werden kann, man also nicht mehr für jedes Spiel eigene Profile braucht, bzw. die Implementation dessen vereinfacht wird.
Je weniger Mannstunden und Rchenzentrum Power/(und Zeit) man braucht, desto rasanter geht es.
Aber, je komplexer die Methode ist, desto unvorhersehbarer sind auch die Situationen, in denen sie fehlschlaegt, und sie kann potentiell auch viel extremer fehlschlagen. Auch das sieht man bereits ein wenig, wenn man FSR und DLSS vergleicht: Laut dem HUB-Video zu FSR scheint FSR generell existierendes Flimmern zu verstaerken, allerdings immer in einer "vorhersehbaren" Weise. DLSS hingegen flimmert haeufig relativ wenig, schlaegt aber in bestimmten, seltenen Situationen, ganz besonders extrem fehl. In anderen Situationen wiederum produziert DLSS Ghosting, was bei FSR rein prinzipiell nicht passieren kann.
Bei Facebooks Methode wuerde ich daher dann davon ausgehen, dass z.B. blinkende Lichter, schnell rotierende Objekte oder feine Partikeleffekte zu besonders auffaelligen Grafikfehlern fuehren wuerden.
Aber wer weiss... wenn man es schafft, die Methode soweit zu optimieren, dass sie eben in 99% der Faelle wesentlich besser aussieht, und die letzten 1% dann irgendwie so abgefangen werden, dass das Bild nicht "komplett kaputt" geht, wuerde das fuer Computerspielgrafik ja voellig ausreichend sein.