Vom Prinzip her sollte der schon in DLSS enthalten sein. Schließlich weiß die KI ja wie das Spiel in der jeweils höheren Auflösung aussieht und sollte den Filter entsprechend so machen, dass es "genauso" scharf wird. Nur bei vielen Spielen scheint DLSS bzw dessen KI irgendwas zu verbocken. Es steckt halt noch in den Kinderschuhen. Ich kann es nur vermuten, aber ich nehme an, dass die KI rein rechnerisch davon überzeugt ist, dass der Filter möglichst nah an die Ziel-Auflösung herankommt, aber in Wirklichkeit sagt das menschliche Auge, dass genau an der falschen Stelle "gespart" wurde.
Aber ich frage mich eh wie DLSS jemals einen Maschendrahtzaun hochskaliert perfekt darstellen will. Wo sollen die fehlenden Informationen herkommen, besonders wenn sich die Kamera frei bewegen kann. Da bräuchte man ja frame-genaue Filter und die anzuwenden verursacht dann vermutlich genauso viel GPU-Last wie sie gleich in der höheren Auflösung zu berechnen.
Wir brauchen denke ich keine Filter sondern die Entwickler müssen Tools zur Hand bekommen, die ihnen klar machen, dass ein Maschendrahtzaun an der Stelle X kontraproduktiv ist, wenn der Spieler die Auflösung Y unterschreitet. Dann könnte der vielleicht den Zaun zB gegen eine Glasscheibe ersetzen. Oder er sorgt dafür, dass dieser Zaun intern immer mit einer hohen Auflösung berechnet wird, egal welche Auflösung der Nutzer wählt. Und sofern die Leistung noch niedriger ausfällt, dann ersetzt er sie gegen eine Milchglasscheibe oder er macht den Zaun kleiner, damit das was man normalerweise durch die Scheibe/den Zaun sehen kann an Rechenleistung wegfällt. Natürlich nicht gerade, wenn man die Innenperspektive bei einem Rennspiel nutzt ^^ Ich denke ihr wisst was ich meine