janeeisklar schrieb:
Die deutlichen implementierungs differenz bezüglich der gelieferten Bildqualität ist nun einmal Fakt und das obwohl es dabei ledeglich um eine Variante geht (DLSS),
Genau..... Siehe oben. Ich habe oben ein par Ursachen mal kurz angerissen.
janeeisklar schrieb:
bei unterschiedlichen Varianten wird die nicht besser.
Das ist nicht gesagt...
janeeisklar schrieb:
Es ist dabei natürlich immer einfach zu sagen, es liegt am Entwikler.
Wie passt das zusammen, wenn Entwickler die offensichtlichen Punkte, die in einer eigenen Checklist des Programmers Guide stehen, ebenso offensichtlich ignoriert?
Deployment checklist Punkt #3
Ist das etwa NVIDIA zuzuschreiben, wenn 70% der Entwickler zu dämlich sind, das mipmap/lod bias anzupassen obwohl das in der Liste ganz oben steht?
Könnte man vielleicht daraus auf die Sorgfalt schließen, was den Rest der Implementation anbelangt?
janeeisklar schrieb:
Zudem ist die implementierung eine sache, das testen dann eventuell 3 Lösungen eine ganz andere. Wer soll das machen? Es gibt doch schon jetzt kaum budget dafür.
Das schöne am Testing der Grafikkonsistenz ist, dass im Normalfall Testszenen erstellt werden, in welchen alle Varianten von Shadern untergebracht sind.
Da läuft man einmal durch, macht 10 delta- Screenshots mit einer supergesampelten Ground- Truth und schwups hast Du Dein Ergebnis.
...nebst dem, dass NVIDIA inzwischen einen umfangreichen Debugger für DLSS zur Verfügung stellt.....
...und einen umfangreichen Troubleshooting guide für dummies....
Insofern komme ich nicht umhin, manchen meiner Kollegen mangelnde Sorgfalt zu unterstellen. Wahlweise auch zu hohen Fertigstellungsdruck. Vielleicht wurde einem die Integration von DLSS kurz vor Deadline aufs Auge gedrückt....
Alles möglich. Es ist aber falsch das auf die Technik DLSS an sich zu schieben.
Wenn andere Hersteller nachziehen ist eher zu hoffen, dass man diesbezüglich dann doch eher das Augenmerk auf diese Technik legt.
Verdient hätte sie es in Zeiten sinkender Effizienz auf jeden Fall.
janeeisklar schrieb:
Letztlich brauchen wir eine Schnittstelle durch einen dritten, wie zb jüngst die Video Encode API. Und dies dann bitte ohne BinaryBlob im GameCode.
Die Basisschnittstelle ist jedes beliebige (saubere) TAA. Das wird bei ene AMD oder Intel- Derivat nicht anders sein.