Das wird wahrscheinlich so wie bei MPEG sein, wonach man Motion Estimation verwendet. Bei MPEG bezieht sich das aus dem vorhergingen und zukünftigen Frame. Und hier wird wohl die zukünftige Frameinformation anhand von der Engine enthaltenen Motion Vectoren und der Anaylse/Auswertung für die Zukunftsbewegung genommen. So denke ich es mir.
https://upload.wikimedia.org/wikipedia/commons/6/6f/Motion_interpolation_example.jpg
Sprich, Zukunftsframeinformation wird einfach simuliert durch die Informationen(Motion Vectoren) aus der Engine. Und das über Zeit n, sprich, wird das nächste Bild nicht in n-Zeit gerendert, so kommen nochmal die Engine-Vectoren ins Spiel und werden für das neue Bild verwendet. Somit kann kann man mehr Bilder bis zum neuen Renderbild posten, wenn die Zeit es zulässt. Ich gehe davon aus, dass für DLSS3 immer die Vorrausetzung DLSS2 ist
https://upload.wikimedia.org/wikipedia/commons/6/6f/Motion_interpolation_example.jpg
Sprich, Zukunftsframeinformation wird einfach simuliert durch die Informationen(Motion Vectoren) aus der Engine. Und das über Zeit n, sprich, wird das nächste Bild nicht in n-Zeit gerendert, so kommen nochmal die Engine-Vectoren ins Spiel und werden für das neue Bild verwendet. Somit kann kann man mehr Bilder bis zum neuen Renderbild posten, wenn die Zeit es zulässt. Ich gehe davon aus, dass für DLSS3 immer die Vorrausetzung DLSS2 ist
Zuletzt bearbeitet: