Ich versuche Dir zu erklären, was Supersampling bedeutet und wie DLSS funktioniert und weshalb es deshalb ein Antialias bietet und feine Strukturen rekonstruiert wie es ein DSR macht.
Du schreibst mir das zurück, was ich Dir die ganze Zeit schon bestätige.
Nochmal- Frame 1 bei DLSS wird in einer niedrigen Auflösung abgetastet.
Im Gegensatz zu nativ aufgelösten Bildern, wo Du ein Sample pro Bildpunkt mit entsprechenden Artefakten hast, machst Du das bei DLSS aber über mehrere Frames mehrmals an unterschiedlichen Positionen (Jitter).
Du hast also für das Pixel, dass Du dann in einen Bildpunkt rasterst mehrere Samples zur Verfügung, genau wie bei DSR, wodurch die Fehler bei Einordnung des finalen Farbwertes auf das Zielpixel geglättet werden.
Zur Veranschaulichung:
Einfaches DSR bei UHD:
3840x2160 Pixel = 8.294.400 Samples nativ + das Doppelte an Samples durch Oversampling =
16.588.800 Samples, die Du dann wieder "runter - also downsampling" in die UHD Auflösung presst.
DLSS Quality:
Frame 1 wird mit 1440P abgetastet:
2560x1440 = 3.686.400 Samples nativ
In Frame 2 sorgt DLSS bzw. die KI dafür, dass Du die Samples aus Frame 1 wiederverwenden kannst, auch wenn Sie sich in Bewegung befinden.
In Frame 2 hast Du dann 3.686.400 x 2 = 7.372.800
So hast Du in Frame 2 also bereits fast die gleiche Anzahl an Pixelinformation wie im nativen Bild. Da Du aber mit niedrigerer Input- Auflösung arbeitest, erscheint Frame 2 bei DLSS aber schneller und auf die gesamte Zeitspanne der Berechnung gesehen im Normalfall nur minimal später in der gleichen Auflösung, als bei vollständig nativen Rastern der Fall gewesen wäre.
Bei Frame 3 kommt die Abtastauflösung wieder zu den vorhandenen Samples hinzu, die DLSS zur Bestimmung des endgültigen Farbwertes zur Verfügung hat.
Die vorhergehenden Pixel: 7.372.800 Pixel + 3.686.400 Samples = 11.059.200 Samples -> Bereits ab Frame 3 hast Du also deutlich mehr Samples, als sie 1:1 in das Pixelraster der Zielauflösung zu stopfen wären.
Also betreibst Du, wie bei DSR auch ab da bereits ein Downsampling.
So geht das Spielchen weiter, bis ein kompletter Szenenwechsel stattgefunden hat, bei welchem die Bildinformation von 0 auf neu aufgebaut werden muss.
Die KI macht bei DLSS nichts anderes, als nachzuverfolgen, wo die bereits berechneten Pixel bei Bewegung landen werden und intelligent mit den in jedem Frame neu gewonnenen Samples an der richtigen Position zu verrechnen.
Ebenso bestimmt die KI, ob ein Pixel der Vorgängerframes weiterverwendet kann (wird es vielleicht im neuen Frame durch ein geometrisches Objekt verdeckt, bewegt es sich aus dem Bildschirm raus usw.) und nimmt dieses, wenn es laut Bewertung durch die KI zu "unsicher" geworden ist, aus der Pixelmenge die zur Generierung des neuen Frames zur Verfügung steht, wieder raus.
Es ist vergleichbar mit Superresolution aus der Fotografie, wo Du mehrere Bilder, die leicht verschoben aufgenommen wurden zusammenrechnest, um eins mit deutlich höhrere Auflösung zu generieren.
Nur dass Du bei DLSS durch Einbeziehen von Enginedaten eine zuverlässigere Bewertung hast, welches Sample in der Generierung eines Pixels auch tatsächlich eine Gewichtung hat, da Du bei DLSS deutlich mehr Input hast (z.B. Motion Vectors, Z- Buffer usw) um zu bestimmen, welche Samples gültig sind und welche nicht.