Gordon-1979 schrieb:
DLSS hat Berührungspunkte mit dem, was in Deinen Links beschrieben ist.
Planare Bilder ohne zusätzliche Inputs können aber nur auf per Pixel- Basis analysiert werden.
In DLSS fließt deutlich mehr Information ein.
Gordon-1979 schrieb:
Nein, es wird eine niedrige Auflösung, per KI hochgerechnet. Erklärung von nVidia:
Ich schreibe es nun noch einmal:
Frame #1 hat eine niedrigere Auflösung. Durch temporale Kumulation addieren sich in den Folgeframes die Pixeklinformationen ÜBER die native Zielauflösung, wenn Du nicht gerade den Ultra Performance Modus wählst in dem die kumulierte Pixelzahl durch Clamping oftmails nicht über das Sampling zum nativen Bild hinauskommen wird.
Danach werden die Überschüssigen Pixeinformationen in das Pixelraster der nativen Zielauflösung quantisiert (Downscaling), womit automatisch ein effektives Antialias stattfindet..
Genauso wie es bei DSR passiert.
Unterschied zu DSR ist, dass bei DSR ab Frame #1 ab Szenenwechsel bereits ein Supersampling vorhanden ist.
Gordon-1979 schrieb:
Das sagen Fans, aber die es ist was anderes, auch laut nVidia.
Ich habe Dir die Originalquelle mit der Beschreibung verlinkt. Das hat nichts mit Aussagen irgendwelcher Fans zu tun, sondern geht eher auf den üblichen Sprachgebrauch dieser technischen Ausdrücke ein.
Wenn Du die Originalquelle Leugnest oder deren Inhalt nicht anerkennst, wird es natürlich schwierig zu diskutieren.
Aber auch hier nochmal ein Spoonfeed einer anderen Quelle:
https://en.wikipedia.org/wiki/Supersampling
Color samples are taken at several instances inside the pixel (not just at the center as normal), and an average color value is calculated. This is achieved by rendering the image at a much higher
resolution than the one being displayed, then shrinking it to the desired size, using the extra pixels for calculation.
Nochmal:
DLSS: Deep Learning
Super Sampling
Unterschied normaler Upscaler / DLSS, also Supersampling