usb2_2 schrieb:
DLSS ist ganz praktisch für langsamere GPUs, wenn es aber gut aussehen soll, dann kann man sowas nicht nutzen. So gesehen könnte die Grafik gleich schlechter aussehen und gut ist.
Gerade wenns gut aussehen muss, macht das Sinn.
Nvidia wird z.B. für DLSS zwei Modi anbieten. (gehe davon aus, dass AMD das auch tun wird)
Modus 1: Das Spiel wird mit einer geringeren Auflösung, als der Monitorauflösung berechnet und dann per DeepLearning Algo hochskaliert. Dadurch soll Leistung gespart werden. Die Bildqualität wird dabei ein wenig schlechter sein, als die native Auflösung, aber definitiv besser, als wenn man nur die niedrige Auflösung auf klassische Weise hochskalieren würde.
Modus 2 (DLSS 2X): Das Spiel rechnet in nativer Monitorauflösung und der Deep Learning Algo skaliert das Bild auf eine höhere Auflösung. z.B. von der nativen Monitorauflösung 1440p auf 4K. Wie im ersten Modus erhält man gegenüber der kleineren Auflösung einen Qualitätsgewinn, schärferes Bild, bessere Kantenglättung usw.
Nach dem Hochskalieren wird das verbesserte Bild dann wieder auf die native Monitorauflösung herunterskaliert.
Dadurch erhält man den klassischen Supersampling bzw. Downsampling effekt, der ja mittlerweile jedem Bildqualitätsfetischisten bekannt sein dürfte...
Man hat also quasi Supersampling "for free". Wenn man das vor 5 Jahren jemandem erzählt hätte, wär er vom glauben abgefallen... Upscaling mit Qualitätsgewinn? Eigentlich unmöglich.
Kann irgendwie selbst noch nicht glauben, dass durch DeepLearning Upscaling so ein extremer Qualitätsgewinn wie im Beispielbild im Artikel möglich ist. Klar, der eigentliche Detailgrad bzw. die Menge an erkennbaren Details steigt streng genommen nicht an, aber unscharfe bzw. "vergrößerte" Ränder oder vergrößerte Pixelmuster und Artefakte sind nicht vorhanden. Das Bild sieht halt nicht aus, als wärs hochskaliert worden, sonst würds aussehen, wie rechts im Beispiel... Und das ist schon ziemlich genial.