leonavis schrieb:
Mit propietären Nvidia-Treibern, genau.
Grafiktreiber müssen proprietär sein, da sie sonst 99% der Funktionen einer Grafikkarte nicht ansprechen können.
Geht mal weg von dem Gedanken proprietär=schlecht. Generalistisch+Opensource=gut.
leonavis schrieb:
Man benutzt eigentlich kein Linux, um sich dann doch wieder propietäre Treiber ins System zu holen.
Wie oft liest Du die Sourcen und wie intensiv wirkst Du am Entwicklungsprozess mit? Wieviele, die Linux nutzen glaubst Du tun dies?
Wenn man diese Frage beantwortet hat, sollte man sich mal überlegen, ob dieses proprietär/nicht proprietär nicht nur rein ideologische/dogmatische Hintergründe hat.
leonavis schrieb:
Bei AMD kannst Du im ganzen System ohne nonfree-Treiber auskommen. Bei Nvidia ist das unmöglich.
Welche NachteileIe/Einschränkungen ergeben sich dadurch in Deiner Nutzung?
MehlstaubtheCat schrieb:
Ich selber muss aber auch sagen das ich DLSS auch nicht nutze, da mir da die Bildqualität auch nicht zusagt.
Ja- Die meisten Implementationen haben Textur-/Lod- Fehler, weil sie sich nicht an die Implementierungsrichtlinien halten.
Zudem tut sich DLSS schwer mit horizontalen Kameraschwenks und Effekten die nachträglich im Screenspace platziert werden.
Es gibt Möglichkeiten diese Fehler auszubügeln bzw. Schwierigkeiten damit zu vermeiden.
Ansonsten ist bezüglich Artefakten das DLSS Bild je nach Qualitätsstufe dem Original überlegen.
catch 22 schrieb:
DLSS, und vergleichbare Techniken, soll gerne im Interesse von mehr FPS die Optik so weit aufbessern, bis es wieder an die "Originalvorlage in höchster Auflösung" herankommt, aber es soll nicht versuchen, "besser als das Original zu sein". Denn damit wird das Bild gleichermaßen verfälscht, wie mit DLSS in einer schlechteren Qualitätseinstellung, die dafür aber mehr FPS drauf addiert.
Da liegt ein Denkfehler vor. Denn Du gehst davon aus, dass das gerasterte Bild ein "Original" wäre.
Eine Renderszene in den Rohdaten kann theoretisch eine unendliche Auflösung haben. Somit ist jeder raster- Snapshot grundsätzlich schon nur eine qualitativ minderwertige Kopie.
Ist halt die Frage, wie hoch du die Szene abtastest.
DLSS macht nichts anderes, als dass es die Szene über die Frames hinweg mehrfach abtastet, als es die normale Rasterisierung tut. Temporales Supersampling eben.
Verfälscht ist da eher das niedriger abgetastete "Original", wie Du es nennst, da Du mit DLSS das Bild mit mehr "echter" Pixelinformation fütterst.
Deshalb hat das DLSS Bild weniger Alias und nähert sich dem Informationsgehalt eines NVIDIA DSR oder AMD VSR Bildes.
Und wir sind uns doch einig- Je höher die Auflösung desto Näher am Original...
Und zu Deinem Beispiel mit dem Nummernschild.
Du musst nichts lesen/rekonstuieren können, wenn Du den Bauplan des Nummernschildes hast.
Siehe oben. Die Szenendaten liegen einem DLSS wie der Rasterisierung in potenziell unendlicher Auflösung vor.
Noch ein Beispiel. Stell Dich mal vor einem Zaun mit dicht gesetzten Zaunlatten.
Du wirst dahinter fast nichts erkennen. Jetzt fahr aber mal etwas schneller mit dem Auto oder dem Fahrrad vorbei und plötzlich wird sichtbar, was hinter dem Zaun liegt.
Das ganz einfach, weil Du das Bild in schneller Abfolge von unterschiedlichen Positionen abtasten kannst und somit durch die kleineren, aber vielen Einzelinformationen ein Gesamtbild der Szenerie dahinter entstehen kann.
Die KI in DLSS 2.x ist dazu da, Pixelpositionen in Bewegung zu bestimmen um diese wiederzuverwerten und nicht neu berechnen zu müssen und hat somit einen ganz anderen Zweck, als es sich so manch einer unter dem mystischen Begriff KI oder AI vorstellt.
Ganz ähnlich:
http://advances.realtimerendering.com/s2014/epic/TemporalAA.pptx