DarkerThanBlack schrieb:
Sorry, aber das ist Quark was du erzählst. Das ist keine einfache 1:1 Implementierung die man als Funktion einfach ON/OFF schaltet. Da müssen langwierige Deeplearningprozesse durchlaufen, welche noch händisch und aufwendig korrigiert werden. Dann hat man eine Matrix, mit denen man die Tensors füttert.
DLSS2.0 ist inzwischen eine im Treiber integrierte API, die Du als Blackbox aus Deiner Entwicklung aus aufrufen kannst. Da wird nichts mehr "gezielt" von dem Spiel gefüttert.
Es muss nicht mehr pro Spiel trainiert werden. Hol Dir den UE4 Branch mit der DLSS2.0 Integration, lade eine x- Beliebige Szene und aktiviere beim Kompilieren die DLSS2.0 Option.
Voilá - Es funktioniert. Ganz ohne Training.
Deshalb funktioniert DLSS bei jeder Anwendung?
Das ist doch von dir frei erfunden ohne jeglichen Bezug dazu.
Wie lange willst Du einer Mustererkennungs- KI denn antrainieren, was Kanten sind, die zu Aliasing tendieren?
Natürlich ist der Datensatz irgendwann so weit, dass er weiss, wann eine Kante zum Aliasing neigt und wo gefiltert werden muss.
Doch muss es. Weil das ganze auf Deeplearning basiert und man für jedes Spiel eine eigens dafür kreierten Algorithmus benötigt, weil sonnst scheiße aussieht.
Was glaubst Du, was nvidia jetzt 1,5 Jahre gemacht hat? -> Ich verrats Dir: Die KI trainiert.
Wenn Du irgendwann mal weisst, wies Fahrradfahren geht, dann beherrschst Du das auf den unterschiedlichsten Drahteseln. -> Das ist ja überhaupt der Kernnutzen einer DL KI.
Natürlich stelle ich diese Frage. Nativ ist nativ und hochskaliert ist hochskaliert. Man kann nicht aus wenig viel machen.
Du machst aus wenig durch kontinuierliches Sammeln weiterer Informationen über die Frames viel und daraus dann wieder weniger, das ist der Unterschied.
Am Ende ist es immer ein Kompromiss und die Qualität leidet darunter, so wie man es sehr schön an den Bilder hier erkennen kann.
Ich habe genügend Bilder, auf der klar zu erkennen ist, dass DLSS in einigen Szenarien auch das deutlich bessere Bild liefert.
Der Algorithmus ist noch nicht perfekt, aber in Summe gleich der nativen Auflösung.
Der einzige Kompromiss, den man eingehen muss ist, dass man ein Frame zusätzlichen Lag generiert.
Ein AA ist ein Filter um Kanten zu Glätten. Dabei wird das Ursprungsmaterial verfälscht und die Texturen matschig.
Es gibt unterschiedlichste Arten von AA. Supersampling AA (das aufwändigste) macht überhaupt nichts matschig. Im Gegenteil- Details werden besser herausgearbeitet und Kantenflimmern je nach Supersampling- Faktor komplett eliminiert. Kostet halt einen Haufen Leistung.
Diese Bilderfilterung wurde damals eingeführt, als die Auflösungen noch nicht besonders hoch waren und man dadurch eine höhere Auflösung quasi simuliert hat.
Diese Bildfilterung wurde einzig und allein eingeführt um den Flimmer- oder Treppeneffekt von zu kontraststarken Pixelübergängen zu glätten.
Sonst hätte man eine einzige Flimmerhölle ertragen müssen.
z.B. hier ab Sekunde 25
Das hat das Bild merklich verbessert, da man vorallem Rundungen nun besser optisch darstellen konnte ohne diese sichtbare Treppenbildung.
Du meinst SSAA, also genau das, was DLSS zu einem gewissen Grad macht.
Aber ab 4K ist so eine Kantenglättung einfach nicht mehr nötig, da die Pixel so klein geworden sind, dass man sie nur schwer erkennen kann.
Das ist eine unzulässige Verallgemeinerung. Denn nicht nur die Auflösung ist ein Faktor, sondern auch die Diagonale.
So kannst Du auch bei 4K Auflösung bei entsprechend großer Diagonale und entsprechend geringem Sitzabstand auf eine ähnliche PPD- Zahl (Pixel per degree) kommen, wie mit einem FullHD Bildschirm kleinerer Diagonale und größerem Sitzabstand.
Ergo: Ab 4K ist AA als Kantenglättung nicht mehr nötig und die Texturen werden 1:1 angezeigt und wirken nicht verwaschen und trotzdem glatt und rund.
Siehe oben.
Vielleicht solltest du deine Wahrnehmung etwas korrigieren...
Die ist schon ganz gut so, wie sie ist...
LG
Zero