lynx007 schrieb:
Das wird vermutlich nie etwas, bis sie auch auf den AI Zug aufspringen. Ich mein, es ist wie Weich- oder Scharfzeichnen, ob gut oder schlecht, hängt halt vom Einsatzort ab. Das via Algorithmus zu machen, halte ich fürn Ding der Unmöglichkeit.
Also falls du dich damit auf Upsampling beziehst, dann ist das nicht richtig.
Das was du beschreibst hat mehr mit klassischen spatialen Verfahren ähnlich FSR1 zu tun. Auch vergleichbar mit dem simplen Upscaling das jeder Monitor oder TV macht.
Bei DLSS und FSR werden ab Version 2 die Daten von mehreren Frames miteinander verrechnet.
Das Prinzip dabei ist, wenn man eine Szene aus minimal anderem Blickwinkel neu aufnimmt, hat man zusätzliche Bildinformationen die für Upsampling und AntiAliasing genutzt werden können. TAA nutzt das gleiche Prinzip. FSR und DLSS sind das gleiche nur in sehr viel besser.
Man hat also quasi eine Mehrfachabtastung einer Szene über mehrere Frames hinweg. Früher hat man das in Form von Supersampling gemacht, indem man das Bild einfach in 2x, 4x oder 8x so hoher Auflösung berechnet hat (SSAA) Das kostet natürlich irsinnig viel Rechenleistung. Heute versucht man über Zeit an die nötigen Bildiformationen zu kommen, auf basis alter frames.
Die Mehrfachabtastung kann mit einem virtuellen Jitter der Ingame Kamera erreicht werden oder eben ganz einfach in Bewegung.
In Bewegung ist jedoch die Herausforderung, die sich bewegenden Objekte richtig zu Tracken und die sich verändernden Pixel richtig zu verwerten und zuzuordnen, um das aktuelle Bild mit den Informationen aufzuwerten. Je mehr Fehler hier passieren, desto unschärfer und/oder pixeliger wird das Bild.
KI wird genutzt, um genau diese Datenauswertung präziser zu machen. AMD muss mit dem klassischen non-KI Ansatz wahrscheinlich viele Samples verwerfen, weil sie nicht sicher richtig zugeordnet werden können. Nutzt man sie falsch, risikiert man ghosting, verwirft man sie, riskiert man Bildrauschen und Aliasing. KI ist in dem Gebiet eben deutlich leistungsfähiger.
Ich will nicht ausschließen, dass Nvidia KI Techniken nutzt, um direkt das Bild quasi via "Bildbearbeitung" aufzuwerten. Aber das wofür KI hier primär genutzt wird ist die Datenverarbeitung aus vergangenen Frames. Da gelangen klassische Algorithmen offensichtlich zu schnell an ihre Grenzen.
Ziel ist es also, aus vorherigen Bildern möglichst viele Bildinformationen korrekt auszuwerten und für den aktuellen Frame wiederzuverwenden. Je besser das gelingt, desto detaillierter wird das fertige Bild.
Dinge wie Scharfzeichner oder Kontrastverbesserung kommen - wenn überhaupt - erst ganz zu schluss. Im Idealfall ist sowas gar nicht nötig, da das nur neue Artefakte mit sich bringt.
Das positive an DLSS ist aus meiner Sicht eben, dass KI hier nicht zur Bildmanipulation genutzt wird und somit auch kein "KI look" entsteht, so wie bei manchen Upscaling Programmen für Fotos. KI wird hier wie gesagt meines Wissens nur dafür genutzt, um näher an das optimale Ergebnis zu kommen, indem einfach die Verwertung von Bildinformationen aus alten Frames deutlich besser funktioniert. Die KI braucht daher auch nichts dazuerfinden oder zu halluzinieren, da die nötigen Informationen ja schon da sind. Sie müssen nur richtig genutzt werden.