Kacha schrieb:
Ich tippe darauf, dass das ganze einfach ueber DirectML laufen wird und damit standardisiert ist. Zum einen weil DirectML von Microsoft kommt, zum anderen weil es in Microsofts Strategie passen wuerde. Mit DLSS wird es allerdings nicht kompatibel sein da das eben proprietaer ist. Koennte hoechstens sein, dass Nvidia irgendwann wie bei Gsync umschwenkt.
DLSS an sich ist grundsätzlich keine Nvidia spezifische Technologie, die speziell an ihre Hardware gebunden ist.
Das kannst du vergleichen mit einem Antialias-Verfahren. Es ist nur ein Algorithmus, den Spieleentwickler zum Beispiel auch selbst entwickeln könnten. Das ist nichts, was wirklich standardisiert werden muss/sollte. Genau so wenig, wie die ganzen verschiedenen Antialias-Verfahren standardisiert sind.
Nvidia bietet hier lediglich eine Bibliothek an, die Entwickler nutzen können um einen DLSS-Algorithmus mit Unterstützung der Tensor Cores durchführen zu können. Was fehlt ist eigentlich eine API für den standardisierten Zugriff auf diese KI-Cores.
Dies wird irgendwann mal DirectML sein, aber ich denke momentan ist das noch nicht wirklich ausgereift genug.
Nvidia Developer Doku schrieb:
There is no switch or button labeled Use Tensor Cores and there are certain constraints by which the model and input data must abide.
DirectML versucht also selbst zu bestimmen, wo die Sachen zu berechnen sind und ich kann mir gut Vorstellen, dass man damit nicht die optimale Performance hinbekommt, als wenn man es manuell über CUDA macht.
Deswegen wird Nvidia auch kein DirectML nutzen, sondern geht über ihre eigenen Schnittstellen. Ist einfach performanter und man hat mehr Kontrolle.
Ein besser ausgereiftes DirectML könnte aber in Zukunft die Schnittstelle sein über die auch AMD ihren DLSS Algorithmus berechnen wird. So ist dann jeder in der Lage eine hardwarebeschleunigte DLSS-Implementation zu schreiben. Davon gäbe es dann wahrscheinlich genau so viele Variationen wie Antialias-Verfahren heute und sie würden alle auf jeder Hardware laufen.
Soweit ist AMD aber noch nicht und da stellt sich die Frage, was sie momentan ohne dedizierte KI-Hardware tun können. Sie können zwar eine Bibliothek anbieten die den DLSS-Algorithmus auf den Shader-Cores berechnet, aber da stellt sich natürlich die Frage, ob das überhaupt Leistungsvorteile mit sich bringt. Schließlich nutzt es kostbare Shaderleistung, die man auch gleich zum Rendern der höheren Auflösung hätte verwenden können. Außerdem sind Shader bis zu 90% langsamer als potenzielle KI-Cores beim maschinellen lernen. Eine DLSS Lösung ohne dedizierte Hardware wird also wenig Sinn machen.
@Summerbreeze
DLSS 1.0 war absolut unzureichend und genau das sind AMDs verfahren auch. Warum das so ist und warum DLSS 2.0 deutlich besser ist erfährst du
hier.
Kurz gesagt. DLSS 1 und RIS versuchen Anhand eines einzelnen Bildes zu "erraten", wie das größere Bild auszusehen hat. DLSS 2 aggregiert tatsächlich zuvor gerenderte Daten aus mehreren Bildern um das hochskalierte Bild zu generieren.