.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.628
Nolag schrieb:Ja, das Verfahren, welches Nvidia DLSS 2.0 nennt, basiert auf .... Das einzig neue ist, dass es mit den Tensor Cores in Echtzeit mit Auflösungen bis 8k funktioniert und keinen Supercomputer mehr benötigt wie vor 40 Jahren.
Siehst Du- Hier im Forum wird aber immer noch das Märchen der "wundersamen" Pixelvermehrung durch dazuerfinden der Details und "Mogeln" durch die KI verbreitet. (z.B. vom Kollegen Kacha).
Das mag bei DLSS1 noch versucht worden sein. DLSS2.0/2.1 arbeitet aber zu 99% mit tatsächlich existierenden Daten.
Keine Magie, kein künstliches "Gehirn", das dahintersitzt und rät, wie z.B. die Stufen einer Treppe aussehen oder die Details einer Textur. Nichts dergleichen. Das Snippet zur Texturbehandlung habe ich hier auch schon gepostet.
Die Tensor Cores sind ja auch nur plumpe Rechenwerke, die einfach gewisse Aufgaben sehr schnell (je ungenauer umso schneller) abarbeiten können.
Dass DLSS auch shadergestützt laufen kann, hat NVIDIA ja selbst schon mit Control (Stichwort DLSS1.9) ohne Einsatz der Tensor- Cores gezeigt. Da wurde auch nie irgendwo bestritten, dass das Verfahren auch anders laufen kann. Das wird ihnen aber (wie bei Raytracing auch) immer angedichtet.
Da wurde aber auch überhaupt kein Geheimnis draus gemacht:
Quelle:https://www.hardwareluxx.de/index.p...n-ai-upscaling-wie-von-anfang-an-geplant.htmlFür das DLSS 1.9 in Control (der einzige Titel, der diese Umsetzung verwendet hat), lief das DLSS rein auf den Shadern. Die Tensor Cores waren hier nicht in Verwendung. Doch mit DLSS 1.9 wurden schon einige Verbesserungen versucht. Unter anderem gab es schon ein temporales Feedback.
Und mit meinem Ausspruch "warum da nicht schon früher einer draufgekommen ist", meine ich die praktische Umsetzung im realtime- Spielebetrieb. Dass da nachdem nvidia auf den Markt prescht ein Paper nach dem anderen in die freie Wildbahn entlassen wird, sollte ob des Potenzials der Technik nicht verwundern.
Mich nervt es einfach, dass hier im Forum zum Teil nachwievor ein Mysterium, welches irgendwelche Daten aus dem "nichts" anhand irgendwelcher vorher antrainierten Bilder zaubern würde, aus DLSS gemacht wird, gerade weil nvidia diesbezüglich in allen Bereichen sehr spendabel mit Information ist und alle Fakten auf dem Tisch liegen.
Jeder kann den UE Branch bzw. die Bibliotheken bei nvidia beantragen.
Es ist ein gejittertes, motionvektor- kompensiertes, temporal akkumulierendes Supersampling. Mit anschließendem Ai gestütztem Anti- Alias- Pass mit einer Prise secret sauce, die die Artefaktbildung im Gegensatz zu bisherigen Verfahren gut unter Kontrolle hat.
Das hat mit dem Grundbegriff eines mit starrem Algorithmus durchgeführten Upscalings (so wie es in den Köpfen verhaftet ist) nicht viel gemein. Und auch wenig mit AMDs FidelityFX CAS.
DLSS2.x ist ja auch nur die Flucht nach vorne geworden, weil das mit der ersten Version, wo sie tatsächlich einen Ansatz gewählt haben, der AI gestützt versucht Details aufgrund von trainingsdaten zu "erahnen", nicht die Ergebnisse gebracht hat, die man sich gewünscht hätte (und die man großmäulig in den Präsentationen angekündigt hat).
Egal- Die Tensor- Cores haben jetzt einen ersten für Spieler sinnvollen Einsatzzweck gefunden. Und da diese inklusive der anderen Gewerke zeitgleich eingesetzt werden können, ist das schon ein großer Schritt.
Jetzt muss nur noch die Software mit DLSS "in mind" konstruiert werden, dann kann man da auch fehlerfreie Implementationen hinbringen.
Mich ermüdet dieser Markenfetisch, der latent in jedem Thread zum Vorschein kommt.
Da wird geprügelt, gebasht, schlecht geredet, relativiert, anstatt dass man einfach mal die Füße still hält und sich darüber freut, dass jemand überhaupt in diese Richtung mit großem Geld- und Ressourceneinsatz inkl. der Prügel von enttäuschten Usern (Version 1) gegangen ist.
Kann man denn nicht einfach mal sagen, dass das gut und sinnvoll ist, was die da machen? Ganz unabhängig davon, dass der eigene Lieblingshersteller das (noch) nicht liefert?
GenauUnnu schrieb:@foo_1337 : Okay, danke für die Links. Dann verstehe ich das richtig, dass die ihren Algo auf ihrem Cluster trainieren, diesen dann in die Treiber packen und dort dann die Verbesserungen via den TCs stattfinden?
Wenn sie den Inferencing- Datensatz optimieren bzw. DLSS in der Funktionsweise, dann wird es hübscher.Und je öfter ich das Spiel spiele um so hübscher?
Nicht, wenn Du es öfter spielst. Beim Spielen "lernt" Dein System nichts, sondern wendet stur die im Treiber hinterlegten Gewichtungen/Muster an.
Zuletzt bearbeitet: