@W0dan
danke auf der einen Seite für die Erklärung, auf der anderen Seite: Ich weiß das alles und es war auch jetzt nicht das Thema hier. Manchmal sind gut gemeinte Erklärungen doch ein wenig nervig. Muss ich mir auch mal für mich selbst wieder hinter die Ohren schreiben.
@.Sentinel.
auch das was du schreibst, weiß ich bereits. Aber dennoch danke!
Ich geh aktuell rein aus Spaß mal von der anderen Seite mit "KI" an Bilder heran. Ich will es nicht hoch rechnen oder so, sondern Kopien und Co erkennen. Da hatte ich jetzt eine KI-Software von einer Firma auf den Tisch, die relativ "zuverlässig" arbeitet. Gleichzeitig haben ein Freund und ich uns mal mit den üblichen Algorithmen dafür befasst und umgesetzt und kamen nach dem Anpassen einiger Parameter und mit dem Spielen der Schätzwerte für die Heuristik auf ein ähnlich gutes bis besseres Ergebniss,.
Die KI aus aus dem "Stand" relativ gut gearbeitet, das haben die üblichen Verfahren auch. Bei den "verfälschten" Bildern hat dann die KI genau so wie wir im klassischen Algorithmus anfangen müssen zu raten. Mit einem weiteren Verfahren - etwas aufwendiger in der Berechnung - und auf das gesuchte Bild zugeschnittenen Parametern, haben wir dann aber mehr verfälschte Bilder erkannt.
Und im Endeffekt beschreibst du hier für DLSS ja auch wieder etwas ähnliches: DLSS "Out-of-the-Box" liefert halt eben nicht die optimalen Ergebnisse und muss auch noch mal weiter angepasst werden und benötigt entsprechende Arbeiten, damit man wirklich die Probleme minimiert. Jetzt stark vereinfacht: Man kann DLSS implementieren, wenn man aber kein passendes Profil erstellt, hat man nicht das optimale Ergebnis.
Wenn ich mir jetzt die Art ansehe, wie man auch bei einem rein temporalen Verfahren vorgehen kann, dann kann man da auch sehr viel erreichen, wenn man das Verfahren nicht nur als Blackbox implementiert, sondern an entsprechenden Stellen Anpassungen vornimmt, die man auch vereinfacht als Profile beschreiben kann.
Nehme ich jetzt meine Erfahrungen aus meinem kleinen Projekt, dann ist halt die Frage, ob das neurale Netzwerk wirklich die geheime Zutat ist, die alles besser macht und ohne die es nicht wirklich geht, oder ob ein konventionelles Verfahren nicht genau so gut geeignet ist. Und deine Ausführung entkräftet diese Annahme nicht, sondern gibt sogar noch eher Nährboden dafür.
Wenn ich dann noch meine Erfahrunge mit NVIDIA und deren "Software" einfließen lasse, wenn ich denn mal einen ihrer tollen Effekte und Algorithmen zum Reverse-Engeniering hier liegen hatte - sowas macht echt Spaß - dann merkt man bei NVIDIA schon einen gewissen Hang dazu eine 120mm Haubitze zu nehmen, obwohl ein Skapell gereicht hätte. Versteh das an der Stelle bitte nicht falsch: Deren Algorithmen und Co sind durchaus sehr gut, aber man merkt an jeder Stelle, dass sie eher zeigen wollen, was ihre Hardware "kann" und sich wenig Gedanken über wirkliche allgemeine Optimierungen ihrer Algorithmen machen. Da werden dann Algorithmen teilweise vollkommen sinnlos auf irgendwelche Features ihrer Grafikkaten oder CUDA zu geschnitten oder man wählt einen Weg der eben genau ein Feature braucht, obwohl es anders genauso gut bis hin zu besser geht.
Das NVIDIA das macht, das ist legitim, sie entwickeln ja den Algorithmus, das Problem ist aber, dass in der breiten Masse oft hängen bleibt, dass es ja genau dieses Feature braucht, ansonsten würde es nicht gehen. Das ist leider oft aber falsch.