F
foo_1337
Gast
Nvidia nutzt DGX-1 Server um das neuronale Netz zu trainieren. Dazu werden jeweils Bilder mit sehr hoher und niedriger Auflösung verwendet. Die Ergebnisse werden dann im Treiber gespeichert. Das neuronale Netz vergleicht dann das aktuelle Bild mit dem Referenzbild und generiert eines mit der vollen Auflösung. Durch die Bewegungsvektoren weiß das neuronale Netz, in welche Richtung die Objekte gehen und kann dann schätzen, wie der nächste Frame aussehen wird.Novasun schrieb:Dann definiere doch du mal was es ist...
Wenn du das als "Upscaler mit Scharfzeichener plus etwas mehr" bezeichnest, würdest du wohl (analog zum Fidelity FX Vergleich) auch im Vergleich eines Lada Niva und eines G-Modells das G-Modell als "Auto mit Allradantrieb plus etwas mehr" bezeichnen.
Ich würde es eher so bezeichnen: "DLSS nutzt Machine Learning um ein Bild nahezu verlustfrei hochzuskalieren bzw. oftmals werden sogar mit besserem Ergebnis als nativ"
Das entspricht der Realität und zeigt ganz gut, dass es eben nicht mit Fidelity FX vergleichbar ist.
Das war mir tatsächlich nicht bekannt, danke. Das ist eine sehr gute Nachricht für die Exynos SoC und keine gute für QualcommNovasun schrieb:Du weißt schon das AMD und Samsung an einer GPU für Android dran sind?