Rickmer schrieb:
Die entsprechenden Hardware-Units wurden auf den neuen Karten ja auch heftig aufgestockt - sicherlich nicht grundlos.
Das ist mir klar, aber letztendlich müsste man halt wissen, wie viele Millisekunden die Rechenaufgabe kostet.
Da hier dedizierte Recheneinheiten die Aufgabe übernehmen, würde man auch niemals an den Punkt kommen, wie bei FSR2 wo es sich bei schwachen GPUs nicht mehr lohnen würde, weil das berechnen von FSR2 mehr leistung kostet als man durch reduzieren der Auflösung gewinnt.
Bei Turing und Ampere hat man eben dedizierte Einheiten dafür und selbst wenn die nur maximal zwischenbilder in 60 FPS schaffen würden, würde es sich ja schon lohnen.
Aber kann natürlich auch sein, dass da irgendwelche Befehlssätze nicht passen und es auf den alten Karten gar nicht richtig beschleunigt werden könnte.
Was jedoch trotzdem schade ist: Die Tensor Cores bei Amere und Turing haben es jetzt trotz "AI Power" nicht geschafft, sich großartig von FSR2 abzusetzen. Gut, DLSS2 ist an den entscheidenden Stellen immernoch besser und das Neural network hat sicherlich Vorteile an den Problemstellen. Aber ich hätte ehrlich gesagt schon gehofft, dass man die Qualität mit DLSS3 nochmal deutlich steigern kann.
So ist das halt jetzt echt etwas lächerlich, dass FSR2 komplett ohne AI Model schon ca 70-80% dessen schaft, was DLSS 2 schafft (je nach Qualitätsmodus).