leonM schrieb:
Aktuell sieht es bei den meisten so aus, dass ihre Hardwarekomponenten im Zusammenspiel mit einen Render(bei den jedweiligen Spielegenres) von >60fps als spielbar annehmen. Jetzt soll aufeinmal das nicht mehr von Relevanz sein und das Grundlegende bei hohen Frames nur die Beseitigung von Motion Blure ? Naja, jedenfalls nicht für mich und einer der Hautgründe warum ich nicht auf Konsolen, sondern auf dem PC zocke
Ich sagte nicht, dass der geringere Inputlag keinerlei Relevanz hätte, aber ich denke zmdst. DLSS 3 richtet sich sicher nicht an esportler oder überhaupt auf Titel, welche bereits ohne jegliches dlss mit >120 fps gespielt werden (können).
Höhere Framerates bedeuten aber ein schärferes sowie flüssigeres Bewegtbild, was sich z.B. bei Kameraschwenks bemerkbar macht und als Problem gerade bei heutigen sample & hold displays lange vernachlässigt wurde.
Den verringerten Inputlag durch 120fps zu 60fps (also ohne frame generation) müsste man spielbezogen messen, um den tatsächlichen Unterschied ausmachen zu können.
Wenn ich mir die obigen Werte von zig ms so ansehe, würden die angenommenen 8ms (16ms zu 8ms frametime) Unterschied wohl nicht den entscheidenden Vorteil bringen.
Finde es auch iwie auffällig wie oft höhere Framerates mit geringerem Inputlag in Verbindung gebracht werden, obwohl die gpu load Begrenzung erstmal entscheidender ist.
Nvidia hat sich des Problems auch erst nvidia reflex angenommen, zuvor wurde es eher selten thematisiert.
Mal ganz davon ab:
Sollten solche Features wie dlss nicht relativ schwache Hardware zu brauchbaren Framerates verhelfen?
Nun ist man auf relativ starke Hardware angewiesen, um das Helferlein dlss 3.0 nutzen zu können, is doch etwas grotesk.
Die Idee begrüße ich, aber die Bindung an die Hardware, hmm.