Percentil
Latenz
Also jetzt mal ohne Witz, das ist schon äußerst geil...
Da ist noch nichtmal Upscaling aktiv, also native Auflösung und trotzdem wird die Latenz durch FG verbessert und die Percentile steigen um 56% an.
Klar, mit reinem Upsacling erreicht man das auch, da sind die Latenzen entsprechend auch besser, aber der große Vorteil bei FG ist ja, dass die CPU nicht schneller rendern muss.
Gerade bei Spielen bei denen man im CPU Limit hängt ist FG ja extrem nützlich.
Das entspricht ja rein hinsichtlich der Latenz schon dem Upgrade um eine CPU generation und hinsichtlich Frametimes einem Upgrade das quasi erst in ~3 CPU Generationen (5+ Jahre) möglich wäre.
Das muss man sich mal vor Augen führen...
Durch diese AI features relativiert sich die Leistungsfähigkeit von CPU und GPU zum Großteil.
Klar, es braucht natürlich ne gewisse Grundperformance, aber mit DLSS und FG ist es ja überhaupt kein Problem mehr, aus einem Spiel, das z.B. mit 1440p und 60 FPS läuft und dabei sowohl auf Seiten CPU und GPU keine Ressourcen für höhere Framerates mehr vorhanden sind, einfach mal eben ein 4K 120 FPS Spielerlebnis zu zaubern.
Mit DLSS Quality @4K läuft das Spiel intern weiterhin in 1440p, also GPU Seitig kein Performanceverlust und dank FG lässt sich die Framerate nochmal verdoppeln, selbst wenn die CPU limitieren sollte.
Und das alles bei besserer Latenz als Nativ.
Und die ersten Updates, um die Bildqualität von FG vor allem in Kombination mit HUD Elementen zu verbessern sind ja bereits angekündigt.
Für einen ersten Wurf von FG kann man hier nur seinen Hut ziehen. Mal sehen, wie das Feature in 2 Jahren gereift ist.
Mein best guess wäre, dass vielleicht RTX5000 nicht nur 1, sondern 2 oder noch mehr zwischenbilder berechnen kann. Wenn die Berechnung schnell genug wird, spricht ja auch nichts dagegen, das zu tun.
Und dann wirds irgendwann richtig interessant. Dann könnte ich mir gut vorstellen, dass FG einfach IMMER die maximale Bildwiederholfrequenz des Displays ausreizen kann und irgendwann bis zu 1000 FPS möglich sind. Dann würde die Hardwareleistung nicht mehr die eigentliche Bildrate bestimmen, denn die könnte beliebig "generiert" werden, sondern die Leistung bestimmt praktisch nur noch die Eingabelatenz.
Spannende Zeiten...