BigGonzo schrieb:
Eine nette Sache.
Lassen sich solche "Latenzen" eigentlich reduzieren, wenn man im Grafikkartentreiber das vorausberechnen von Bildern beispielsweise von 3 auf 5 einstellt?
Wenn du mit einer schwammigen Steuerung zufrieden bist.
Stell dir mal vor du bewegst die Maus und erst eine viertel Sekunde später siehst du die Auswirkungen auf dem Monitor. Es ist bereits heute so, dass aufgrund des Treibermodells und der DirectX Schnittstelle das Bild bis zu drei Frames verzögert auf dem Schirm erscheint nachdem es berechnet wurde.
Wenn du jetzt noch einen Monitor mit Overdrive-Technik besitzt, dann werden dort ebenfalls noch 1-3 Bilder zwischengepuffert. Stichwort Inputlag. Ein wenig Lag verursacht auch noch deine Maus und die Gameengine an sich, als auch die Grafikkarte selbst und wenn du online spielst, dann kommt auch noch die Netzwerklatenz (Ping) hinzu.
All das vergrößert die Latenz, die zwischen deiner Benutzereinagbe und der Monitorausgabe entsteht und macht die Steuerung extrem schwammig. Eine zusätzliche Pufferung von Bildern wäre hier extrem kontraproduktiv. Da kannst du gleich in der Cloud spielen.
Das ist übrigens, was man wirklich unter Latenz versteht und nicht der hier im Artikel beschriebene Effekt.
Trotzdem sind beide nicht uninteressant und sehr wichtig für ein angenehmes Spielerlebnis.
Hohe Frameraten verringern übrigens beide diese Effekte. Es kann also nie schaden ein Spiel trotzdem mit 120 fps zu spielen, selbst wenn es schon mit 40 fps flüssig erscheinen sollte. Die Jitter und Latenzprobleme werden durch die hohe Framerate deutlich reduziert, sodass sie kaum noch eine Rolle spielen.