News Lucid bringt „Virtual Vsync“ ohne 60-FPS-Grenze

Mit Input Lag ist die Verzögerung zwischen einer Befehlseingabe (z.B. ein Schwenk mit der Maus) und deren spürbare Auswirkung auf dem Bildschirm (Bildausschnitt ändert sich) gemeint.



Wie könnte dieses Virtual VSync funktionieren?

Mathematik läßt sich nicht aushebeln, d.h. Tearing tritt immer dann auf, wenn die Bildwiederholrate (= FPS) eines Spiels kein ganzzahlig Vielfaches der Bildschirmwiederholfrequenz (= 60Hz bzw. 120Hz) ist. Grafikkarten rendern unter DirectX üblicherweise in zwei Puffer. Das Verfahren heißt Double Buffering. Ist der eine voll, wird er angezeigt und der zweite Puffer mit einem frischen Bild neu beschrieben. Ist der zweite Puffer voll, der erste wird aber dank aktiviertem VSync immer noch gehalten, dann hat die Grafikkarte erst mal nichts mehr zu tun. Dieses Verhalten erkennt Ihr z.B. daran, daß die Grafikkarte mit aktiviertem VSync nicht so heiß wird. Die Geschehnisse im Spiel laufen jedoch ein Stück weit weiter, man kriegt nur nix davon mit, weil die Grafikkarte wartet, bis der Monitor für einen Wechsel der Puffer bereit ist und dann auch nur ein, je nach potentieller Geschwindigkeit der Grafikkarte, eigentlich veraltetes Bild zur Anzeige kommt.

Nun gibt es aber noch Triple Buffering. Dies ist jedoch ein sehr kontrovers diskutiertes Thema, denn oftmals wird der Begriff auch für schnödes Render Ahead mißbraucht. Render Ahead heißt, daß die Grafikkarte ein paar Bilder im Voraus berechnet. Diese Beschreibung ist natürlich Unsinn, obwohl der Begriff durchaus darauf schließen läßt. In die Zukunft blicken kann keiner. Was tatsächlich passiert ist, daß die Bildausgabe um den eingestellten Wert in Bildern zurückgehalten wird. Üblicherweise drei Bilder. Von hier kommt die Zahl "Drei" und man konstruiert sich so den Begriff Triple Buffering, der für dieses Verfahren nicht falscher sein kann. Das Ergebnis dieses Render Ahead Verfahrens ist, daß die Bilder potentiell noch älter sind. Das treibt dann auch den Input Lag in die Höhe. Die Temperaturentwicklung der Grafikkarte ist auch hier reduziert. Wenn die Render Ahead Warteschlange voll ist, muß die Grafikkarte wieder warten. Stellt Euch ein Autorennen ohne Überholmanöver vor. Das ist Render Ahead.

Echtes Triple Buffering entspricht dem oben beschriebenen Render Ahead, jedoch mit dem wie ich finde sehr schönen Umstand, daß das aktuellste Bild einem bereits früher fertiggestellten Bild vorgezogen wird, sofern dieses früher fertiggestellte Bild noch nicht zur Anzeige kam. Mit diesem Verfahren seht Ihr immer das aktuellste Bild und habt einen sehr niedrigen Input Lag. Weil die Puffer zwei und drei ständig mit jeweils neuem Bildern beschrieben werden, geht hier auch die Temperatur der Grafikkarte hoch. Erinnert Euch: In die Zukunft schauen kann keiner, also muß die Grafikkarte immer am Ball bleiben, um bei Pufferwechsel das aktuellste Bild zur Anzeige bringen zu können. Stellt Euch wieder ein Autorennen vor. Am ersten Wagen kommt keiner vorbei, aber die Plätze zwei und drei wechseln derart schnell, daß einem schwindlig werden kann.

Ich vermute, daß Virtual VSync genau das ist: Echtes Triple Buffering.
 
Hast du sehr gut beschrieben.
Aber beides ist echtes Trible Puffering. Jedoch wird die erst ewähnte Version falsch von der Grafikkarte genutzt.

Nvidia Treiber:
Dreifach Puffer: "Die Einstellung hat mit aktivierten VSync eine Leistungssteigerung zur Folge." Ist es das "echte" bessere Vsync?
 
der input lag der theoretisch entstehen kann ist ja praktisch immer unter einem frame, meistens vermutlich sogar wenig bis garnicht vorhanden, wenn man also nicht schon einen monitor mit hohem input lag halte ich das für sehr unnötig.

dass jemand schon von einem input lag von <1 frame gestört wird kann mir keiner erzählen, ich bin bei solchen sachen sehr sensibel und mein monitor hat ca. 1.5 fps input lag.
...lieber einen geeigneten monitor kaufen, denn was bringt das tolle vsync wenn der monitor dann erst 3fps input lag hat.
 
wow das hört sich mal geil an :daumen:

Tearing nervt schon sehr.. aber ich kann mich einfach nich dazu bringen Vsync zu aktivieren weil dann immer extremer Mouse-Lag kommt der sogar noch mehr nervt :D

Also ich bin gespannt ob das so funktionieren wird.
 
Vllt isses bei dir kein Mouselag, sondern Mikroruckler, daran schonmal gedacht?
 
r4yn3 schrieb:
Vllt isses bei dir kein Mouselag, sondern Mikroruckler, daran schonmal gedacht?
Nein, das nennt man Input-Lag wie auf den ersten Seiten schon einige Male erwähnt.
Es ruckelt nicht, sondern die Maus wird richtig schwammig; im Prinzip wie ne Funkmaus die kurz davor steht, dass die Batterien leer gehen und es dann zu ner langen Verzögerung kommt bei jeder Mausbewegung.

Ist aber allgemein bekanntest Prolbem bei Vsync..

speedlimiter schrieb:
Sachen, die die Welt nicht brauch. Gerade das Deaktivieren des VSync bringt ungleichmäßige Bildraten und verstärkt den Eindruck von SlowDowns.
Spielst du nur Strategiespiele?
Schnelle Shooter games (Quake, UT etc.) gehen ja mal gar nicht mit Vsync.. selbst bei nem relativ langsamen Spiel wie L4D ist das für mich unspielbar.
 
Das wär ein Segen wenn das klappt. Gerade bei Shift2, Fable3 usw. hat man extreme Verzögerungen mit aktiviertem VSync.
 
Ja kann dir schon folgen, war ja nur ne Vermutung.
Ich kenn das Problem mit schwammiger Maus bei VSync nur selten, zuletzt bei AC:Brotherhood, welches mit VSync bei 30FPS lief, ohne jedoch mit mindestens 60FPS.

Aber es gibt genug Spiele wo ich mit VSync keine Probleme hab, also sollte das durchaus einfach ein programmier Fehler sein.
 
Inputlag ... moderne Spiele rechnen nicht mehr ihre Aktionen pro Bild aus. Dies ist schon lange getrennt.

Außerdem verschwendet man viel Energie wenn man mehr Bilder berechnet als man Anzeigen kann.

Irgendwelche Gamerfreaks werden es sich trotzdem kaufen.
 
Wird man diese "Ultra VSync Software" auf jedem System installieren können, oder bedarf es wieder eines Mainboards mit Lucid Zusatzchip ?
 
wäre gut, wenn das funktionieren würde, weniger wegen den Mehr- FPS, sondern vielmehr wegen der Möglichkeit, dass die Framerate mit der Technik vllt nicht mehr so stark einbricht, wenn bei aktiviertem VSync die 60FPS von der Hardware nicht immer geschafft werden.
 
JueZ schrieb:
Inputlag ... moderne Spiele rechnen nicht mehr ihre Aktionen pro Bild aus. Dies ist schon lange getrennt.

Außerdem verschwendet man viel Energie wenn man mehr Bilder berechnet als man Anzeigen kann.

Irgendwelche Gamerfreaks werden es sich trotzdem kaufen.

Du hast da was völlig falsch verstanden, das hat nichts mit den FPS zu tun.
Inputlag kommt nich durch zu niedrige Frames zustande, sondern durch die Tatsache, dass Vsync aktiviert ist.

Die Maus ist bei 30 FPS deutlich flüssiger und schneller als bei 60 FPS mit aktiviertem Vsync.

Würde mal gerne genauer wissen warum das so ist, hat wohl mit der Art und Weise zu tun wie Vsync arbeitet und dem buffering.
 
Zuletzt bearbeitet:
Das hat damit was zu tun, weil bei aktivierten VSync das Bild gepuffert wird und man Timinggenau mit jeder Bildwiederholrate ein komplettes fertiges Bild ausgibt. Sprich das hat was mit dem Timing und der pufferung zu tun.
 
crustenscharbap schrieb:
Hast du sehr gut beschrieben.
Aber beides ist echtes Trible Puffering. Jedoch wird die erst ewähnte Version falsch von der Grafikkarte genutzt.
Eigentlich hast Du recht. Irgendwo müssen die Bilder schließlich gespeichert sein.

crustenscharbap schrieb:
Nvidia Treiber:
Dreifach Puffer: "Die Einstellung hat mit aktivierten VSync eine Leistungssteigerung zur Folge." Ist es das "echte" bessere Vsync?

Probiers aus. Wenn die Grafikkarte mit diesem Schalter wärmer wird, dann ist es das echte. Allerdings hab ich so meine Zweifel. Alle Tools und Kniffe, die Triple Buffering versprechen, haben bei mir noch nie etwas bewirkt.



Wenn das Virtual VSync tatsächlich für jedermann zu haben ist bin ich mal gespannt, wievielen Spielern ihre Grafikkarte abraucht. Die muß dann nämlich unter Vollast laufen. Welche Entrüstungsstürme das verursacht ist mir durch den Launch von Star Trek Online noch gut in Erinnerung. Dabei kann es nicht ein Fehler des Spieleentwicklers sein, wenn die Kühllösung der Grafikkarte der Chipleistung nicht gerecht wird.
 
Meinst du nicht eher den Launch von StarCraft 2, wo im Startmenü die Karten abrauchten?
 
Wenn der Input-Lag wirklich weg wäre, wäre das echt nicht schlecht!
 
r4yn3 schrieb:
Meinst du nicht eher den Launch von StarCraft 2, wo im Startmenü die Karten abrauchten?

Da waren beide Titel von betroffen, aber SC2 hab ich nur am Rande verfolgt. Mit dem Spiel werd ich mich beschäftigen, sobald alle drei Kampagnen draußen sind.
 
Ich kann mich erinnern, dass ich zu CRT-Zeiten damals CS mit Vsync gespielt hab und trotzdem 100fps hatte. :)
 
Wenn das hier ein Auto-Forum wäre. Würde ich denken es geht um den Leistungsvorteil von 100 Oktan vs 95 Oktan. Manche übertreiben es aber auch. Als ob der PC mit Vsync 20 Minuten brauch um auf eine Eingabe zu reagieren.
Das Thema wurde schon so oft vertieft. Jedes mal das gleiche Ergebnis. Die beste Kombination ist Vsync on UND Triple Buffering on. Hat aber den Nachteil das es Hardwarelastiger ist. Input-Lag wäre dann ca. wie Vsync off.
 
Zurück
Oben