Screen Tearing beheben ohne Vsync möglich ?

pcgamer564

Newbie
Registriert
Juni 2021
Beiträge
4
Guten Tag,


Ich habe eine kleine und kurze Frage: Gibt es die Möglichkeit Screen Tearing ohne Vsync zu beheben ? ( denn soweit ich weiß sorgt Vsync für Input Lag ).

Ich würde mich sehr über jede Hilfe freuen

MFG pcgamer
 
ja, freesync/adaptive sync oder g-sync.
 
  • Gefällt mir
Reaktionen: JJJT, GTrash81 und Otsy
Hi Zusammen,

ich würde mich auch mal hier einklinken.

Was hast du denn gegen V-Sync ?

ich bin da eigentlich echt ein FAN von :)

Ich hab bei einem Game (Rocket League) hier und da Ruckler oder es kommt mir unsauber/nicht suuuuper flüssig vor.

Hab jetzt mir sagen lassen im "best case" V-sync an gegen tearing und FrameLimit per RivaTuner unterhalb der max. Hz des Bildschirms setzen.

Sind jetzt bei mir 73fps gelockt, ohne jede Art von Tearing.
Soweit sogut.

Ich hab aber auch ein VA Panel und mein Sohn ein IPS Panel.
Würde jemand sagen ob das evtl. "sichtbar" wäre ? die Latenz ? von der Farbgebung her will ich garnicht erst anfangen xD

Was ich heute hoffentlich endlich mal testen möchte - UV der Graka raus.
Evtl. läuft die leicht instabil (auf kipp) bei der kleinen Teillast und es kommt dadurch durch minimales stuttering (hier & da)
 
Ohne Synchronisierung der ausgegebenen Bilder mit der Bildwiederholrate des Monitors wirst du Tearing lediglich reduzieren, nicht aber unterbinden können.

VSync, FreeSync und GSync stellen die geläufigen Methoden dar, um ein sauberes Bild zu erhalten.
 
Kann man nicht auch irgendwie diese Tearing Linie versetzen ? falls man wirklich ein Usecase für haben sollte ?

Hab ich mal watt gelesen.
Nichts genaues weiß man nicht.
 
und macht das den in euren Augen Sinn das so zu machen ?

Wie lasst ihr denn eure Graka rennen ?

Immer Vollgas ? (gut, wenn die Graka je nach Auflösung & Game nicht mal die Hz des Monitors packt, ist die Antwort klar)
 
RaptorTP schrieb:
[...]

Wie lasst ihr denn eure Graka rennen ?

[...]

FreeSync und Limitierung der FPS leicht unter die Bildwiederholrate des Monitors, vorzugsweise über eine ingame Limitierung.
 
  • Gefällt mir
Reaktionen: RaptorTP
VSYNC On, Double Buffer: 120 Hz eingestellt, das Game ist aber Anspruchsvoll und man fällt unter 120 Bilder, dann gehts direkt runter auf 60 Bilder und das wiederum erhöht auch den Inputlag.
VSYNC On, Triple Buffer: Ein Bild mehr, in der Regel höherer Inputlag und teilweise schlechtere Frametimes.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 0ssi
Warum sollte Triple-Buffering VSync allgemein mehr Latenz haben als Double Buffer VSync?

Die Latenz bei VSync (Double Buffer) kommt ja daher, dass die Framerate der GPU strikt an den Monitor gekoppelt wird. Wenn die Grafikkarte Bilder viel schneller berechnen kann, als der Monitor sie darstellen kann, sind so die Frames unter Umständen älter, weil die GPU genau 1 Frame berechnet und dann auf den Monitor warten muss. Wenn die GPU zu langsam ist, wird die Frametime dann gleich verdoppelt.

Bei Triple-Buffering sind die Raten entkoppelt und die GPU berechnet einfach permanent neue Bilder, so dass zum Sync-Zeitpunkt das neueste Frame genutzt werden kann. Das kann zu schwankendem Input-Lag führen, insbesondere wenn die GPU langsamer ist als der Monitor, aber nicht allgemein zu höherem als bei Double-Buffering.


Dann gibt es diverse Techniken, die Schätzen, wann die GPU fertig wird und versuchen diesen Zeitpunkt möglichst kurz vor den Sync zu legen, so dass die Frames immer so aktuell wie möglich sind. Wenn die Schätzung mal falsch liegt, muss dann aber entweder Tearing oder V-Sync kommen. (Bei Nvidia gibts da zB die Optionen Fast Sync oder Adaptive Sync)

https://www.anandtech.com/show/2794 erklärt Triple-Buffering VSync sehr schön. Und weisen am Ende darauf hin, dass es durchaus Spiele gibt, die andere Dinge fälschlicherweise als Triple-Buffering bezeichnen. Wenn es sich also nicht um echtes Triple-Buffering handelt, kann das mehr Latenz bringen, aber technisch gesehen ist das dann kein Triple-Buffering mehr.
 
Tripple Buffer erhöht die Latenz pauschal um 1 Bild, ob die gesamte Latenz mit Tripple Buffer höher oder niedriger ausfällt, hängt letzendlich auch von der Leistungsfähigkeit des Systems ab. Liefert die GPU immer genug Bilder, um die eingestellte Refresh Rate bedienen zu können ist Double Buffer immer schneller als Triple Buffer. So oder so, es gibt gute Gründe warum es Adaptive Sync gibt ;)
 
Rache Klos schrieb:
Liefert die GPU immer genug Bilder, um die eingestellte Refresh Rate bedienen zu können ist Double Buffer immer schneller als Triple Buffer.
Das ist nicht richtig. Man darf Triple Buffering nicht mit vorgerendeten Bildern verwechseln. Ray519 hat doch schon die ausführliche Erklärung von Anandtech verlinkt:
Triple Buffering: Why We Love It
In other words, with triple buffering we get the same high actual performance and similar decreased input lag of a vsync disabled setup
 
Kann ich so nicht beobachten, erzwinge ich Triple Buffer über den NVIDIA Treiber, hab ich einen Anstieg der Latenz um genau ein weiteres Bild. Ich hatte bei einem gesetzten FPS Gap auf 141 bei aktiven Triple Buffer 7ms mehr. Wenn Triple Buffer so das Allheilmittel wäre, warum braucht es dann adaptive Sync? ;)
 
Die Erklärung von Anandtech dazu war, dass DirectX nativ wohl nur das Vorrendern konnte (der Artikel ist von 2009). Triple-Buffering musste von Spielen manuell implementiert werden.

Wie viel sich an der Stelle mit DirectX 11 und 12 geändert hat, weiß ich leider nicht.
Manche Spiele und Programme nennen aber wohl Dinge Triple-Buffering, obwohl sie nur Vorrendern haben. Und das erhöht selbstverständlich die Latenz um ein Frame, wie du es auch siehst. Aber wenn man es mit echtem Triple-Buffering zu tun hat, so wie man dass als HW oder SW-Entwickler auch an anderen Stellen nutzen kann, erhöht das die Latenz nicht. Woran man erkennen kann, ob ein Spiel oder Programm das richtige macht, außer zu messen, kann ich dir aber leider nicht sagen.
 
Jeder Buffer verzögert etwas, wenn der Buffer entsprechend genutzt wird. Je größer der Buffer ist, desto höher ist die Latenz im Fall, dass der Puffer ausgereizt wird. Also ist es völlig unlogisch, dass es nicht zu einer erhöhten Latenz führen sollte. Das Ding nennt sich auch nicht ohne Grund Triple Buffer, weil er eben BIS ZU 3 Bilder im Puffer hält. Wenn die Grafikkarte die Bilder los werden kann, dann wird der Buffer halt nicht ausgereizt und man hat entsprechend keine Verzögerung. So funktionieren nun mal Buffer, ansonsten wäre es auch kein Buffer ;)

Unter idealen Voraussetzungen wird es wohl so sein, dass Triple Buffer keinen erhöhten Inputlag verursacht. Nämlich immer dann, wenn die Grafikkarte nicht auf den Monitor warten muss. Aber ein Allheilmittel ist das definitiv nicht, sonst bräuchte es eigentlich auch kein adaptive Sync.

Ich korrigiere daher meine Aussage zu Triple Buffer, es KANN BIS ZU einem Bild die Latenz erhöhen (und dies steht in Abhängigkeit der FPS).
 
Was für eine Graka ist denn überhaupt verbaut und welcher Monitor wird genutzt?

Aus einem anderen Thread:
GPU: Geforce Gtx 970
Monitor: AOC C24G1 ( ist per HDMI an den PC angeschlossen

In diesem Fall könntest du dann nur Adaptiv oder Fast Sync mittels NVidia Treiber nutzen. Dazu einfach in den "3D Einstellungen" unter "Vertikale Synchronisierung" auf Adaptiv oder Schnell stellen.
 
Zuletzt bearbeitet:
Rache Klos schrieb:
Also ist es völlig unlogisch, dass es nicht zu einer erhöhten Latenz führen sollte. Das Ding nennt sich auch nicht ohne Grund Triple Buffer, weil er eben BIS ZU 3 Bilder im Puffer hält.
Es ist ist nur unlogisch, wenn man es mit vorgerenderten Bildern verwechselt. Triple-Buffering funktioniert genau wie Double-Buffering nur dass der Renderer nicht auf den Vsync warten muss, sondern sofort in einen dritten Puffer rendern kann. Damit ist die Latenz immer mindestens so gut wie Double-Buffering und besser, wenn der Renderer auf den Vsync warten müsste.
 
Zurück
Oben