Justin's schrieb:
Hm, ein 35fps-Spiel auf einem 144hz Monitor resultiert in Stottern und Wabbern, Tearing setzt erst ein, wenn die FPS höher als die Hz sind!
Falsch. Tearing entsteht IMMER, wenn kein Vsync genutzt wird.
Ist auch absolut offensichtlich, wenn du wüsstest, was tearing eigentlich ist, bzw. wie es entsteht.
Egal mit wie vielen FPS man spielt. Die Grafikkarte schickt die Bilder an den Monitor, wenn die Bilder "fertig" sind. Ungeachtet dessen, wann der Monitor den nächsten Refresh hat. Selbst bei 2 FPS kanns theoretisch sein, dass Bild 1 schon am Monitor angezeigt wird und Bild 2 genau in einem Moment rausgeschickt wird, wenn der Monitor grade nen Refresh macht. Folglich wird das2. Bild nur halb oder zu nem Teil angezeigt und erst beim nächsten Refresh vollständig abgebildet.
Es heist ja auch V
SYNC Die Vertikalfrequenz von 60, oder 120/144 Hz des Monitors wird mit der Bildausgabe der Grafikkarte SYNCHRONISIERT, damit immer nur vollständige Bilder beim Monitor ankommen und er sie auch so anzeigen kann. Die Bildausgabe wird mit dem Refreshraster des Monitors synchronisiert.
Folglich sieht man ohne Vsync auch mit 20 oder 30 FPS deutliches tearing, da keinerlei Synchronisation besteht. Das ist eigentlich besonders schlimm, wenn nichtmal die wenigen FPS anständig/vollständig angezeigt werden. Mit höheren FPS wirds eher weniger sichtbar, da der Monitor einfach mit Frames überflutet wird. Bei 200-300 FPS ist Tearing fast kein Thema mehr, da nicht mehr sichtbar.
khf-pred schrieb:
This!
Dazu muss ich sagen, dass ich ad hoc die letzten Jahre ansich nur Titel gespielt habe, die eben auch Triple Buffer + VSync unterstützt haben.
Von daher ist es zwar schön, dass NV da am "rumbasteln" ist, aber für mich & mein ebenfalls in die Jahre gekommenes TN-Panel ziemlich unbedeutend.
Aber mich wunderts nicht. Stichworte wie "Inputlag", "Gaming-Netzwerkkarte K1LL0R xyz" & Co machen ja die Runde ... dabei können die meisten Anwender offensichtlich mit Ping, der Anzahl der Millisekunden und der Einheit & Einordnung dessen offenbar wenig anfangen (Reaktionen des Menschen sind häufigst viel wesentlicher).
Versteht mich nicht falsch: wenn etwas optisch deutlich erkennbar & störend ist: klar, kann ich nachvollziehen und sowas nervt mich auch total.
Aber mit VSync & Triple Buffer ist man häufig schon gut bedient.
G-Sync ist dazu da, die Probleme von Vsync + Tripple Buffering zu lösen, da hiermit zwar Tearing verschwindet, die FPS aber trotzdem immer leicht verzögert werden müssen oder Frames ausgelassen werden, damit die Bilder ins Refresh raster des Monitors passen.
Von Vsync ohne Tripple buffering (wo mit sich dann die FPS halbieren, wenn man nicht so viele FPS wie die Hz zahl schafft) spricht doch kein Mensch mehr. Das ist ein völlig veralteter Hut.
G-Sync geht das Problem an, indem die Refreshrate des Monitors kein festes Raster mehr besitzt, worauf sich das Vsync+TB ausrichten muss sondern es wird einfach dann aktualisiert, wenn ein Frame am Monitor ankommt. Fertig. Damit gibts keine Verzögerten oder Dropped Frames mehr, die bei Vsync+TB technisch bedingt auftreten müssen.
Praktisch ist der Unterschied nicht sehr groß, aber trotzdem sehr relevant, da plötzlich auch niedrigere FPS flüssiger erscheinen als zuvor. Im Grunde wird durch den dynamischen Refresh ALLES flüssiger. Egal ob 0 oder 120 FPS. Da die Frametimes einer Grafikkarte naturgemäß nunmal variieren. Nicht jedes Bild ist gleich aufwändig zu berechnen. G-Sync veranlasst den Monitor sich an diese Gegebenheit anzupassen, indem genau dann ein Refresh stattfindet, wenn ein neues Bild ankommt. Kein festes Zeitraster mehr!