Monitor auf 50Hz - VSync

faraday

Lt. Junior Grade
Registriert
Jan. 2010
Beiträge
480
Hallo liebe Gemeinde,
ich habe heute mal folgendes ausprobiert:
Via Windows-Einstellungen habe ich meinen Monitor auf 50Hz gebracht. Dann habe ich The Witcher 3 gestartet und die FPS bewegt sich dank VSync ebenfalls bei 50. Tatsächlich ohne Tearing. Im Zuge dessen konnte ich sogar noch die Details weiter hochdrehen.

Jetzt frage ich mich: Ist diese Einstellung sinnvoll oder gar empfehlenswert? Und warum finde ich dazu so wenig im Netz, wenn es denn tatsächlich funktionert?

Sollte das alles wirklich kein Problem sein: Kann man in Crimson ein Profil anlegen, das automatisch auf 50Hz schaltet, sobald bspw. The Witcher 3 gestartet wird?

Ich freue mich auf die Diskussion und liebe Grüße
fara
 
Sinnvoll deswegen, weil ich weniger FPS-Einbrüche zu verzeichnen habe und sogar noch die Details im Spiel hochdrehen kann. Diese Option schenkt mir sozusagen 10 FPS ohne Tearing.
 
das kapier ich jetzt nicht...

also VSync sorgt dafür, dass die graka maximal eine gewisse zahl an bildern pro sekunde ausgibt - eben so viele wie der monitor pro sekunde darstellen kann => fps-einbrüche sind dann höchstens deswegen nicht da, weil die eingebrochene fps-rate der vsync-fps-rate entspricht...das kann ja wohl kaum erstrebenswert sein, wenn die eingebrochene fps-rate so niedrig ist, dass sie stört...

oder hab ich da jetzt nen denkfehler?
 
Ich verstehe deinen Gedankengang ehrlich gesagt nicht.

Ich versuchs mal zu erklären, wie ich es verstehe. Bisher lief The Witcher 3 in 90% der Fälle auf 60 FPS via VSync - ganz selten gingen die FPS dann mal runter auf 55 FPS. Nun wird ja konstant auf 50 FPS geschnitten, die Grafikkarte liefert potenziell aber stets mehr FPS. Folglich gibt es keine bzw. weit weniger Einbrüche.

Selbst ohne dieses Argument, kommt noch die Tatsache hinzu, dass ich die Details hochschrauben konnte, ohne Tearing zu erzeugen, dh. ich immernoch ein flüssiges Bild bekomme.
 
Sinnvoll spielt sich alleine in Deinem Kontext ab. Wenn das für Dich vernünftig funktioniert, dann ist es wohl sinnvoll. Egal was wir dazu sagen^^
 
Ich hab das bei 2 unterschiedlichen Monitoren probiert, hat aber nie richtig funktioniert. Bei forcierten 50Hz Profilen ruckelt es, bzw V-Sync wollte weiterhin 60Hz ausliefern.
 
Mag sein. Mich irritiert dabei nur, dass ich dazu bisher nichts gefunden habe. Also scheint es da doch sicher einen Haken zu geben?
 
Es gibt keinen Haken. 60 Hz kann Dein Monitor eben maximal. Und wenn er bei 50 Hz wirklich 50 Hz wiedergibt und Du da kein Tearing zusammen mit VSync hast, dann nutze es einfach. Und wenn das Bild sonst nicht schlechter daher kommt, dann ist doch alles gut. Es werden noch nicht viele gemacht haben und noch weniger davon im Netz geschrieben haben.
 
Kannst du ein 50Hz Profil wählen, und ein Fenster sauber über den Windows Desktop schieben? Das scheitert schon bei mir.
Ergänzung ()

BlubbsDE schrieb:
Es gibt keinen Haken. 60 Hz kann Dein Monitor eben maximal. Und wenn er bei 50 Hz wirklich 50 Hz wiedergibt und Du da kein Tearing zusammen mit VSync hast, dann nutze es einfach. Und wenn das Bild sonst nicht schlechter daher kommt, dann ist doch alles gut. Es werden noch nicht viele gemacht haben und noch weniger davon im Netz geschrieben haben.

Da gibt es unzählige Haken, das ist nicht einfach so gemacht und funktioniert dann. Die Frage ist, ob es überhaupt funktioniert.
 
Nö, es gibt keinen wenn es funktioniert, außer das 50 halt weniger als 60 sind. Habe ich mit meinem HTPC am TV jahrelang so gehandhabt. Allein schon weil der intern mit 50Hz bzw. einem Vielfachem davon arbeitet.
 
faraday schrieb:
Ich verstehe deinen Gedankengang ehrlich gesagt nicht.

Ich versuchs mal zu erklären, wie ich es verstehe. Bisher lief The Witcher 3 in 90% der Fälle auf 60 FPS via VSync - ganz selten gingen die FPS dann mal runter auf 55 FPS. Nun wird ja konstant auf 50 FPS geschnitten, die Grafikkarte liefert potenziell aber stets mehr FPS. Folglich gibt es keine bzw. weit weniger Einbrüche.

Selbst ohne dieses Argument, kommt noch die Tatsache hinzu, dass ich die Details hochschrauben konnte, ohne Tearing zu erzeugen, dh. ich immernoch ein flüssiges Bild bekomme.

ahso, also stört dich der einbruch von 60 auf 55?

btw. tearing ist doch mit vsync eh kein thema, egal ob mit 50 oder 60 hz, oder?
 
Knito schrieb:
Da gibt es unzählige Haken, das ist nicht einfach so gemacht und funktioniert dann.

Die da wären? Es gäbe einen. Wenn der Monitor immer 60 Hz wiedergibt. Auch wenn er mit 50 angesprochen wird. Aber das sieht man dann wieder mit Tearing & Co. Welche sollten es noch geben?

Außer den Einbußen in der Darstellungsqualität. Die gerade auf dem Desktop bemerkbar sind. Durch das weniger an Bildern pro Sekunde. Aber das liegt in der Natur der Sache.
 
Zuletzt bearbeitet:
@ Knito: Ja, kann ich. Sogar ganz ohne Probleme.

@ Mickey Cohen: Es geht ja nicht (nur) um die Einbrüche. Es geht vor allem und ganz besonders um die erhöhten Details in Kombination mit einem flüssigen Spielerlebnis. 10 FPS "geschenkt" zu bekommen sind schonmal eine Ansage.

@ BlubbsDE: Genau, auf dem Desktop hätte ich auch gerne meine 60Hz, das merkt man tatsächlich schon beim Lesen: Es wird auf Dauer etwas anstrengend. Aber flüssiges Spielen trotz höheren Details hat schon was.
 
Zuletzt bearbeitet:
aber woher kommen die 10 fps mehr denn? ich glaub dir ja, dass es so ist, aber das muss doch irgend eine andere ursache haben? warum sollten sich durch vsync die minimum-fps erhöhen?
 
Naaah. Genau genommen sind es ja eben 10 FPS weniger, nur eben 10 FPS weniger ohne Tearing, da synchron mit 50 Hz Bildwiederholrate. Und 50 Hz sehen für das menschliche Auge eben immer noch flüssig aus.
 
Bei solchen Aussagen sollte man vorsichtig sein.

Kommt man von 80 FPS, werden einem die 50 FPS alles andere als flüssig vorkommen. Ist alles eine gewöhnungssache
Durch VSYNC hat man eine gewissen Verzögerung außer man hat nicht mehr FPS. Kannst es mit ruhigem Gewissen bei 50 Hz belassen.
 
Stell so ein das es für dich passt :D

Als ich noch 3DVision von NV benutzt habe hat mir 100Hz auch besser gefallen als 120Hz, mit der Brille selber und mit dem Monitor.
Ich hab dazu ne eigene Theorie die wohlmöglich sehr weit hergeholt ist und völlig falsch ^^
Nämlich das unser Stromnetz mit 50 Hz läuft und PAL früher auch 50 Hz hatte das Amerikanische Stromnetz hat 60Hz und NTSC auch 60Hz.
 
das halte ich in der tat für weit hergeholt, sowohl crts als auch tfts und gpus/dacs laufen mit gleichstrom ;) aber belehrt mich eines besseren...

ansonsten @te: heisst das, tearing tritt auf, wenn vsync zwar an ist, aber die graka weniger fps als die vsync-frequenz liefert? wär mir noch nie aufgefallen
 
@faraday: Meiner Erfahrung nach fühlen sich die meisten Engines bis hinunter zu 50-45 fps noch ganz okay an. Die Einstellung ergibt durchaus Sinn. G-Sync oder Freesync machen im Grunde mehrmals pro Minute das was du einmalig gemacht hast: die Aktualisierungsrate an die fps anpassen.

HisN schrieb:
Sinnvoll spielt sich alleine in Deinem Kontext ab. Wenn das für Dich vernünftig funktioniert, dann ist es wohl sinnvoll. Egal was wir dazu sagen^^

Sehe ich auch so. Wahrnehmung ist rein subjektiv und das ist viel zu individuell. Wenn er es als fluffig empfindet, dann ist es völlig legitim das einzusetzen.

LokiDKS schrieb:
Stell so ein das es für dich passt :D

Als ich noch 3DVision von NV benutzt habe hat mir 100Hz auch besser gefallen als 120Hz, mit der Brille selber und mit dem Monitor.
Ich hab dazu ne eigene Theorie die wohlmöglich sehr weit hergeholt ist und völlig falsch ^^
Nämlich das unser Stromnetz mit 50 Hz läuft und PAL früher auch 50 Hz hatte das Amerikanische Stromnetz hat 60Hz und NTSC auch 60Hz.

Hihi. :D Das ist lustig, aber hat nichts miteinander zu tun. Wenn ich mich richtig erinnere, "läuft" der Strom auf Pascal mit 2-3 MHz und auf CPUs mit um die 500 kHz (ist heutzutage ja alles digital einstellbar). Ein Taktgenerator zerhackt das dann eben in die Taktrate die benötigt und eingestellt ist. Das LVDS Signal auf einem DP 1.2 mit 540 MHz usw.
Meine Theorie: Dein Empfinden ist einfach durch Suggestion darauf eingegangen. Ich habe es damals mit 3D Vision aber nie probiert und kann nicht mitreden. ;)
 
Zurück
Oben