pcper hat ein interessantes Video zu Freesync/G-Sync gemacht
https://www.youtube.com/watch?v=VkrJU5d2RfA
NVidias G-Sync scheint also schon ab ~36 fps die Frames zu verdoppeln und der BenQ XL2730Z (nehm ich mal an) geht bis ~37 fps/Hz runter.
Unter diesen Grenzen verdoppelt G-Sync den Frame was zu einem stotterfreiem Bild führt, Freesync hingegen bleibt bei der minimalen ~37Hz trotz V-Sync aus! Dadurch scheint das Bild sowohl zu stottern als auch zu reißen.
pcper mag die G-Sync Lösung mehr.
Ich denke bei 120+Hz Monitoren ist die G-Sync Lösung im Vorteil, bei 60 Hz Monitoren könnte Freesync etwas besser sein.
Denn der Monitor kann nicht wissen wann das nächste Bild von der GPU kommt und sobald der Monitor das alte Bild ein weiteres mal anzeigt braucht er mindestens 1/"Maximale Refreshrate" Sekunden um ein neues anzeigen zu können.
Wenn also ein neuer Frame nach 1/35 Sekunden kommt und ein 60Hz G-Sync Monitor bereits ein neues Bild nach 1/36 Sekunden dargestellt hat braucht dieser mindestens 1/60 Sekunden um das neue Bild der GPU darstellen zu können.
Bei 120+Hz Monitoren ist die Verzögerung so klein, dass es zu keinen großen verzögerungen kommen sollte.
NVidia scheint das aber wie im Video zu sehen auch ganz gut gelöst zu haben... Also generell stelle ich mir die Frage wann entscheidet sich der Monitor dazu bei G-Sync den Frame doppelt anzuzeigen?
Die Freesync Methode scheint jedoch generell ein paar Probleme im unteren Bereich zu haben (deswegen könnte sie auch nur besser sein).
https://www.youtube.com/watch?v=VkrJU5d2RfA
NVidias G-Sync scheint also schon ab ~36 fps die Frames zu verdoppeln und der BenQ XL2730Z (nehm ich mal an) geht bis ~37 fps/Hz runter.
Unter diesen Grenzen verdoppelt G-Sync den Frame was zu einem stotterfreiem Bild führt, Freesync hingegen bleibt bei der minimalen ~37Hz trotz V-Sync aus! Dadurch scheint das Bild sowohl zu stottern als auch zu reißen.
pcper mag die G-Sync Lösung mehr.
Ich denke bei 120+Hz Monitoren ist die G-Sync Lösung im Vorteil, bei 60 Hz Monitoren könnte Freesync etwas besser sein.
Denn der Monitor kann nicht wissen wann das nächste Bild von der GPU kommt und sobald der Monitor das alte Bild ein weiteres mal anzeigt braucht er mindestens 1/"Maximale Refreshrate" Sekunden um ein neues anzeigen zu können.
Wenn also ein neuer Frame nach 1/35 Sekunden kommt und ein 60Hz G-Sync Monitor bereits ein neues Bild nach 1/36 Sekunden dargestellt hat braucht dieser mindestens 1/60 Sekunden um das neue Bild der GPU darstellen zu können.
Bei 120+Hz Monitoren ist die Verzögerung so klein, dass es zu keinen großen verzögerungen kommen sollte.
NVidia scheint das aber wie im Video zu sehen auch ganz gut gelöst zu haben... Also generell stelle ich mir die Frage wann entscheidet sich der Monitor dazu bei G-Sync den Frame doppelt anzuzeigen?
Die Freesync Methode scheint jedoch generell ein paar Probleme im unteren Bereich zu haben (deswegen könnte sie auch nur besser sein).
Zuletzt bearbeitet: