Wie kommst du auf 26 ms?
1000ms/60 = 16,6 ms
1000ms/50 = 20 ms
Im Endeffekt ist es völlig egal. Um den Prozentwert den die FPS fallen, steigen die Frametimes. Zumindest wenn man die Sync Problematik außen vor lässt.
Berücksichtigt man, dass bei einem 60 Hz Panel nur 30 oder 60 FPS bzw. einfache oder doppelte Frames möglich sind, hat man bei 50 Hz pro Sekunde viele Frames mit einer Framtime von 16,6 ms und einen kleineren Anteil an Frames mit einer Frametime äquivalent zu 30 FPS, also (1000/30) 33,3 ms.
Bei 45 FPS wäre dann der Anteil von einfachen und doppelten Frames im Verhältnis 1:1. Also 50% der Frames mit 16,6 ms und die anderen 50% mit 33,3 ms, macht eben innerhalb von 1000ms 45 Frames.
Das Microruckeln kommt eben durch das pausenlose alternieren zwischen 16,6 ms und 33,3 ms. um einen Zwischenwert zwischen 30 und 60 FPS abbilden zu können.
Visualisiert würde das aussehen wie ein Rechtecksignal.
Gäbe es diese Sync Problematik nicht, würde man zwischen 50 und 60 FPS nur sehr wenig Unterschied sehen. 60 FPS sind eben um 20% besser als 50 FPS. Mit Gsync ist das genau so der Fall.
Ohne Gsync kannste 50 FPS eben in die Tonne treten, weil die Framtimes ständig zwischen 16,6 und 33,3 ms wechseln müssen, um im durchschnitt auf 50 Bilder zu kommen.
Wers sich nicht vorstellen kann. Einfach nen Zeitstrahl mit 1000 ms vorstellen, bei dem du alle 16,6 ms einen Frame setzen darfst. Das ergibt 60 freie Positionen. Du hast 45 oder 50 Frames zur Verfügung und versuchst sie möglichst gleichmäßig auf das 16,6 ms Raster bzw. auf die 60 Positionen aufzuteilen. Das geht eben nur, wenn du immer wieder lücken im Zeitstrahl lässt.
Bei 30 Frames wird eben jede zweite Position besetzt, bei 60 Frames jede Position und bei allem anderen haste eben ein Problem.