@Dark-Silent: Könntest du das ausführen? Ich bin mir zwar ziemlich sicher, aber wenn du es besser weißt lass ich mich gerne überzeugen.
Ich versuche noch einmal deutlich zu forumulieren was ich aussagen will und bitte dich mir zu erklären wo ich dabei falsch liegen soll.
Das Ziel ist, ein berechnetes Bild sofort anzuzeigen, da unser Gehirn bei einer Animation veraltete Informationen nicht mag(, was auch der Grund für Techniken wie ULMB ist). Bei einer festen Refresh Rate des Bildschirms und einer variierenden Frametime des Spiels, was nunmal normal ist, bestimmt also die Refresh Rate des Bildschirms den maximalen zeitlichen Fehler. Je höher die RefreshRate, desto schneller kann das neuste Bild angezeigt werden. GSync habe ich als Analogie genannt, da hier ebenfalls das Ziel ist, das neuste Bild schnellstmöglich anzuzeigen. Wenn der Sync Mechanismus latenzfrei funktionieren würde, was natürlich nicht der Fall ist, wäre Gsync in dieser Hinsicht vergleichbar mit einem Bildschirm mit einer unendlich hohen Refreshrate. Ab einer gewissen Frequenz wird es unsinnig noch GSync einzusetzen, da der maximale Zeitfehler klein genug ist um nicht mehr wahrgenommen zu werden. Wo diese Grenze liegt weiß ich aber nicht.
Wegen der Treibertroll Geschichte: Das AMD da schlechter ist mag evtl wirklich nicht mehr up to date sein, vor wenigen Jahren war es aber noch so, das mir in vielen Frametime Diagrammen in Testberichten aufgefallen ist, dass NVidia gleichmäßigere Frametimes hat. Allerdings hat sich das mit starken CPUs nicht dramatisch unterschieden, es wurde mehr bei schwachen CPUs sichtbar, so AMD bekannterweise ja schlechter Performt hat als NVidia. Kann also gut sein das ich hier falsch lag, das sollte aber den Rest meines Posts nicht beeinflussen.
Edit: Ich hab nochmal nach Spieletests mit Frametime Diagrammen gesucht und scheinbar ist NVidia hier immer noch besser:
https://www.guru3d.com/articles-pages/fallout-4-pc-graphics-performance-benchmark-review,6.html