Wolfgang schrieb:
Wenn FreeSync etc. funktioniert, ist der Input-Lag minimal höher als ohne V-Sync. Aber ich bezweifle, dass man das wirklich spürt.
Eine Messung wäre aber nicht schlecht gewesen. Ich weiß, dass dies immer nicht ganz leicht ist, aber ich hoffe mal, dass ihr einen Test nachholt, wenn es mal vergleichbare Freesync und GSync Monitore auf dem Markt gibt.
Dann wäre es eigentlich am einfachsten und sinnvollsten den kompletten Lag vom Druck einer Maustaste bishin zum Anzeigen des geänderten Bildes zu messen. Ein einfaches Abfilmen würde im simpelsten Fall schon reichen. Etwas besser wäre, wenn man den Druck der Maus noch durch eine LED kenntlich macht. PS2 Anschluss wäre natürlich optimal. Naja. Es ist glaube ich klar, was ich meine.
Dann wüsste man jedenfalls welche Auswirkungen FreeSync und GSync auf den Gesamt-Lag haben. Nicht unbedingt im Vergleich zueinander, sondern vielmehr im Vergleich zu VSync On und VSync Off.
Also ich finde, dass so ein Test schon dazu gehört, da sich diese Sync-Techniken ja gerade an Gamer richten und damit werben Lags zu reduzieren. Für mich ist das der Hauptgrund so einen Monitor zu kaufen.
FreezR schrieb:
-AMD sagt, FS könnte bis runter zu 9 Hz arbeiten.
Fragt sich natürlich nur, wie sinnvoll das ist ein Spiel mit 9 fps zu spielen.
-AMD sagt auch, dass es unter 40Hz zu einem Flackern kommen kann. Bis jetzt habe ich noch nirgends gelesen, dass Gsync dieses Problem zu 100% nicht hätte.
Das Problem existiert grundsätzlich. Die Panels müssen regelmäßig neu refresht werden um ihre neuen Farbwerte zu erhalten. Kommt dieser Refresh nicht, dann verblassen die alten Farben immer weiter und das Panel ist irgendwann komplett weiß.
Die Panels gehen also für gewöhnlich davon aus 60 mal pro Sekunde ein Refresh zu bekommen, da sie normalerweise immer mit vollen 60 Hz arbeiten.
Jetzt kommt aber das Problem mit den Sync-Techniken. Der refresh kommt nicht mehr 60 mal pro Sekunde, sondern teilweise nur noch 30 mal pro Sekunde. Das ist für das Panel viel zu wenig und in der Zeit fangen die Pixel schon langsam an zu verblassen. Wenn dann der nächste Refresh kommt erhalten sie wieder ihre korrekten Farbwerte und der ständige Wechsel zwischen verblassten Pixel und korrekten Farben wird als flimmern wahrgenommen.
Ich nehme an, dass AMD absichtlich den Minimalwert auf 40 Hz gesetzt hat um ein zu starkes Flimmern zu vermeiden. Alles darunter hat ihren Qualitätsansprüchen wohl nicht mehr genügt.
Bei nVidia ist das etwas anders. Dort liegt das Minimum bei 30 Hz. Ich weiß nicht, ob deren Qualitätsansprüche einfach nur geringer sind oder ob die ihre Panelhersteller sorgfältiger auswählen, aber fest steht, dass die Frameraten bis hinab zu 30 fps erlauben.
Jetzt kommt aber noch hinzu, dass GSync eigentlich sogar noch darunter funktioniert indem nVidia künstliche Refreshes durchführt, selbst wenn kein neues Bild vorliegt.
Das zuletzt gepufferte Bild wird bei GSync einfach nochmal alle 33 ms aufgefrischt.
Es ist aber in der Tat so, dass nVidia aufgrund des GSync Moduls mehr Möglichkeiten zur Verfügung stehen etwas gegen das Flackern zu unternehmen als AMD.
Und verteidigt obendrein noch eine proprietäre Technik, die sofern sie sich durchsetzt, zu Ungunsten aller Konsumenten geht. Oder gibt es hier tatsächlich Leute, die sich mit der Wahl ihrer Graka / ihres Monitors gerne aufgrund der jeweils anderen Komponente von vornherein festlegen möchten? Ich definitiv nicht, eine Monitor sollte weiterhin universell sein.
Naja. Das ist wie damals mit H264. Das ist auch ein proprietärer Codec für den teilweise Lizenzgebühren fällig werden, aber ich finde ihn auch tausend mal besser als WebM und bin froh, dass die Browserhersteller endlich eingesehen haben H264 doch unterstützen zu müssen.
Was zu Gunsten und Ungunsten der Konsumenten ist, ist immer relativ. H264 ist einfach besser als WebM und genau so sehe ich das auch bei GSync vs. AdaptiveSync.
Ich nehme lieber die Technik, die mir die meisten Vorteile bietet und zahle dafür auch gerne einen Aufpreis.
Das ist meine Einstellung zu der Sache.
Daedal schrieb:
Diese halbgare Marktsituation ist eindeutig von Nvidia verursacht worden, die eben nicht warten wollten bis die Technik auch bei den Monitorherstellern gereift ist um daraus Nutzen zu ziehen ohne auf schon bestehende Features verzichten zu müssen.
Hä? Wie bitte? Ohne nVidia wäre gar keine auf die Idee gekommen so etwas zu versuchen.
Wenn AMD Vorstöße macht und Dinge wie Mantle entwickelt, dann ist das innovativ, aber wenn nVidia etwas entwickelt und es auf den Markt bringt, dann waren die zu ungeduldig bis jemand anderes auf die Idee gekommen wäre? Das ist ja eine interessante Sicht der Dinge.