Daedal schrieb:
Wie kann ein freier VESA-Standard für DP mit dem von dir geschriebenen in der selben Realität existieren? Fragt sich wo der Irrglaube vorhanden ist. Was du schreibst widerspricht existierenden Fakten. AdaptiveSync ist ein freier VESA-Standard - heute schon, das muss auch nicht erst irgendwann geschehen - und Freesync wird es gar nicht mehr weiter geben als Markenname vermute ich anhand der Verlautbarung der VESA.
Und genau das ist der weit verbreitete Irrtum.
Adaptive Sync und FreeSync sind
nicht zwei Namen für ein und die selbe Sache.
Adaptive Sync ist ein VESA-Standard, das stimmt. Aber FreeSync ist etwas ganz anderes. Adaptive Sync wird von FreeSync zur "Kommunikation" mit dem Display genutzt, aber die eigentliche Technologie, mit der die Refreshrate des Displays in Spielen dynamisch mit der gerade aktuellen Framerate der GPU synchronisiert wird, ist eine in der GPU-Hardware und den Grafiktreibern von AMD implementierte, propritäre Technologie. AMD selbst sprach von ihrer "secret sauce", in die sie über Jahre sehr viel Entwicklungsaufwand gesteckt haben.
Adaptive Sync allein tut erstmal gar nichts. Es ermöglicht es, ein zusätzliches Kommando an das Display zu überrtagen, aber dieses Kommando muss auch erstmal sinnvoll genutzt werden. Es kommt komplett auf die GPU und den Treiber an, ob und wofür es genutzt werden kann.
Ältere, noch nicht FreeSync-fähige AMD-GPUs, werden Adaptive Sync z.B. zur Anpassung der Display-Refreshrate bei Videos nutzen. Nicht aber zur hoch dynamsichen Synchronisierung in Spielen.
Und der ursprüngliche Anwendungsfalls von Adaptive Sync, das es in Notebookdisplays schon länger gibt, ist einfach nur zwecks Stromsparen in Idle die Refreshrate zu reduzieren.
Der wesentliche Unterschied zwischen FreeSync und G-Sync ist letztlich, dass AMD es geschafft hat, die gesamte propritäre Technik auf der "Grafikkarten-Seite" des Displayport-Kabels zu bündeln. Dafür war allerdings erstmal eine Erweiterung des bis dahin bestehenden DisplayPort-Standards nötig.
Nvidas Ansatz war anders. Die haben den bis dahin bestehenden DP-Standard als gegeben angenommen und eine Sync-Technologie entwickelt, die mit normalem DP arbeitet, aber sich zwischen GPU-Seite und Display-Seite aufteilt. Das hat den Nachteil, dass G-Sync nur mit einer Kombination aus G-Sync-fähiger Grafikkarte und G-Sync-Monitor funktioniert.
Der Vorteil war aber, dass Nvidia nicht erst warten musste, bis ein neuer DP-Standard definiert ist und dann entsprechende Monitore auf dem Markt sind, sondern in Kooperation mit Monitorherstellern direkt loslegen konnte. Deshalb ist G-Sync schon länger eine existierende und funktionierende Technologie, während FreeSync mangels kompatibler Monitoren noch auf sich warten lässt.
Zudem hat Nvidia ja schon im Mai gesagt, dass sie jeglichen Industriestandard unterstützen als es in den DP aufgenommen wurde, gaben allerdings zu bedenken, dass sich nicht jeder Standard durchsetzt. Ok stimmt ja. Nur dieser Sync Standard hat ja nicht die Aufgabe sich weiter zu verbreiten als GSync, sondern die Marktsegmentierung zu beenden die geplant war.
Ich fürchte, die Segmentierung wird es so oder so geben. Wie gesagt, wäre es nicht einfach nur eine "politische" Entscheidung, ob Nvidia (oder Intel) Adaptive Sync für die Synchronisation in Spielen nutzt oder nicht. Eine entsprechende Technologie müsste erstmal komplett neu entwickelt und in zukünftigen GPUs und Treibern umgesetzt werden. AMD wird dabei nicht helfen wollen oder können. Selbst wenn sie alle Details über ihr FreeSync (Hardware und Software) offenlegen würden, würde das den anderen wenig nutzen, denn es ist ja in AMDs GPUs und Treibern eingebunden, die ganz anders aufgebaut sind und funktionieren, als die von Nvidia oder auch Intel.
Jeder, der eine monitorseitig zu AMDs FreeSync kompatible Lösung entwickeln will, muss erstmal praktisch bei Null neu anfangen.
Mir ist ehrlich gesagt auch nicht klar wie man sich als Nvidia Käufer wünschen kann, dass eine Funktion die 135,- € Aufpreis kostet, meine Monitorwahl un Anschlußwahl einschränkt und zudem den Stromverbrauch steigert nicht ersetzt wird durch eine kostenlose Lösung die auf allen Monitoren läuft und keinen zusätzlichen Strom verbraucht sondern auch noch spart, wie beim eDP. Durch das zufügen des zusätzlichen GSync Moduls entfallen diese Verbrauchsvorteile.
Die derzeitigen hohen Kosten und Stromverbrauch des G-Sync-Moduls ergeben sich aus der (noch) kleinen Stückzahl und dass es immer noch als FPGA umgesetzt ist. Das ist quasi noch Prototypen-Technik, die Nvidia da einsetzt. Nicht für den Massenmarkt optimierte, dedizierte Serienhardware.
Und tatsächlich war das bisher auch gar nicht anders möglich. Die ersten verkauften G-Sync-Module funktionierten zwar weitgehend, waren aber im Prinzip noch Beta-Hardware, die seit dem ständig weiter optimiert werden musste. Die frei programmierbaren FPGAs machten das möglich.
Auf Dauer wird aber garantiert dedizierte Hardware genutzt werden, die viel billiger und auch sparsamer ist. Vorausgesetzt, die Nachfrage nach den entsprechenden Monitoren ist groß genug, dass sich das lohnt.
Vor allem wird hier etwas gelöst, das die meisten gar nicht als Problem wahrnehmen, daher existiert auch diese Kaufdruck überhaupt nicht dafür mehr bezahlen zu müssen.
Das sehe ich auch als größeres Problem, und zwar für beide. Die Vorzüge dieser Synchronisations-Features lassen sich sehr viel schwieriger darstellen, als z.B. hohe durchschnittliche Frameraten. Es ist etwas ähnlich, wie beim Thema Microruckler, für das sich auch erstmal ein Problembewusstsein entwickeln musste.
Es gibt eine relativ kleine Gruppe von anspruchsvollen Gamern, die auch auf sowas achten und die Review-Websites geben sich heutzutage auch wesentlich mehr Mühe, solche über reine Framezahlen hinaus gehenden Problematiken anzusprechen. Aber wie gesagt, das lässt sich nur nur sehr schwer messen, sondern auch nicht mal eben mit einem simplen Balkendiagramm darstellen und damit ist es nicht wirklich fassbar für alle, die sich nicht tiefer mit der Theorie beschäftigen wollen/können und auch nicht die Gelegenheit haben, es sich einmal selbst anzuschauen.
Und obendrein wird es auch noch Menschen geben, die selbst im direkten Vergleich nichts merken werden. Jeder Mensch nimmt so etwas anders wahr. Ist das selbe bei >60FPS oder mehr doer weniger flimmender PWM-Hintergrundbeleuchtung usw. Manche bekommen sofort Augenkrebs, andere bemerken gar nichts davon.
Welcher Monitor-Hersteller sieht hier noch einen Grund zu Nvidias teurem Scaler zu greifen?
Es gibt da draußen um einiges mehr Nvidia-Grafikkarten, als welche von AMD. (Und beide werden von Intel in den Schatten gestellt.)
G-Sync ist ein Feature, mit dem man Nvidia-Kunden ansprechen kann. Von einem Adaptive-Sync-Monitor haben die gar nichts und das wird wie gesagt auch dann noch jahrelang so bleiben, selbst wenn Nvidia sich entschließen sollte, G-Sync einzustampfen und auf Adaptive-Sync aufsetzend nochmal neu anzufangen.
Man will die Marktanteile ja nicht dauerhaft verlieren wenn Monitor-Käüfer versucht werden an einen Hersteller gebunden zu werden.
Darüber sollte jeder Nvidia GPU-Käufer froh sein. Leider werden sie es wohl nie zu schätzen wissen, weil AMD in den News immer mit erwähnt wird.
Wie gesagt, davon, dass Adaptive Sync ein freier Standard ist, hat man solange überhaupt nichts, wie AMD der einzige ist, der ein darauf aufbauendes Sync-Feature nutzt. Es gibt also so oder so eine Bindung an einen einzelnen GPU-Hersteller. Egal ob im Monitor G-Sync oder Adaptive-Sync eingesetzt wird. Der Monitorhersteller hat also, wie der Kunde, die Wahl, ob er dabei auf AMD oder Nvidia setzen will.
Ein denkbarer Ausweg wäre, wenn Monitore beides gleichzeitig unterstützen würden. Da kommt es dann darauf an, wie viel Druck die Monitorhersteller auf Nvidia ausüben können, damit deren propritärer G-Sync-Scaler auch zusätzlich Adaptive-Sync unterstützt. Da es wie gesagt ein freier Standard ist, wäre das grundsätzlich kein Problem, nur wäre es direkt erstmal nicht in Nvidias Interesse, denn damit helfen sie ja (scheinbar) nur ihrem Konkurrenten.
Wenn die Alternative aber so aussieht, dass die Monitorhersteller sagen: "Entweder so oder gar keine G-Sync-Unterstützung", dann könnte Nvidia sich dazu gezwungen sehen. Letztlich haben sie auch ein Inetresse daran, dass sich G-Sync-kompatible Monitore möglichst weit verbreiten. Wenn der Preis dafür ist, dass daneben auch AMDs Konkurrenzfeature unterstützt wird, ist das eine Kröte, die Nvidia schlucken müsste.