Es wird einfach viel zu viel durcheinander geworfen. Inklusive dem Artikel der G-Sync und FreeSync als "Technik" darstellt.
In Wahrheit ist das aber eine ganze Kette an Features. Wir brauchen Software-Support um das ganze mit dem Spiel/OS/Programm zu organisieren. Wir brauchen Treiber Support evtl. mit Heuristiken um zu entscheiden wie man etwas am besten mit dem Bildschirm darstellt. Man braucht ein Protokoll um das ganze zum Monitor zu kommunizieren und wie der Monitor überhaupt sagt was er kann. Es braucht Hardware und Software im Monitor um das ganze korrekt umzusetzen.
FreeSync und G-Sync sind VOR ALLEM Marketingbegriffe für die gesamte Kette wie ein Hersteller das geplant hat und evtl. zertifiziert.
Was für die Kompatibilität erstmal wichtig ist ist nur das Protokoll. Wenn GPU und Monitor eine Überlappung in unterstützten Protokollen haben, dann geht VRR. Und VRR ist erstmal nur das Prinzip einer Variablen Refresh Rate.
An Protokollen gibt es:
- G-Sync Proprietär. Ausgestorben. Aktuelle G-Sync Module können das noch. Aber nur für Kompatibilität mit Maxwell (900) oder älteren Nvidia GPUs die noch kein Adaptive Sync konnten
- FreeSync über HDMI. Proprietär. Von AMD ausgedacht, nicht öffentlich. Am aussterben, weil es parallel zu HDMI VRR ist, was erst wesentlich später kam.
- Vesa Adaptive Sync. Das Protokoll VRR über DP zu machen.
- Offen, für jedes Vesa Mitglied erhältlich.
- Kann NVidia seit 1000er / Pascal.
- Kann Intel seit 11th gen / Xe.
- Kann AMD seit Anfang von FreeSync.
- HDMI VRR. Das ganze vom HDMI Konsortium. Auch für HDMI Lizenznehmer nutzbar. Eingeführt mit HDMI 2.1.
- Kann NVidia seit 3000er / Ampere. Seit sie "HDMI 2.1" Ports haben.
- Kann AMD seit RX6000. Seit sie "HDMI 2.1" Ports haben. Allerdings zu beginn noch eingeschränkt. So dass die GPU Softwareseitig nur FreeSync HDMI mit Monitoren machen wollte.
G-Sync Module haben schon vor langer Zeit (mein AW3821DW konnte das schon. Alles was neuer ist sollte das mindestens auch können) Adaptive Sync und HDMI VRR. Trotz der limitierten HDMI Datenrate geht HDMI VRR mit G-Sync Modulen. Und weil die Adaptive Sync sprechen kann man alle Vorteile des G-Sync Moduls (Flicker und artefaktfreies VRR von 1-max HZ) nutzen mit jeder GPU die Adaptive Sync kann.
Nvidia bundelt seit Anfang an weitere Features mit in den Marketingbegriff. Meistens sind diese Features ganz klar im Monitor (wie variables Overdrive, HDR Farbkalibrierung) oder auf der GPU Seite wie GPU-seitiges Frame-doubling. Und die meisten Features sind nicht irgendwie eingesperrt. Variables Overdrive macht der Monitor einfach. Er muss nur über ein Protokoll das er versteht überhaupt VRR bekommen.
Seit der 1000er Reihe können Nvidia GPUs Adaptive Sync und seit 3000er auch HDMI VRR. Das einzige was die nicht können ist FreeSync HDMI.
AMD kann alles außer das alte G-Sync, das man überhaupt nicht mehr braucht.
In beiden Fällen wird von Reviewern das Protokoll oft nicht klar vom Marketing getrennt und es ist schwer zu sagen, ob ein "G-Sync" beworbener Monitor jetzt neu genug für HDMI VRR und Adaptive Sync ist oder ob ein "FreeSync" Monitor noch den alten FreeSync HDMI Mist nutzt.
Und dann gibt es auch ab und an wieder neue Features obendrauf wie die End-To-End Latenzmessung von Nvidia die eigentlich technisch mit VRR rein gar nichts zu tun hat und halt den Nvidia Treiber als Software und die passenden Gegenstücke im Monitor braucht (USB Snooping, Bild-Änderungen messen).
engineer123 schrieb:
Ist es jetzt immer noch proprietär?
Kann es immer noch nur von NV Grakas genutzt werden?
Seit Jahren können G-Sync Module im Monitor auch alles was offen ist.
JMP $FCE2 schrieb:
Der Grafikkartentreiber nutzt dann <48 fps Frame Doubling, was das G-Sync-Modul im Prinzip auch macht.
Das weiß man nicht exakt. Der Vorteil es im Monitor zu machen ist, der Monitor kann das selbst entscheiden und weiß am besten was als Flackern sichtbar wäre. Da kommen viele Probleme mit billo VRR Displays her. Das klassische VRR Flicker wenn die Refreshrate stark schwankt.
Auf der anderen Seite weiß die GPU eher ob das nächste Frame rechtzeitig fertig wird und kann damit evtl. einen Ticken schlauer reagieren. AMD hat mit der Variante angefangen, weil dann konnte man das meiste im Treiber machen. Und jetzt klappt es immer nur zusammen mit einem guten Monitor. Wie Nvidia angefangen hat wissen wir nicht exakt, weil wir beim proprietären G-Sync nicht wissen was auf der GPU gemacht wurde und was im Modul. Alle halbwegs modernen Module machen aber alles im Modul, weshalb sie genauso problemfrei auf Intel und AMD GPUs gehen.
blackiwid schrieb:
Ich soll also von nem Monitorhersteller nen Monitor kaufen wo Hardware die darin ist mich am hindern dieser Hardware nutzt wenn ich mich für ne AMD Grafikkarte entscheiden habe...
Schnittstellen sind das wichtige. Und die Kritik ist viel zu abgehangen, weil beide Hersteller auf offene Protokolle übergegangen sind und alles was neu kommt mit VRR hat keinen Grund etwas eigenes zu machen. Die ganzen Probleme kommen nicht vom Protokoll sondern von wie der Monitor gebaut ist und die GPU entscheidet. Was man kritisieren sollte, ist das beide Hersteller an ihren Zertifikaten festhalten und nicht sinnvoll dokumentieren, was die Protokolle sind die sie können. Die können die Zertifikate gerne haben. Hat ja auch einen Mehrwehrt. Aber das sollte obendrauf kommen auf "kann Standard XYZ".
Hier profitieren vermutlich beide Hersteller davon. Weil sie für die Zertifikate Geld bekommen können und die Kunden besser gebunden bleiben, weil sie
glauben proprietäre Hardware zu haben. Und man lügt ja nicht, wenn man das nur nicht klarstellt und möglichst viele Features bündelt ohne aufzuschlüsseln welche davon "proietär" sind und welche nicht.
edenjung schrieb:
Hmm nutzt Nvidia nicht bei ihren Laptops VRR? Vermarktet das aber als g-sync?
VRR ist nur die Kategorie, das Prinzip. Keine Technik und kein Protokoll. Das Protokoll war hier von Anfang an Adaptive Sync. Ohne Scaler hat die GPU hier schon länger direkte und mehr Kontrolle weshalb man keinen Scaler gebraucht hat, der das auch passend umsetzt.
Wechhe schrieb:
AMD hingegen hat es so implementiert, dass es über den offen verfügbaren HDMI/DisplayPort Standard klappt, der allen zur Verfügung steht.
Wie oben erwähnt, nur Teilweise. FreeSync HDMI wird dabei gerne unterschlagen und ist nicht weniger proprietär als das alte G-Sync. Und scheint den Problemberichten mit so manchen TVs als HDMI 2.1 neu war durchaus noch mehr Relevanz zu haben. Auch weil AMD eine Generation länger gebraucht hatte um HDMI VRR zu können. Und hat noch länger an ihrem propriäterem Protokoll festgehalten.
Und dann noch der HDR Kram dazu. Ich habe noch nicht klar herausgefunden wie sinnvoll das war (also ob klarer Vorteil für das Ergebnis oder nur Hack um es für sich einfacher zu machen). So oder so stirbt es aus, HDMI VRR macht das ganz normal mit sauberer Trennung.
blackiwid schrieb:
Wenn Gsync und Freesync zu absolut identischen Ergebnissen führt wozu ist es dann drin?
Beides sind nur Zertifikate die dir Mindestgarantien geben wenn du die gesamte Kette zertifiziert hast. Es gibt unterschiedliche Niveaus.
Und weiterhin, die Features aus den Zertifikaten die ausschließlich im Monitor sind (die meisten was die Ausgabe angeht), gehen auch mit allen anderen GPUs genauso. Da Nvidia mit ihren Modulen 95% im Monitor gemacht haben, eben auch entsprechend problemfrei.
Während der klassische nicht-Nvidia Weg eine Kombination erfordert. Der Monitor kann nur bis zu zB 48Hz runter und der GPU Treiber muss Frames verdoppeln um das einzuhalten. Und der GPU Treiber muss raten, ob diese 48Hz eine Grenze sind, bei der der Monitor kein Flackern hat oder schon deutlich sichtbar ist und die GPU eigentlich schon bei 70Hz anfangen sollte zu verdoppeln.
Die verschiedenen Hersteller haben unterschiedliche Policies wann sie verdoppeln. So kommt es dann das ein Monitorhersteller den Monitor nur mit einer GPU testet die Frames immer nach einem gewissen Schema verdoppelt. Und die andere GPU verhält sich anders und der Hersteller hat nicht getestet, dass der Monitor dann spinnt und flackert zB.
Bei Intel zB kann man auswählen, ob die Frames verdoppelt werden sollen, wann auch immer es geht oder nur wenn es notwendig ist. Hat beides vor und Nachteile und manche Monitore können das eine, manche das andere besser (G-Sync Modulen ist es egal).
Und gerade mit den Zertifikatsprogrammen ist es auch gut möglich, dass die GPU Treiber intern Profile haben, wie sie mit bestimmten zertifizierten Monitoren umgehen für das beste Ergebnis. Die offiziellen Daten die ein Monitor hergibt sind jedenfalls in Adaptive Sync und HDMI VRR sehr spärlich. Die untere Refreshrate Grenze ist dort eine harte Grenze. Und alles bis dahin hat einwandfrei zu gehen, sonst lügt der Monitor.