News G-Sync-Kompatibilität: Nvidia begründet die Durchfallquote von 95 Prozent

So als insider eigentlich darf ich nicht sagen hoffe ich bekomme keine Probleme, also Freesync wurde dafür gemacht die schlechten Frametimes anzufangen, genau hier ist dass Problem NV Karten haben zwar gerne mehr FPS max, aber die Frametimes sind meist schlechter als bei AMD,. Deshalb denke ich hat NV hier die Probleme bei GSync hat man ein extra Modul was teuer ist und dies bewältigen muss.

Genau deswegen sind ja Konsolen Games so schwer umzusetzen da muss 30 oder 60 FPS dass Ziel sein. Sonst hast du schnell Probleme mit der Flüssigkeit des Games siehe Zelda BotW erst mit 3 Patches und dem neuen Boost richtig klasse.

Wie gesagt AMD ist halt auf Adaptivsync gut ausgelegt sind ja Teil von VESA. 😉
 
kisser schrieb:
Was soll man denn mit einer Sync-Range von 40-60Hz oder 48-75Hz anfangen? Dadurch wird das Spiel-Erlebnis garantiert nicht besser.

Letzteres finde ich mit FPS-limit garnicht so verkehrt, wenn man eher auf die min. FPS begrenzt und dann durchgänging smoothe ~70fps ohne tearing und (V-Sync)inputlag hat.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
atb2006 schrieb:
SLI hat nie richtig funktioniert, aber extrem Werbung dafür gemacht . Raytracing läuft kaum und dann noch G Sync was überhaupt kein Sinn macht .

Doch zu Voodoo Zeiten hat Sli Klasse funktioniert sogar ohne Mikro Ruckeln.
 
  • Gefällt mir
Reaktionen: atb2006
Mcr-King schrieb:
Doch zu Voodoo Zeiten hat Sli Klasse funktioniert sogar ohne Mikro Ruckeln.

Ja eben zu 3DFX aber über die 19 Jahre hinweg nicht mit der NVIDIA .
Früher hat man eine Auswahl gehabt an Grafikkarten Hersteller heute bist du auf 2 beschränkt!
 
Also flackern tut ein gsync Monitor auch. Zumindest im ladebildschirm. Das hatte ich auch anfangs mit freesync und amd. Das hat amd aber stand heute behoben. Nvidia nicht.
 
Baal Netbeck schrieb:
Und auch wenn die Freesync Funktion bei unzureichender Range nicht wirklich brauchtbar funktioniert, so bekomme ich sie halt schon in einem 120€ Billig Monitor....

Selbst eine lumpige Range von 48-60hz ist besser als keine. Drunter und drüber greift Vsync mit triple buffering. So hat der Käufer eines low budget Display zumindest in der Sync Range weder Lag noch Tearing.

Das Displays, welche an Radeons problemlos funktionieren mit Geforce Karten rumzicken ist schon frech.

Nvidia macht Gsync Compatible auf diesem Weg zu einem Anti Feature um weiterhin an den Displays mit dem Gsync Modul etwas mitzuverdienen.
 
  • Gefällt mir
Reaktionen: JackTheRippchen und Mcr-King
atb2006 schrieb:
Ja eben zu 3DFX aber über die 19 Jahre hinweg nicht mit der NVIDIA .
Früher hat man eine Auswahl gehabt an Grafikkarten Hersteller heute bist du auf 2 beschränkt!

Ja schon Matrox, Kryo alles hammer Karten und Sli hat funktioniert weil es anders aufgebaut war. Auch gab es ewig ein Problem mit GSync und Fenster Modus ist dass eigentlich endlich mal behoben worden.

Naja wie dem Auch sei ich weiß aus guten Quellen der VESA Gruppe dass Adaptivsync keine Beschrenkung hat.

Genau hier ist das Problem AMD ist für viele Ranges Optimiert NV nicht genau deswegen die Frametimes.

Einfach viel Herz und dass Problem ist sowieso weck nur bei der RTX2060 hast du ein Problem RTX mit 140 FPS never. 😉
 
kisser schrieb:
Nur "Adaptive-Sync" als Label draufzuklatschen auf Monitore, die absolut untauglich sind, einen Vorteil für den Nutzer zu bieten, reicht eben nicht!
Adaptive Sync ist eine Technologie, keine Marke. Nur weil ein Bildschirm IPS hat ist er noch lange nicht gut, den Farbraum decken ja alle anders ab, so wie der Sync-Bereich unterschiedlich abgedeckt wird.
Es ist eine Eigenschaft, die das Feature aktiviert, wie es implementiert wurde ist aber die Sache des Monitorherstellers und so gesehen ist es die Aufgabe des Käufers sich vor dem Kauf zu informieren.
G-Sync Monitore sind alle nicht günstig, schon gar nicht in dem Format wo jetzt so langsam sich "schlechtes" Freesync einschleicht, wenn man einen Monitor, der gleichwertig zu dem Pendant mit G-Sync Modul ist mit Freesync kauft, so wird man eine ziemlich identische Erfahrung haben.
Da aber AMD keinen Einbau von einem Modul fordert und daneben auch keine weiteren Anforderungen als den Vesa Standard, gibt es natürlich schon Freesync Monitore ab 100€ und nicht erst ab 350€ wie bei G-Sync, es ist dann doch logisch, dass die dann schlechter sind oder?
Genauso wird ein 4K Fernseher nicht eine "hochwertige adaptive Syncronisation" bieten können, wenn der noch nicht mal mehr kostet als andere ohne oder?
Oder hast du kein Problem damit, das Geld für ein BFGD auf die Theke zu klatschen?
 
Wow es musste erst so spät werden bis ich die ungewollte Doppeldeutigkeit in der Überschrift begriffen habe XD
 
Dass Nvidia einen schnöden VESA-Standard nicht sauber implementieren und unterstützen kann wirft Fragen auf. Kann Nvidia nicht oder wollen sie nicht?

Der Vorteil von Freesync liegt auf der Hand. Wenn man in den Genuss von Adaptive Sync kommen möchte, dann muss man nicht zighundert Euro für einen Killer-Gaming-Monitor auf den Tisch legen. Ein Monitor für unter 200 Euro tut es auch, und je nach Modell verzichtet man nur auf die hohe Refresh Rate.

Allerdings sollte ein "gaming-tauglicher" Monitor schon bis 30hz runter gehen können, und es wäre geschickt gewesen wenn AMD ein "Freesync Ready" Label eingeführt hätte, um Adaptive Sync von gaming-tauglichen Implementierungen abzusetzen. Mit Freesync 2 wird es auch nicht wirklich besser. Letzten Endes stirbt man aber auch nicht, wenn man auf das Datenblatt und in die Reviews schaut um zu erfahren, welcher Monitor für die eigenen Ansprüche taugt.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack, or2k und Mcr-King
Baal Netbeck schrieb:
Und auch wenn die Freesync Funktion bei unzureichender Range nicht wirklich brauchtbar funktioniert, so bekomme ich sie halt schon in einem 120€ Billig Monitor.... h.
Gab bei Amazon vor paar Tagen den AOC G2590VXQ für 105€.
24,5" 1080p 75hz und Freesync 30-75hz und mit einem für TN Panel mMn gutem Bild, gerade für den Preis. Und als ich den probiert hab, hat FS 1a geklappt.
Also auch für wenig Geld gibts ne gute FS Range ^^
 
GSync Monitore haben durchweg besseren Input Lag und Reaktionszeiten durch eine überlegene Overdrive-Ansteuerung. Das ist ein Fakt.
Das lassen sie sich eben gut bezahlen. Für mich ist sowas aber wichtig, also bezahle ich eher deren Steuer als dass ich mich mit ner Gurke abgebe. Gerade bei den Preisen, die auch ohne GSync nun wirklich nicht niedrig sind.

Aber was ist denn jetzt mit ihrer "Super" Ankündigung?
 
Zuletzt bearbeitet:
schkai schrieb:
Also flackern tut ein gsync Monitor auch. Zumindest im ladebildschirm. Das hatte ich auch anfangs mit freesync und amd. Das hat amd aber stand heute behoben. Nvidia nicht.
Kannst Du ein Beispiel nennen? Ich hab' bis heute sowas nicht feststellen können.
 
sverebom schrieb:
Dass Nvidia einen schnöden VESA-Standard nicht sauber implementieren und unterstützen kann wirft Fragen auf. Kann Nvidia nicht oder wollen sie nicht?

Der Vorteil von Freesync liegt auf der Hand. Wenn man in den Genuss von Adaptive Sync kommen möchte, dann muss man nicht zighundert Euro für einen Killer-Gaming-Monitor auf den Tisch legen. Ein Monitor für unter 200 Euro tut es auch, und je nach Modell verzichtet man nur auf die hohe Refresh Rate.

Allerdings sollte ein "gaming-tauglicher" Monitor schon bis 30hz runter gehen können, und es wäre geschickt gewesen wenn AMD ein "Freesync Ready" Label eingeführt hätte, um Adaptive Sync von gaming-tauglichen Implementierungen abzusetzen. Mit Freesync 2 wird es auch nicht wirklich besser. Letzten Endes stirbt man aber auch nicht, wenn man auf das Datenblatt und in die Reviews schaut um zu erfahren, welcher Monitor für die eigenen Ansprüche taugt.


Was auch noch geht CRU 😉 damit kann man viele Bildschirme ordentlich beschleunigen, was bei den NV GSync durch dass Modul nicht geht.

Was aber auch mal nicht schlecht wäre ein gescheiter Audio Decoder im Bildschirm.

Meiner hat ja zumindest DTS STR.
Ergänzung ()

Jake Grafton schrieb:
GSync Monitore haben durchweg besseren Input Lag und Reaktionszeiten durch eine überlegene Overdrive-Ansteuerung. Das ist ein Fakt.
Das lassen sie sich eben gut bezahlen. Für mich ist sowas aber wichtig, also bezahle ich eher deren Steuer als dass ich mich mit ner Gurke abgebe. Gerade bei den Preisen, die auch ohne GSync nun wirklich nicht niedrig sind.

Aber was ist denn jetzt mit ihrer "Super" Ankündigung?

Dass Stimmt auch nicht wirklich und ist auch nur ein Märchen wichtig ist dass die Bildverbesserrungen ausgeschaltet werden können.

Die erhöhen den input lag massiv auch habe ich im Gaming Modus mehr Freesync Range.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Da hat sich Nvidia meiner Meinung nach heftig verrannt. Die sollen prüfen ob der Monitor flimmer- und flackerfrei die Bildwiederholfrequenz angleichen kann. Ob der Monitor genug Hertz für die eigenen Bedürfnisse liefert ist immer noch Entscheidung des Kunden.
 
  • Gefällt mir
Reaktionen: schkai, janeeisklar und JackTheRippchen
NVidia wie man sie kennt.
Erst andere kritisieren, dann die eigene Technik in den Himmel loben...:rolleyes:
Dazu noch null Einsicht, weil die anderen (Monitorhersteller) alle Schuld sind.
 
Axxid schrieb:
:lol: :lol: Gott, wie arrogant kann man eigentlich sein?
Im letzten GPU-Test schafft keine einzige Grafikkarte in einem Spiel 144fps in 1440. Aber fuer solche Aufloesungen kauft man sich ja auch keine 2080ti :rolleyes:
wieso? nutze auch 1440p und 144hz und läuft super und gpu ist auch ausgelastet
 
Mcr-King schrieb:
Dass Stimmt auch nicht wirklich und ist auch nur ein Märchen wichtig ist dass die Bildverbesserrungen ausgeschaltet werden können.

Die erhöhen den input lag massiv auch habe ich im Gaming Modus mehr Freesync Range.

Klar stimmt es. Siehe z.B. beim LG 34GK950G/F (vor dem Firmwareupgrade, was ja genau deswegen rausgebracht wurde) oder Dell S2716DG/F. Und auch nach nem Firmwareupdate hat auch ein Freesync Monitor kein Adaptive Overdrive.
 
Ich kann der Argumentation durchaus folgen.
Was es dann eben auch nachvollziehbar macht, warum es bei 3840x2160 gar eine GSync Monitore gibt.
Wenn man selbst mit einer 2080 Ti nur knapp über 60 FPS erreicht, ergibt GSync (so wie es nVidia argumentiert) keinen Sinn.

Man kann sich natürlich darüber streiten, ob eine variable Bildwiederholrate zwischen z.B. 45 und 100 bei solchen Monitoren einen Mehrwert bieten würde.
Wahrscheinlich wirklich nicht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben