News G-Sync-Kompatibilität: Nvidia begründet die Durchfallquote von 95 Prozent

Oh man. Wenn ich das schon wieder lese. Die eigenen Grafikkarten seien zu leistungsstark :volllol:

Klaro, ein bisschen Raytracing in UHD oder in so manchen Games reicht auch schon allein UHD Auflösung aus und schon geht jede 2080 TI in die Knie und muss kämpfen um 60 FPS überhaupt zu erreichen. Diesen quatscht was der da verzapft glaubt doch nicht ernsthaft irgendwer. Wieder ein verzweifelter Versuch seine eigenen Gsync-Platinen überteuert an den Mann zu bringen.

Will Gsync nicht schlecht machen, hab es ja selber. Der Nachteil ist im Gegensatz zu Freesync, dass es kein offener Standard ist. Zudem sind die Preise für so ein Gsync-Modul völlig überzogen sowie auch die Grafikkartenpreise.
Gsync-Ultimate erinnert mich an den Begriff "Enthusiasten" also wieder eine Einführung um über "Highend" noch mehr Geld abstauben zu können.

Spätestens zur PS5 werden wohl viele als Gamer dem PC den Rücken kehren, wenn sich das nicht wieder etwas in die bessere Richtung dreht.

Navi kann es ja anscheinend auch und ich hoffe AMD wird der Preispolitik und der Arroganz der Grünen gehörig auf den Zahn fühlen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: coral81, Schranz0815, or2k und eine weitere Person
Gut das ich ein echten G-Sync Monitor hab. Die 800 Flocken war er Wert damals.
 
  • Gefällt mir
Reaktionen: SyntaX, Markenprodukt, AirForce und 2 andere
Wg. Reinigungsarbeiten (Flamebeiträge) temporär geschlossen. Geht solange ein Bier trinken, es ist Feiertag.
787178


So Mädels und Jungs, es kann weiter gehen.
Und noch einmal zur Erinnerung. Bashing, Fanboygewimmere (von beiden Seiten), primitive Einzeiler, Videolinks usw. werden nicht geduldet.
Diskutiert hier sachlich und für diejenigen, die den Begriff nicht kennen: Der Stammtisch befindet sich in der Eckkneipe und nicht hier im Forum.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SyntaX, wolve666, Infi88 und 14 andere
also ich bilde mir ein, auch früher im nvidiatreiber ,adaptiv sync, aktivieren zu können. oder konnte man das damals zwar aktivieren, aber hatte keinen einfluss?
 
  • Gefällt mir
Reaktionen: Mcr-King
Nee nicht wirklich denn für Notebooks gabe es schon immer Adaptive-Sync.
 
Bluntastic schrieb:
Mit den ersten Treiber ging G-Sync/FreeSync noch auf meinem Monitor (AOC Q3279VWF) und dann kam das Flackern!

Das allerdings liest man leider relativ "oft" bei Freesync Monitoren. Kenn da auch ein paar Leute, die das problem mit dem Flackern auch haben. Mein BenQ EX3501R hat das leider auch sobald Freesync/GSync aktiviert wird.
 
  • Gefällt mir
Reaktionen: Mcr-King
Bei mir sind vor 2 Jahren ALLE GSYNC Monitore durchgefallen 10Bit Farbtiefe UND Adaptive Sync ging nämlich nicht. -Kein Witz!

Verstehe nvidias Intention nicht.
Wenn man unbedingt ein rotes Auto kaufen möchte, man sich dann aber auch 50% blaue Autos zur "Begutachtung" schicken lässt, dann fallen nun mal mindestens 50% wegen der Farbe durch. Oder?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Naja, nach dem Release der 5000er Radeon Serie bin ich eh raus ausm Nvidia Lager und dann kann ich endlich mein Samsung C32HG70 befeuern.
 
  • Gefällt mir
Reaktionen: Payne19 und Mcr-King
Nvidia hat die Spezifikation für Gsync Compatible ganz schön hoch angesetzt >)

Ich habe ein Display das diese Voraussetzungen erfüllt, aber in der User Liste von CB gibt es exakt zwei Rückmeldungen. Der eine ist Happy und der andere hat diverse Probleme.

An einer Radeon läuft der iiyama Red Eagle problemlos.

Von daher wage ich zu behaupten das Gsync Compatible eher ein Papiertiger ist, weil Nvidia die Funktionalität nur schlampig umgesetzt hat.
 
  • Gefällt mir
Reaktionen: Mcr-King
konkretor schrieb:
Ich Frage mich gerade wieso sie es freigegeben haben. Wenn sie es so schlecht finden.
Um zu zeigen, dass es zwar ginge, aber halt schlechter. Lieber gsync kaufen...
Ähnlich wie rtx auf gtx Karten
Psy
 
  • Gefällt mir
Reaktionen: Mcr-King
Dummerweise bestimmen die Kunden die Kriterien. Und die sagen was anderes, siehe auch hier auf CB die Kompatibilitätsliste: https://www.computerbase.de/forum/threads/nvidia-freesync-erfahrungen-teil-ii.1863271/. Das ist sicher nicht schön für die Lederjacke - wo man doch so unwahrscheinlich gerne auch an den Monitoren mitverdienen möchte. Damit das so bleibt mache ich seit der ersten Titan einfach einen Bogen um Nvidia.
 
  • Gefällt mir
Reaktionen: Chismon und Mcr-King
Ich musste gut lachen wegen den Reinigungsarbeiten, danke Phil - das Bild dazu ist auch geil :daumen: :freak: .

Was ich mir denke bei dieser Kompatibilitätsliste ist, dass irrelevant ob das Flackern vom Monitor ausgeht, diese dadurch alleine schon durchfallen oder sich der Nutzen oftmals nicht lohnt.
Mein C27HG70 hat auf beiden Lagern flackern, ob Nvidia oder AMD und die einzige brauchbare Range gibts in der Ultimate Engine, wo das Bild in niedrigeren Bildwiederholraten so schlecht wird, dass man es aus machen muss.

Normalerweise flackert es zwar "nur" in Menüs und co, aber so wirklich brauchbar umgesetzt ist es vom Monitor schon nicht.
Aber mal ganz abseits davon halte ich auch beide Syncs, ob Free oder G-. für nur wenig zu gebrauchen - den größten Nutzen erzielt man eh nur in niedrigen Framerates und in Spielen die sehr schlecht optimiert sind und an Mikrorucklern leiden.
Wenn man sich in manchen Benchmarks anschaut wo wieder eine Grafikkarte bessere und weichere Frametimes erzeugt während eine Andere vor sich her "ruckelt" und man darauf empfindlich reagieren sollte (Rage 2 auf Nvidia siehe Frametimes), oder bei mir z.B. Apex Legends mit meiner Vega 64... dort sehe ich den Nutzen einer Sync.

Dann auch wieder von Monitor zu Monitor unterschiedlich, wie stark man überhaupt das Tearing sehen kann.
Wenn man 240Hz auch mit entsprechend vielen Bildern füttern kann erübrigt sich eine Sync sowieso vollständig, denn da kommt man langsam wirklich in den Bereich, wo man abseits von Motion Blur (das größte Problem dann) kaum noch Tearing oder Mikroruckler feststellen kann.

Mich persönlich würde es fast auch nicht wundern, wenn HDR, G- und Freesync vollständig verschwinden werden in ein paar Jahren - die Umsetzung, die Einhaltung der Kriterien und auch die Verbreitung ist bei keinem gegeben.

Es liegen zu viele Steine im Weg, zu viele Sachen laufen falsch und ein anständiger Massen tauglicher Support lässt sich sowieso nicht finden.
 
  • Gefällt mir
Reaktionen: Schranz0815
Volkimann schrieb:
An Überheblichkeit und Arroganz nicht zu überbieten.
Treffender kann man es nicht formulieren.

Zum Glück berücksichtigt der Geizhals-Filter den Thread im CB-Forum.
Gut gemacht Community, gut gemacht @Geizhals.
 
  • Gefällt mir
Reaktionen: McTheRipper und Schranz0815
eax1990 schrieb:
Ich musste gut lachen wegen den Reinigungsarbeiten, danke Phil - das Bild dazu ist auch geil :daumen: :freak: .

Was ich mir denke bei dieser Kompatibilitätsliste ist, dass irrelevant ob das Flackern vom Monitor ausgeht, diese dadurch alleine schon durchfallen oder sich der Nutzen oftmals nicht lohnt.
Mein C27HG70 hat auf beiden Lagern flackern, ob Nvidia oder AMD und die einzige brauchbare Range gibts in der Ultimate Engine, wo das Bild in niedrigeren Bildwiederholraten so schlecht wird, dass man es aus machen muss.

Normalerweise flackert es zwar "nur" in Menüs und co, aber so wirklich brauchbar umgesetzt ist es vom Monitor schon nicht.
Aber mal ganz abseits davon halte ich auch beide Syncs, ob Free oder G-. für nur wenig zu gebrauchen - den größten Nutzen erzielt man eh nur in niedrigen Framerates und in Spielen die sehr schlecht optimiert sind und an Mikrorucklern leiden.
Wenn man sich in manchen Benchmarks anschaut wo wieder eine Grafikkarte bessere und weichere Frametimes erzeugt während eine Andere vor sich her "ruckelt" und man darauf empfindlich reagieren sollte (Rage 2 auf Nvidia siehe Frametimes), oder bei mir z.B. Apex Legends mit meiner Vega 64... dort sehe ich den Nutzen einer Sync.

Dann auch wieder von Monitor zu Monitor unterschiedlich, wie stark man überhaupt das Tearing sehen kann.
Wenn man 240Hz auch mit entsprechend vielen Bildern füttern kann erübrigt sich eine Sync sowieso vollständig, denn da kommt man langsam wirklich in den Bereich, wo man abseits von Motion Blur (das größte Problem dann) kaum noch Tearing oder Mikroruckler feststellen kann.

Mich persönlich würde es fast auch nicht wundern, wenn HDR, G- und Freesync vollständig verschwinden werden in ein paar Jahren - die Umsetzung, die Einhaltung der Kriterien und auch die Verbreitung ist bei keinem gegeben.

Es liegen zu viele Steine im Weg, zu viele Sachen laufen falsch und ein anständiger Massen tauglicher Support lässt sich sowieso nicht finden.
Ich kann sowohl den BenQ EX320R als auch den Samsung C27FG70 mit CRU Gsync kompatibel betreiben. Beim BenQ läuft die Freesync Premium >Variante nur wenn man den Bereich von 24-120 Hz auf 48-144 Hz ändert. Dann aber ohne Abstriche. Beim Samsung von 70-144 Hz auf 48-144 Hz. Beide laufen dann stundenlang ohne irgendwelche Störungen.
Aber mir ist schleierhaft warum da nicht alle Hersteller 48-144 Hz nehmen wenn es die Elektronik doch hergibt. Eventuell sind Bauteile, die garantiert diesen Range können einfach teiter und werden nicht verbaut. Ich hab dann also Glück, dass meine Monitore nicht abrauchen.
Ergänzung ()

JackTheRippchen schrieb:
Treffender kann man es nicht formulieren.

Zum Glück berücksichtigt der Geizhals-Filter den Thread im CB-Forum.
Gut gemacht Community, gut gemacht @Geizhals.
Ja aber nicht alle laufen out of the box, also ohne CRU, das wird sicher in Zukunft besser.
 
Ist natürlich lächerlich von Nvidia, den Monitoren ihre Funktionalität abzusprechen.... aber sie haben Recht, dass eine überwältigende Menge an Freesync Monitoren eigentlich kein sinnvolles adaptives synchronisieren können.

Wenn man mal einen Frametimeverlauf anguckt und dann die oft vorhandene Range von 48-74Hz also 13,5- 20.8ms dazu betrachtet, merkt man, wie häufig die Frametimes aus diesem Fenster schwanken...auch wenn im Schnitt grob 60FPS da sind.

Mit AMD Karten kann man da sicherlich ganz gut Radeon Chill+ erweiterte Synchronisation nutzen....untere Grenze auf 53-55 FPS und dann sollten die Frametimes (bei ausreichend CPU und GPU Reserve) immer irgendwo zwischen 14-19ms liegen.
Aber bei Nvidia ohne dieses Feature, kann man auch gleich V-sync/fast sync nutzen.

Mir gefällt der AMD Ansatz jedoch deutlich besser....klar fällt man mit viele Monitoren auf die Nase, wenn man glaubt gutes Freesync zu kaufen, aber dann nur sowas halbgares bekommt.

Auf der anderen Seite kostet Freesync scheinbar nix extra und besser haben als nicht haben.

Und wer sich informiert, der kauft halt einen ordentlichen Freesync Monitor....ohne Flackern, mit 30-144Hz range und guten Reaktionszeiten...soweit meine Meinung.

Aber dann wird es von Nvidias Seite aus lächerlich...dann sind FullHd auf einmal nicht mehr gut genug, obwohl es doch auch viele G-sync Monitore mit FullHD gibt.
Und ominöse "Bildquaitätsmängel" halten dann her, um 95% durchfallen zu lassen.... Da wirken sie wirklich verzweifelt. ;)
 
  • Gefällt mir
Reaktionen: tek9, or2k, Nilson und eine weitere Person
Baal Netbeck schrieb:
Aber dann wird es von Nvidias Seite aus lächerlich...dann sind FullHd auf einmal nicht mehr gut genug, obwohl es doch auch viele G-sync Monitore mit FullHD gibt.
Und ominöse "Bildquaitätsmängel" halten dann her, um 95% durchfallen zu lassen.... Da wirken sie wirklich verzweifelt. ;)
Das lächerliche ist ja, dass von den 95% schon über 50% wegen der adaptive sync Range durchfallen. Nur steht bei den FreeSync Monitoren die adaptive sync Range drauf, es ist deswegen lächerlich von nvidia diese "testen" zu wollen. Das Ergebnis ist doch schon vorher klar.
nvidia = cheater (Zumindest mal wieder bei diesem pseudo-"Test")
 
Da kann sich AMD mal noch ein Scheibe abschneiden von Nvidias ausgezeichnetem Kunden-Support.
Nur "Adaptive-Sync" als Label draufzuklatschen auf Monitore, die absolut untauglich sind, einen Vorteil für den Nutzer zu bieten, reicht eben nicht!

Was soll man denn mit einer Sync-Range von 40-60Hz oder 48-75Hz anfangen? Dadurch wird das Spiel-Erlebnis garantiert nicht besser.

Ein Faktor 2,4 mit einer unteren Frequenz < 40 Hz muss es schon sein, damit man einen spürbaren Vorteil hat.
Dann funktioniert auch LFC und es bleibt auch bei niedrigen fps noch ruckelfrei.
Ergänzung ()

janeeisklar schrieb:
Das lächerliche ist ja, dass von den 95% schon über 50% wegen der adaptive sync Range durchfallen.

Da ist überhaupt nichts lächerlich dran. Siehe oben!
Ergänzung ()

Baal Netbeck schrieb:
Ist natürlich lächerlich von Nvidia, den Monitoren ihre Funktionalität abzusprechen.... aber sie haben Recht, dass eine überwältigende Menge an Freesync Monitoren eigentlich kein sinnvolles adaptives synchronisieren können.

Genau so ist es.
 
Alefthau schrieb:
Hi,

Ich mag mich täuschen, aner müssen die Hersteller für G-Sync nicht eine Abgabe an NVIDIA zahlen?

Ich stelle mir gerade die Entscheider einer Firma für Monitore vor, wenn plötzlich ein Großteil der (günstigeren) Freesync-Monitore offiziell kompatibel sind/werden. Glaub die wären arg angepieselt, weil ihre (weit) teureren G-Sync Monitore in den Regalen stehen bleiben würden.

Ich denke schlicht, dass NVIDIA die Lizenznehmer nicht vergraulen will und es künstlich beschränkt!

Gruß

Alef

Genau das ist ja z.B. beim LG 34GK950F (FreeSync) bzw. 950G (G-Sync) der Fall. Da der F zwar kein G-Sync-Modul hat, aber ansonsten dem G überlegen ist (144Hz vs. 120Hz, HDR vs. kein HDR, Firmware updatefähig vs. nicht updatefähig und 100-200€ günstiger), war die News, dass Nvidia G-Sync für FreeSync-Monitore öffnet und der F damit fehlerfrei zurechtkommt quasi der Todesstoß für das G-Modell.

Es gibt ein Video von Linus Tech Tips, wo man den ganzen G-Sync-Zertifizierungsprozess vorstellt. Da steckt schon eine Menge Arbeit dahinter, aber ganz ehrlich: wie genau rechtfertigt sich dieser Aufwand und die Mehrkosten, wenn ein FreeSync-Monitor scheinbar ohne Probleme ebenfalls ein subjektiv identisches Ergebnis liefert. Ich kann zumindest keinerlei Nachteile beim 950F gegenüber G-Sync-Monitoren feststellen.
 
kisser schrieb:
Da kann sich AMD mal noch ein Scheibe abschneiden von Nvidias ausgezeichnetem Kunden-Support.
Nur "Adaptive-Sync" als Label draufzuklatschen auf Monitore, die absolut untauglich sind, einen Vorteil für den Nutzer zu bieten, reicht eben nicht!
Wie gesagt...ich halte diese 40-60, 48-75Hz range Monitore auch für unwürdig..... aber AMD bleibt hier ihrer Philosophie treu und lässt den Kunden entscheiden wie er die Hardware nutzt.

Bei AMD darf ich auf jedem Consumer Mainboard und mit jedem Ryzen Prozessor übertakten....ich darf den Ram einstellen wie ich möchte und meine GPU über das Tool im AMD eigenen Treiber übertakten/undervolten.

Das die AMD Hardware teils "suboptimal" im Auslieferungszustand ist, ist ein anderes Thema.... da hat AMD einfach kein Händchen für oder nicht genug Budget oder irgendwas.

Ich erhalte aber viele Freiheiten, etwas an diesem Zustand zu ändern!
Das ist für mich schon ein guter Kunden-Support.

Bei Intel darf ich nur mit Z Chipsatz und K CPU übertakten....oder den Ram über 2666 einstellen.

Bei Nvidia ist der Voltage Slider ein reiner Plazebo.... das Power Limit ist super schnell erreicht und limitiert das übertakten.

Für mich ist das wie ein Auto, wo man das ESP nicht deaktivieren kann...oder man hat den Knopf, aber wenn man ihn drückt, greift es trotzdem ein.

Das mag DAU Schutz sein, aber als Kunde fühle ich mich halt auch gegängelt und nicht ernst genommen.

Und auch wenn die Freesync Funktion bei unzureichender Range nicht wirklich brauchtbar funktioniert, so bekomme ich sie halt schon in einem 120€ Billig Monitor.... hilft einem als unbedarfter Ntuzer nicht viel, stört aber auch nicht und hat nicht mehr gekostet..... und wenn man sich auskennt, dann kann man mit Radeon Chill zumindest in einigen Spielen und Situationen, Freesync nutzen..... besser als 60Hz V-sync ist es sicherlich.

Jetzt meckert Nvidia bei Freesync, es wäre nicht mit ihren hohen Qualitätsansprüchen vereinbar und ihre Grafikkarten würden eh viel mehr FPS liefern..... aber gleichzeitig haben sie RTX auf Pascal Karten freigegeben.... wo es mit sehr schlechter Leistung läuft und ganz sicher nicht dem Qualitätsanspruch gerecht wird.
Ich finde es übrigens gut, dass Nvidia RTX da freigegeben hat.... gerne hätten sie es auch für andere Karten freigeben können...dann hätte ich mir das wenigstens mal live angucken können...ob mit 3 oder 14 FPS ist dann auch egal.
 
  • Gefällt mir
Reaktionen: McTheRipper
SLI hat nie richtig funktioniert, aber extrem Werbung dafür gemacht . Raytracing läuft kaum und dann noch G Sync was überhaupt kein Sinn macht .
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben