News Kooperation mit MediaTek: Nvidias teures G-Sync-Modul wird überflüssig

  • Gefällt mir
Reaktionen: autopilot, Ray519 und Hate01
Na da bin ich mal gespannt ob dass zur Verbreitung von G-Sync beitragen wird.
Sicher, der Move Mediatek Scaler mit etwas Nvidia Software zu versehen ist sicher sinnvoll wirtschaftlich gesehen um Leute ans Nvidia Ökosystem zu ketten, zeigt aber auch dass das G-Sync Modul vorher schon absolut sinnlos war und man diese Lösung schon direkt zu Anfang an hätte machen können...
 
Einen Monitor zu kaufen mit einem proprietären System das mich an einen GPU Hersteller bindet?

Monitore überleben einige GPU Generationen also nein danke.
 
  • Gefällt mir
Reaktionen: iron_monkey
Bitte mit 16:10 bitte, dann wäre auch hier ein Kunde :D
Stell sich mal einer vor, dass die auch noch die jet air kühler mit verbauen könnten, sofern die kleinen Chips viel Strom benötigen.
 
Ich würde meinen, dass das Modul schon seit sehr langer Zeit überflüssig war, zumal seine Verwendung auch einige Nachteile mit sich bringt.

Es ist Nvidia zweifelsohne hoch anzurechnen, die Innovation VRR mit der Vorstellung dieses Moduls angestoßen zu haben, keine Frage. Spätestens seit es G-Sync Compatible gibt, braucht aber zumindest niemand zusätzliche Hardware plus Lüfter in seinem Anzeigegerät ^_^
 
  • Gefällt mir
Reaktionen: iron_monkey
Grestorn schrieb:
Falsch. Der Framebuffer ist im VRAM.
Bei welcher GPU der letzten 10 Jahre?
Bei Mali und PowerVR ist das auf jeden Fall ein SRAM in der Display Engine und kein Teil des VRAMs.
Es würde mich sehr stark wundern, wenn NVIDIA und AMD das anders handhaben. Das wäre ein ziemlicher Umweg.

Edit:
NVIDIA listet in ihrer Dokumentation den gesamten VRAM als Framebuffer, nennt jedoch auch einen extra Speicher für die Displayengine.

AMD differenziert zwischen Framebuffer und VRAM.
 
Zuletzt bearbeitet von einem Moderator:
@Bruhtang

Wieviel Framebuffer hat denn Deine AMD Karte, hm? Für was soll der denn dann reichen? Für einen 4k Monitor? Oder doch besser für 4 (so viele Anschlüsse hat Deine GPU ja). Was ist mit 8k Monitoren?!

Der Framebuffer für einen 4k Monitor mit 12 Bit pro Channel braucht mal eben rund 36MB. Und das dann mindestens mal 4.

Ist ja fantastisch wie viel brachliegenden Speicher Deine AMD Karte hat :)

Nein, der Framebuffer liegt im VRAM und wird dort nach Bedarf dynamisch allokiert. Was man auch sofort an der Auslastung des VRAMs sieht, wenn man mehr Monitore anschließt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: autopilot und Ray519
@Ray519
Danke für die Erläuterung.
Hat sehr geholfen und es sehr schön erklärt.
Topp.
 
Ich halte GSync für... nunja. Ein Überbleibsel. Es wurde implementiert, als es Adaptive Sync, vorher Freesync von AMD, noch nicht gab. Man hatte VSync ON und OFF. Das wars. nV hat hier eine Marktlücke entdeckt und entsprechend Technik auf den Markt gebracht. Dass ihnen das alte Protokoll um die Ohren fliegt, merkt man am ehesten daran, dass es noch keine aktuelle HDMI-Implementierung gibt. Und das von einer Firma, die so stolz auf ihren Hightech-Kram ist.

Heutzutage wird GSync immer weniger benötigt. Die wichtigsten Funktionen sind mittlerweilen in der VESA als Standard verankert und 99% der User werden das Delta zwischen AdaptiveSync/GSync wohl kaum erkennen. Für das restliche Prozent mag es wegen mir gern weiterleben. Immerhin ein möglicher Treiber für weitere Innovation.

Was ich mich allerdings frage: Im Artikel wird "GSync Compatible" definiert als GSync-eigene Implementierung von AdaptiveSync. Das ist aber eigentlich nicht korrekt. Hatte nVidia hier nicht schlicht reguläres Adaptive Sync nachimplementiert und damit es nicht ganz so nach einem Eingeständnis klingt es trotzdem "GSync" genannt?

Regards, Bigfoot29
 
Blackfirehawk schrieb:
es war eigentlich nur interressant wegen dem Variablen Overdrive von LCD Monitoren..
Und die FALD Steuerung.

Das Ultimate Modul hat das ja auch übernommen was mit abstand am besten arbeitete.

Aber ich hab schon vor 2Jahren gesagt dass, das Modul dead ist, weil NV auch ewig kein upgrade angekündigt hat.

Da wurde ich voll gejammert in de ForenxD

Das letzte Modul beschneidet ja den Farbraum, die Anschlüsse (kein HDMI2.1 etc) und macht die Geräte nicht updatebar.

Für mich nicht mehr interessant das Modul, und dank OLED brauch man auch kein Varriables OD mehr.
 
Zuletzt bearbeitet:
zwar hört sich das weniger umständlich an, aber mir stellt sich die Frage, ob diese auch bei Samsung oder LG verbaut werden, wollte mir von dort einen neuen 32:9 Monitor holen, aber wahrscheinlich, werden die ihre eigenen Chips verbauen.
 
blackiwid schrieb:
Aber ich sehe kein Weg das zu umgehen wenn man sich nicht an das Flowchart hält wird der Treiber schlicht nicht funktionieren.
Das ist ja warum die Konsequenz daraus zu sein scheint, dass eine Opensource Implementierung von HDMI 2.1 aktuell nicht möglich ist.
blackiwid schrieb:
Code oder irgendwas nutzen kann um damit Flime zu kopieren,
Ja. Niemand hat in dem Zusammenhang DRM (HDCP) erwähnt. Denn das wäre noch das beste Argument. DRM geht einfach nicht in Opensource. Das niemand die Schuld darauf schiebt, scheint zu zeigen, dass es wirklich mehr um die Spec allgemein zu gehen scheint.
Shinigami1 schrieb:
Ich würde daher NVIDIA Nutzern immer zu G-Sync raten. Das ist in meinen Augen Free-Sync deutlich überlegen.
Ist auch meine Erfahrung. Aber ich wäre ein bisschen vorsichtiger damit. Nach allem was ich gelesen habe war das Bild mit LCDs und G-Sync Modulen bisher perfekt. Gar kein Flackern. Und mit OLED scheint es dann eingeführt worden zu sein. Und da G-Sync so Opaque ist ist es nur Nvidias Wille wie hoch das Niveau des G-Sync Zertifikats bleibt. Und Nvidia hat vorher schon bei LG TVs das ganze angefangen aufzuweichen. Wo die TVs mit Logo und ohne "compatible" beworben werden durften, obwohl sie kein Modul hatten und entsprechend nicht ganz so gut dabei waren wie die klassischen G-Sync Monitore. Gut möglich dass Nvidia das jetzt ein wenig aufweicht und die Qualität sinkt um in tieferen Preisbereichen mit AMD konkurrieren zu können.

Und wie gesagt, ein FreeSync Logo scheint nur nicht so viel zu garantieren. Aber es verhindert in keinster Weise dass ein FreeSync Monitor genauso gut ist. Kommt aufs Produkt an. Wobei ich hier auch nicht weiß, ob die FreeSync Probleme von zertifizierten Monitoren erst mit non-AMD GPUs so richtig sichtbar werden oder die einfach nur die Abstimmung zwischen GPU und Display brauchen, die AMD dabei macht.

Edit: Ach und aktuell ist es leider ein gigantisches Tradeoff. Weil Ports und andere Features leider sehr rückständig sind. /Edit
Bigfoot29 schrieb:
Dass ihnen das alte Protokoll um die Ohren fliegt, merkt man am ehesten daran, dass es noch keine aktuelle HDMI-Implementierung gibt. Und das von einer Firma, die so stolz auf ihren Hightech-Kram ist.
Ich empfehle meinen langen Post zu lesen. Mein G-Sync Ultimate Monitor (AW3821DW) kann HDMI VRR auf beiden HDMI Eingängen. Den via HDMI an eine 3000+ Nvidia GPU angeschlossen und er wird als G-Sync erkannt wie über DP auch mit allen Features. Auch mit VRR bis 1Hz runter. Nur die maximale Refreshrate bleibt limitiert, weil das Modul nur HDMI mit TMDS kann und die Bandbreite zu niedrig ist um den Monitor dafürber voll auszufahren. Aber die VRR Features gehen voll. Und das schon lange.
Bigfoot29 schrieb:
Hatte nVidia hier nicht schlicht reguläres Adaptive Sync nachimplementiert und damit es nicht ganz so nach einem Eingeständnis klingt es trotzdem "GSync" genannt?
Wie schon in meinem ersten Post beschrieben: Adaptive Sync scheint (der Standard ist leider nicht öffentlich, deshalb können wir es nicht exakt nachlesen) exakt nur zu definieren, wie die GPU sagt "ich habe noch kein Frame für dich" und dann irgendwann später "jetzt habe ich ein Frame für dich". Und dann noch wie der Monitor der GPU sagt, dass er das versteht und in welchen Grenzen (minHz - maxHz). Das war es.

Und ja Nvidia hat Adaptive Sync implementiert. Schon lange. Aber Adaptive Sync sagt genau Null dazu wie der Monitor das umsetzt, so dass er nicht flackert, keine Schlieren zieht und was die GPU macht um das in möglichst kurzer Latenz und mit guter Nutzererfahrung zu machen. Und G-Sync ist eine riesengroßer Sammel- und Marketingbegriff der alles mögliche für die Nutzererfahrung beinhaltet. ZB auch, dass es automatisch angeschaltet wird und keine OSD Switche im Monitor gibt die man zuerst umlegen muss. Weil es einfach so gut funktioniert, dass es keinen Grund gibt es abzuschalten. Oder dass der Monitor auch noch eine gewisse Farbechtheit und HDR Fähigkeiten haben muss, was nun rein gar nichts mit VRR zu tun hat sondern einfach nur auf die Gesamt-Nutzererfahrung eines Monitors abziehlt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: goldeye, autopilot und Grestorn
Shinigami1 schrieb:
Ich kann aus eigener Erfahrung sagen das G-Sync im gegensatz zu Free-Sync viel weniger Bildflackern hat während Ladebildschirmen und auch während der Nutzung von HDR. Ich habe beispielsweise bei Elden Ring den AW3423DW (G-Sync) mit dem AW3423DWF (Free-Sync) verglichen. Sofort fiel mir bei HDR auf das der DWF deutlich erkennbar am flackern war (war mit Free-Sync aus nicht der Fall), vor allem bei dunklen Szenen wohingegen der DW ein perfekt ruhiges Bild hatte. Auch hat sich der DWF nicht so flüssig angefühlt wie die G-Sync Variante.

Ich würde daher NVIDIA Nutzern immer zu G-Sync raten. Das ist in meinen Augen Free-Sync deutlich überlegen.
Ich hatte bisher 2 Freesync Monitore und mir ist bisher nach all den Jahren nie irgendein flackern aufgefallen. Vielleicht muss man die richtigen Monitore treffen, ich kenne das nicht. Aber HDR nutze ich eigentlich nicht, weil es zumindest bei meinen aktuellen Modell keinen nennenswerten Effekt hat.

Und selbst wenn es im Ladebildschirm flackert... Gibt schlimmeres. Könnte ich mit leben. Wäre es beim Spielen der Fall, wäre das ein ganz anderes Thema.

Ich kann mir auch nicht vorstellen, dass sich G-Sync flüssiger anfühlt. Für mich fühlt sich Freesync perfekt an und ich bin da eigentlich sehr penibel und spiele z.B. Counter-Strike seit zig Jahren und habe einen gewissen Anspruch auf flüssiges Gameplay. Vielleicht muss man den Unterschied selber sehen/fühlen damit man das merkt, aber ich glaube da nicht dran. Ich glaube eher, dass Freesync bei deinem Monitor (leider) nicht so gut umgesetzt war?

Edit:
Der Monitor hat auch noch Firmware Updates erhalten. Evtl. haben sie das nachträglich gefixt? Es ist häufig leider so, besonders wenn man ein neues Modell kauft, dass hier und da noch einige Firmware Update kommen, die diese Probleme lösen.
Edit2:
 
Zuletzt bearbeitet:
Gute Nachrichten: aktive Lüftung und überteuerte Preise für einen erweiterten Funktionsumfang (wenn man den überhaupt zusätzlich braucht) sind möglicherweise bald Geschichte... .

Mir ist die bisherige herstellerübergreifende Basisversion lediglich für die Synchronisation der Bildrate (Adaptive Sync) als Normalanwender am Sympathischsten: funktioniert sowohl mit Nvidia, als auch AMD Grafikkarten.

Irgendwie erinnerte mich die bisherige Situation entfernt an den Formatkrieg von VHS/Betamax/V2000 in den 1980ern, später bei optischen Datenträgern ( DVD, HD-DVD, Blu-ray...) und aktuell noch bei UHD TV, an den Kleinkrieg zwischen DV und HDR10+.

Das braucht kein Mensch auf Dauer!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: goldeye und Grestorn
Contor schrieb:
@aLanaMiau Vermutlich keine Nvida GPU verbaut? Denn alles oberhalb "compatible" funktioniert scheinbar nur in Verbindung mit eben einer solchen richtig....
Habe eine NV GPU.

Shinigami1 schrieb:
Ich kann aus eigener Erfahrung sagen das G-Sync im gegensatz zu Free-Sync viel weniger Bildflackern hat während Ladebildschirmen
Bei mir wars genau umgedreht - scheint einfach immer vom Monitor abhängig zu sein...
 
  • Gefällt mir
Reaktionen: jo0
aLanaMiau schrieb:
Bei mir wars genau umgedreht - scheint einfach immer vom Monitor abhängig zu sein...
Welcher G-Sync Monitor war es denn? Leider werden da oft die verschiedenen Arten gemischt. Von Monitoren ohne Modul würde ich das nämlich eher erwarten als von denen mit Modul. Aber selbst wenn, wäre es interessant die Zusammenhänge zu finden, wo denn selbst die G-Sync Module nicht 100% korrekt laufen.
 
  • Gefällt mir
Reaktionen: Grestorn und autopilot
iron_monkey schrieb:
Doch, Nvidia ist auf die Idee gekommen, denn bis dahin nicht in Desktop Monitoren genutzten Standard VRR mit einem eigenen Scaler in den Monitore zu bringen.

AMD hatte bis dahin keinerlei solche Ansätze und hat dann nur schnell reagiert und konnte dank VRR auch etwas bringen.

Ohne Nvidias Umsetzung gebe es in Desktop Monitoren kein AdaptivSync.

Um das ganze mal zeitlich einzuordnen:

Nvidia brachte G-Sync im Jahre 2013 auf den Markt. D.h. die Entwicklung hat schon vorher stattgefunden.
AMD folgte 2015 mit FreeSync (was bereits 2014 auf der CES vorgestellt wurde) und auf auf dem offenen VESA Adaptive-Sync Standard basiert.
Dieser wiederum kam als Erweiterung des DisplayPort 1.2a Standards im Jahre 2014! D.h. nur ein Jahr später als der Release von G-Sync. Da aber auch das VESA Adaptive-Sync Entwicklungszeit benötigt, muss die Entwicklung ebenfalls schon vorher angefangen haben.

Dass du einfach so behauptest, dass Nvidia die "Idee" hatte und wir nur deshalb ein Adaptive Syncing beim Desktop hätten ist nicht nur reine Spekulation, sondern extremst unwahrscheinlich. Naheliegender ist , gerade im Hinblick auf die Member von VESA, dass ALLE daran gearbeitet und im Anschluss die Firmen ihr eigenes Süppchen gekocht haben (im Sinne einer Zertifizierung). Auch das ist zwar eine Spekulation, aber bezogen auf die zeitlichen Abstände und Reihenfolge der Veröffentlichungen und bezogen auf die Verfahren, die es bereits Jahre vorher gab (variables V-Blanking) ist das viel, viel wahrscheinlicher.
 
  • Gefällt mir
Reaktionen: Wechhe
Die Hauptfrage, welche ich mir stelle:
Wenn in den meisten Monitoren dieser Chip vorhanden ist, wird dann von NVidia, auch für ältere Monitore, ein passendes Update erscheinen?
Ich beziehe mich jetzt mal auf den Asus Swift OLED PG32UCDM ...
 
Nein, laut diversen Berichten funktioniert das nur bei neuen Chips in neuen Monitoren. Ob das technische oder wirtschaftliche Gründe hat, ist bisher nicht bekannt.
 
ob es jemand schafft einen 4k Monitor auf 6400 Hz zu bekommen bezweifel ich sehr stark denn 120 oder 144 sind der Hit für 4K Monitore mit dem Hinweis HD Ready mit schlieren und freezes sber kein Super HD und 4K überhaupt nicht,wer das nicht glaubt sollte mal einen richtigen Elektroniker fragen der sich damit auskennt.
 
Zurück
Oben