News Nvidia × MediaTek: Neuer G-Sync-Scaler macht Monitore günstiger und leiser

daknoll schrieb:
Ja, aber das werde ich doch wohl noch dürfen :) Und wenns nicht passiert kann ich das ja immernoch doof finden.
 
  • Gefällt mir
Reaktionen: daknoll
Vitche schrieb:
Hätte ich diese Frage gestellt wäre ich wahrscheinlich ausgelacht worden. ^^ Ich denke wir alle kennen die Antwort.

Sehe ich nicht so. Du hättest die Frage als Rückklärung stellen können.
Bleibt also lediglich eine Neuerung:
Nvidia hat die Produktion auf Mediatek ausgelagert und die Preise von G-Sync Monitore gehen ein bisschen runter. Die Verbreitung von G-Sync Monitoren wird dadurch in lachhafter Dimension vergrößert, das ist ein schlechter Witz von Nvidia.
Würde mich nicht wundern, wenn die Endkunden Preise nur um 30 Euro sinken, obwohl die G-Sync Pendants 150 bis 200 Euro höher in der UVP als die gleiche Modellreihe ohne G-Sync sind.
Das wäre dann die ultimativ Lachnummer "Neuerung" von Nvidia in Bezug auf G-Sync.

@Ray519
Das was Du aufführst ist mir alles bekannt, die ganzen Listen wo Leute ausprobiert haben und auflisten mit welchen specs sie welche Bandbreiten an bestimmten Monitoren geschafft oder nicht geschafft haben. Es gibt nach wie vor noch etliche Erfahrungsberichte wo die "andere Technik" nicht so funktioniert wie sie in Gänze mit den Hersteller-Karten und -Treibern funktioniert.

Alles das, also Free-Sync mit NV-Karten und umgekehrt G-Sync mit AMD-Karten, ist keine native Schnittstelle, die Funktionen und deren Bandbreite und Eigenschaften garantiert. Das ist letztlich "Hören-Sagen" was halt in Internet Foren und Google-Listen geteilt wird. Nachdem Motto "meine RTX 3080 schafft auf dem FreeSync Monitor XY 50-100 Hz in der Synchronisierung. Im Spiel XY funzt es aber nicht, da verreist das Bild."
Diese Situation ist meiner Meinung nach nach wie vor Bullshit was den Gesamtmarkt betrifft.

Wenn Nvidia es ernst mit massiver Verbreitung ihrer Technologie meint, wäre generell die G-Sync Technik als Adaptive Sync über alle Karten nativ und mit garantierter Performance ansprechbar zu machen, dann müssten sie entweder ihren Standard öffnen für alle Graka-Hersteller oder sie müssen sich mit AMD/Intel zusammensetzen und glaube mit der sog. VESA Organisation einen entsprechenden Standard auf die Beine stellen.
 
Wie viele Monitore nutzen denn aktuell einen Scaler von Mediatek? (Marktanteil) @Vitche
Ohne diese Info kann man doch garnicht einschätzen was das ganze für den Markt bedeutet.

Mediatek verspricht sich dadurch wohl auch mehr Scaler verkaufen zu können... neben dem Obolus von Nvidia.
 
  • Gefällt mir
Reaktionen: cbmik
engineer123 schrieb:
Das was Du aufführst ist mir alles bekannt, die ganzen Listen wo Leute ausprobiert haben und auflisten mit welchen specs sie welche Bandbreiten an bestimmten Monitoren geschafft oder nicht geschafft haben. Es gibt nach wie vor noch etliche Erfahrungsberichte wo die "andere Technik" nicht so funktioniert wie sie in Gänze mit den Hersteller-Karten und -Treibern funktioniert.
Bitte was? Du hast selbst gesagt:
engineer123 schrieb:
allerdings ist es offensichtlich immer noch so, dass die G-Sync Funktion weiterhin nur mit NV-Karte und Treiber angesprochen werden kann
Mit "die G-Sync Funktion" nehme ich an meinst du VRR. Und ich habe dir erklärt, dass es zum "Ansprechen" davon das DP Adaptive Sync Protokoll braucht und sonst nichts.

Wenn das daraufhin nicht 100% so funktioniert, wie du dir das erhofft hast, dann liegt die Schuld entweder beim Monitor oder bei der GPU die keine 100% korrekte Implementierung bieten und es braucht eine gewisse Kombination damit auch alles rund läuft. Aber das ist nicht ansatzweise das etwas proprietär oder verschlossen ist oder "gar nicht angesprochen werden kann". Und offensichtlich wusstest du das nicht.

Und ich sage genau nichts über "Bandbreiten".

engineer123 schrieb:
ist keine native Schnittstelle, die Funktionen und deren Bandbreite und Eigenschaften garantiert
Falsch. Die Schnittstelle ist nicht G-Sync oder FreeSync. Die Schnittstelle ist Adaptive Sync. Oder HDMI VRR.
Und die Schnittstelle können alle auf allen Seiten. Das ist schon nativ. Der Rest liegt dann an den jeweiligen Herstellern das auch entsprechend gut zu können.

engineer123 schrieb:
Diese Situation ist meiner Meinung nach nach wie vor Bullshit was den Gesamtmarkt betrifft.
Da ist kein technisches Argument drin. Das einzige was du fordern könntest wäre eine Zertifizierung von einer neutralen Stelle. So wie es Vesa DisplayHDR gibt hättest du gerne eine Adaptive Sync Zertifizierung. Dafür wäre aber weder Nvidia noch AMD zuständig. Und wir wissen zB wie viel Luft Vesa bei den DisplayHDR Zertifzierungen lässt und entsprechend wie wenig sie taugen. Und am nächsten kommst du daran mit Tests von kompetenten Reviewern.
engineer123 schrieb:
G-Sync Technik als Adaptive Sync über alle Karten nativ und mit garantierter Performance ansprechbar zu machen, dann müssten sie entweder ihren Standard öffnen für alle Graka-Hersteller oder sie müssen sich mit AMD/Intel zusammensetzen und glaube mit der sog. VESA Organisation einen entsprechenden Standard auf die Beine stellen.
Wie sehr kannst du meine Erklärungsversuche ignorieren und dann überzeugt Mist behaupten.
Du wirfst durcheinander was die Schnittstelle ist, die man für Interoperabilität braucht und wie die GPU und der Monitor intern funktionieren. Die Schnittstelle ist standardisiert. Und dann kann man es nutzen. Die Paneltechnik eines Monitors ist der GPU ja auch für die Ansteuerung egal. Aber unterschiedliche Paneltechniken sehen halt je nach Situation unterschiedlich gut aus. Braucht niemanden der darüber faselt wie eine GPU mit OLED geht.

Und Nvidia nutzt das alte proprietäre G-Sync Protokoll ja selbst nicht mehr und kann den Vesa Standard den es schon lange gibt. Mir scheint du hast die letzten 6 Jahre Entwicklung vergessen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anzony und Hoebelix
Suspektan schrieb:
Weil viele bis heute selbst in Foren wie diesen nicht verstanden haben, dass "g-sync compatible" eh nur nvidia's eigene Bezeichnung für hdmi forum vrr ist.
Das stimmt ja vorne und hinten nicht. VRR gibt es zb nur ab HDMI 2.1. Es gibt aber g-sync compatible Monitore die nur HDMI 2.0 haben, und es über DP realisiert wird. Und das dürfte die Hauptzahl von g-sync compatible Monitoren sein.
 
@Suspektan Das ist jetzt aber weil du die Geschwindigkeiten mit den Spezifikationsversionen mischst.

HDMI VRR gibt es erst in der HDMI 2.1 Spezifikation. Aber wie bei so vielen Standards beschreibt die 2.1 Spec keine Mindestgeschwindigkeit. Ein Port muss also nicht schneller sein als vorher. Das ist auch was Nvidia zB mit den G-Sync Ultimate Modulen an den HDMI Eingängen macht.

Aber per Definition ist ein Port der HDMI VRR kann immer mindestens ein HDMI 2.1 Port.

Die Geschwindigkeit muss man halt eigentlich separat angeben. Und hier versursacht das HDMI Forum Probleme, weil sie keine öffentlichen und einheitlichen Namen für die Geschwindigkeiten haben

TMDS 18 Gbit/s zB war die maximale Geschwindigkeit in HDMI 2.0. HDMI 2.1 hat die FRL Geschwindigkeiten (1-6) hinzugefügt. Aber TMDS 10 Gbit/s wäre auch möglich (das Maximum zu Zeiten von HDMI 1.4).

Und ja, HDMI VRR geht mit TMDS und FRL Verbindungen. Während zB DSC nur mit FRL kombiniert werden kann.

Das löst zB auch auf, warum man keine Ports mehr nach HDMI 2.0 zertifizieren kann (die PDF ist einfach veraltet) und alle neuen Ports immer technisch gesehen 2.1 Ports sind und warum Hersteller ganz offiziell keine Version angeben sollten, sondern nur "HDMI" + Features und Geschwindigkeiten.
 
  • Gefällt mir
Reaktionen: Anzony und Hoebelix
SoDaTierchen schrieb:
Also nicht falsch verstehen, die technischen Errungenschaften hinter GSync feiere ich und nutze selbst einen VRR-Monitor.
Das hört sich so an als hätte Nvidia VRR erfunden und dann die anderen nur abgeschaut, das ist aber mitnichten so. Die offene Spec ist schon älter meines Wissens nach.
 
Ray519 schrieb:
Das ist jetzt aber weil du die Geschwindigkeiten mit den Spezifikationsversionen mischst.
Naja, ich beziehe mich auf die in den Specs der jeweiligen GPU angegebene Version.
Eine rtx2060 unterstützt auch hdmi forum vrr (gsync compatible via hdmi) und dennoch wird hdmi 2.0(b) angegeben.
Von Geschwindigkeiten schrieb ich nichts
 
blackiwid schrieb:
Das hört sich so an als hätte Nvidia VRR erfunden und dann die anderen nur abgeschaut, das ist aber mitnichten so.
Das Prinzip von VRR nein. Das ist ja auch nicht schwer auf die Idee zu kommen.

Die Umsetzung im Monitor, die sehr robust ist und vom Anfang an zuverlässig ging mitsamt variablem Overdrive war die große Innovation die Nvidia geliefert hat und so den Benchmark gesetzt hat, wo die anderen Monitor/Scaler Hersteller und AMD hin mussten.
Ergänzung ()

Suspektan schrieb:
Eine rtx2060 unterstützt auch hdmi forum vrr (gsync compatible via hdmi) und dennoch wird hdmi 2.0(b) angegeben.
Ist das so? Hatte ich gar nicht mitbekommen.

Aber um das technisch zu bereinigen: die Angabe als "HDMI 2.0(b)" Port war von Anfang an ungenau und sollte kritisiert werden.

Das Produkt kam mit 2.0 Features auf den Markt und falls es zertifiziert wurde wurde es nach HDMI 2.0 zertifiziert ohne diese Features.
Aber Nvidia konnte die notwendigen HDMI 2.1 Features für VRR per Software Update nachrüsten.

Ähnliche Situation mit HDR. Intel iGPUs ab 6th gen kamen mit "DP 1.2" heraus. Aber mit neueren Treibern konnten sie HDR (ein DP 1.4 Feature) ohne irgendwelche anderen Features aus dem DP 1.4 Standard. Weil der Teil reine Software war.
Für 10th gen (was immer noch so ziemlich die gleiche Hardware war) sagen Intels Broschüren dann "kann DP 1.4 (mit max. HBR2 Geschwindigkeiten)" (die max. Geschwindigkeit von DP 1.2). Sie haben also quasi neu zertifizieren lassen für DP 1.4. Obwohl quasi nur das HDR Feature dazu kam und die Vorgänger Produkte das auch per Update erhalten hatten. Und die meisten Hersteller ändern dann in so Situationen nicht rückwirkend die Specs die sie zum Launch veröffentlicht hatten.

TL;DR;

du hast recht, bloß weil ein Hersteller sagt "HDMI 2.0" heißt das nicht dass es nicht irgendwann per Update HDMI VRR lernen kann. In dem Fall wäre dann die Angabe einfach veraltet mit neuerer Software. Oder sie war von Anfang an falsch, weil eben viele Leute das als Synonym mit Geschwindigkeiten lesen und manche Hersteller dann sogar absichtlich falsche Versionsnummern angeben, weil wenn sie die Korrekten angeben, gibt es Beschwerden, dass nicht alle Geschwindigkeiten gekonnt werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hoebelix und JMP $FCE2
Ray519 schrieb:
wo die anderen Monitor/Scaler Hersteller und AMD hin mussten.
Und was hatte die Konkurrenz von ner funktionierenden 100% geschlossenen Lösung, konnten sie da den Source kopieren ja wohl nicht... also Nvidia hat genau 0% Verdienst daran was die Konkurrenz gemacht hat.

Wenn der Verdienst ist mit exklusive Features Geld zu verdienen... ja bitte dann hat Nvidia diesen verdienst... was heute nicht alles gefeiert wird.

Ich hoffe ich betet dann AMD jeden Tag für Mantle an der die Konkurenz geschaffet hat für Vulkan und die aktuelle DX version.

Wobei der Vergleich hinkt, AMD hat ja wirklich (zusammen mit anderen Firmen) das ausm Nichts erfunden eine Vulkan Spec oder DX Spec mit dessen Featureset wurde ja erst DANACH angefangen.
 
der G-Sync-Aufschlag soll künftig aber drastisch reduziert werden.
Der Aufschlag sollte "gänzlich" reduziert werden. Würde so einige Kunden von NVIDIA garantiert freuen.

Gruß Fred.
 
blackiwid schrieb:
Und was hatte die Konkurrenz von ner funktionierenden 100% geschlossenen Lösung,
Motivation aufzuschließen. Konkurrenzdruck ist gut für den Konsumenten, drückt Preise und fördert Innovation.

Aber ich hatte auch nicht versucht ein Argument zu liefern, dass AMD sich was abgeschaut oder geklaut hat. Nur dass Nvidia früher als AMD mehr Innovation geliefert hat. Mehr nicht.
 
  • Gefällt mir
Reaktionen: Hoebelix und cbmik
Ray519 schrieb:
Ok. Vllt muss sich die Redaktion vorher mal selbst informieren wie das so funktioniert. Das erklärt dann auch wieso sich die Fehlinformation so hartnäckig hält.
Das ist halt keine Fehlinformation. Klar, man kann VRR auch ohne GeForce haben, auch ohne G-Sync-Modul/Scaler, aber dann heißt es halt im allgemeinen Sprachgebrauch und insbesondere im wording der Hersteller nicht G-Sync, sondern wenn überhaupt G-Sync Compatible. Wir müssen diese Begriffe nicht gut finden, aber sie sind halt nun einmal da und das einfach zu ignorieren und über die technischen Hintergründe zu gehen verwirrt 99 % der Leser mehr als das es hilft. Das, was Nvidia alles unter den Begriff G-Sync packt und was auch in dieser News hier gennant wird, beispielsweise so Dinge wie Pulsar, laufen eben nur mit Nvidia-Hard und -Software.
 
  • Gefällt mir
Reaktionen: FR3DI
Suspektan schrieb:
Stimmt so nicht, kann auch mit hdmi 2.0 realisiert werden, auch wenn das Feature erst mit hdmi 2.1 vorgestellt wurde
Zeig mir bitte die Hardware womit es mit HDMI 2.0 "realisiert" wird. Gibt es nicht bei Nvidia.
 
Che-Tah schrieb:
Wie viele Monitore nutzen denn aktuell einen Scaler von Mediatek? (Marktanteil) @Vitche
Ohne diese Info kann man doch garnicht einschätzen was das ganze für den Markt bedeutet.
Die Info allein wäre quasi nutzlos, weil 99 % der verkauften Scaler ohnehin nicht die technischen Mindestanforderungen von G-Sync erfüllen. Im "High-End"-Bereich sind deren Scaler aber stark verbreitet. Exakte Zahlen hab ich da nicht und kp ob die überhaupt jemand hat.

Che-Tah schrieb:
Mediatek verspricht sich dadurch wohl auch mehr Scaler verkaufen zu können...
Logisch, wenn die Aussicht wäre, dass sie damit weniger verkaufen, würden sie es obviously nicht machen.
 
  • Gefällt mir
Reaktionen: FR3DI
Vitche schrieb:
dann heißt es halt im allgemeinen Sprachgebrauch und insbesondere im wording der Hersteller nicht G-Sync,
Bist du Nvidia PR? Ich hätte jetzt erwartet dass der Daseinszweck von Redakteuren ist, nicht Presse Mitteilungen unreflektiert abzudrucken, sondern das für die Leser etwas aufzuschlüsseln. Das wenn Nvidia das Wort "G-Sync" nutzt, das alles und nichts heißen kann und kunterbunt GPU und Monitor durcheinander mischt, aber in dieser Situation Adaptive Sync oder HDMI VRR bedeutet, beides ist offen und Herstelleragnostisch. Klar hat Nvidia ein Interesse daran das in ihrem Ökosystem anzupreisen und den Eindruck zu hinterlassen (ohne es zu sagen, weil falsch), dass ein Monitor immer auch eine topaktuelle Nvidia GPU braucht. Die schlüsseln das ja absichtlich nicht auf, weil man sonst verstehen würde, dass die wichtigsten Features für die meisten Leute am Monitor hängen und mit jeder GPU gehen, Marketing hin oder her.

Vitche schrieb:
Das, was Nvidia alles unter den Begriff G-Sync packt und was auch in dieser News hier gennant wird, beispielsweise so Dinge wie Pulsar, laufen eben nur mit Nvidia-Hard und -Software.
Dann musst du mir jetzt mal erklären wie Backlight Strobing im Monitor die GPU oder der ihren Treiber braucht.
Das ist wie Black Frame Insertion. Das ist ein Monitor-Feature. Das braucht keine GPU. Da geht es doch nur darum, dass der Monitor sein Backlight zwischen 2 Frames abschaltet um von der Sample-and-Hold Natur von LCD wegzukommen. Und das ist nicht leicht, wenn die Framerate sich ständig ändert und jedes Verschieben des an/aus Verhältnisses des Backlights die wahrgenommene Helligkeit des Monitors entschieden beeinflusst.

Entweder hier stecken unvorstellbar wilde technische Details dahinter, ein absichtliches Verdongeln von Monitor-Features, was man explizit kritisieren sollte (nachdem man nachgewiesen hat, dass das der Fall ist) oder es ist einfach eine OSD Option, die VÖLLIG unabhängig von der GPU läuft und du liegst eben genau falsch.
Genau wie zB variables Overdrive rein GAR nichts mit der GPU zu tun hat, weil es nur darum geht, dass der Monitor Overdrive berechnet, im Kontext der gerade aktuellen Frametime. Das geht ja auch an jeder GPU.

Hier ist halt wirklich ein wenig technische Präzision und Verständnis nötig.

Wenn man behaupten möchte, dass Nvidia die Kunden hier gängelt, sollte man das eben wissen.

Außerdem hat sich das ursprüngliche Zitat und alle meine Antworten auf VRR selbst bezogen,
Mir ist klar und das habe ich auch in einigen Posts klargestellt, dass zB die Nvidia Reflex End-To-End Latenzmessung spezifisch für Nvidia GPU und Treiber ist. Aber das würde ich nicht als etwas Wesentliches im VRR Kontext bezeichnen.

Und wenn man es nicht weiß dann sollte es eben nur die Nvidia PR gerechte Antwort sein: "es wird garantiert dass es mit Nvidia GPUs geht, wir treffen keine Aussage für andere Hersteller". Aber nicht ein, "wir kennen ja alle die Antwort", ohne ein Verständnis davon was denn Pulsar überhaupt tun soll außer "Bild schön".

Edit:
Und wenn klar ist, dass VRR selbst seit 4 Jahren auch bei Nvidia auf offenen Standards basiert, fehlt jegliche Grundlage um jetzt mit Pulsar einfach mal anzunehmen, dass es "wie immer" nur mit Nvidia geht.

Wer aufmerksam Nvidias Erklärung zu Pulsar liest gewinnt auch überhaupt nicht den Eindruck dass das etwas mit der GPU oder dem VRR Protokoll zu tun hat.
Nvidia beschreibt es mehr als ein Aufsetzen auf variablem Overdrive um nun auch das Backlight gut koordiniert anzusteuern. Behauptungen, dass die GPU da mitmischt, sollten also gut begründet sein, mit technischen Details. Oder dann doch einer expliziten Bestätigung von Nvidia dass dieses Monitor-Feature von der GPU mit geheimen Schlüsseln freigeschaltet werden muss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tsu und Hoebelix
engineer123 schrieb:
Das ist letztlich "Hören-Sagen"
...und hat doch mehr Substanz als:

engineer123 schrieb:
Würde mich nicht wundern, wenn die Endkunden Preise nur um 30 Euro sinken, obwohl die G-Sync Pendants 150 bis 200 Euro höher in der UVP als die gleiche Modellreihe ohne G-Sync sind.
Das wäre dann die ultimativ Lachnummer "Neuerung" von Nvidia in Bezug auf G-Sync.

Denn das ist nichts anderes als Kaffeesatz Leserei mit Anti-nVidia Bias... :rolleyes:
 
Ich hoffe, dass irgendwann Gsync Ultimate 2.0 raus kommt.

Die ganzen Gsync compatible, oder Freesync Leute, können sich gar nicht vorstellen wie groß der Unterschied in bestimmten Szenarien wirklich ist.

Wenn man unter 40FPS kommt und die Bilder gedoppelt werden, ist das einfach nur Müll.

Mit Gsync Ultimate hat man eine Reichweite von 1-360Hz+. Gerade in Spielen wo man erhebliche Framedrops hat (z.B. FS2020) ist Ultimate einfach eine komplett andere Welt.
 
Zurück
Oben