News Kooperation mit MediaTek: Nvidias teures G-Sync-Modul wird überflüssig

Ray519 schrieb:
Während der klassische nicht-Nvidia Weg eine Kombination erfordert. Der Monitor kann nur bis zu zB 48Hz runter und der GPU Treiber muss Frames verdoppeln um das einzuhalten. Und der GPU Treiber muss raten, ob diese 48Hz eine Grenze sind, bei der der Monitor kein Flackern hat oder schon deutlich sichtbar ist und die GPU eigentlich schon bei 70Hz anfangen sollte zu verdoppeln.

Die verschiedenen Hersteller haben unterschiedliche Policies wann sie verdoppeln. So kommt es dann das ein Monitorhersteller den Monitor nur mit einer GPU testet die Frames immer nach einem gewissen Schema verdoppelt. Und die andere GPU verhält sich anders und der Hersteller hat nicht getestet, dass der Monitor dann spinnt und flackert zB.

Bei Intel zB kann man auswählen, ob die Frames verdoppelt werden sollen, wann auch immer es geht oder nur wenn es notwendig ist. Hat beides vor und Nachteile und manche Monitore können das eine, manche das andere besser (G-Sync Modulen ist es egal).

Danke für Deine ausführliche Erklärung. War wichtig bei dem Kindergarten zuvor, wo zwei sich streiten wessen Mutter das Butterbrot früher geschmiert hat.
(eigentlich leicht zu recherchieren, dass FreeSync 2014 von AMD vorgestellt wurde, G-Sync aber bereits im Oktober 2013 mit zuvor auch noch entwickeltem notwendigen Scaler Modul)

Der zitierte Teil steht auch dafür dass rein technisch die durch HW gestützte G-Sync Methode - sichtbar - bessere Ergebnisse über alle mit dem Modul ausgestatteten Monitore erzielen konnte.
Das ist es was viele durch die ideologische Fanboy Brille nicht sehen wollten/konnten.
Kognitive Dissoziation spielt da eine Rolle, aber die meisten die gegen nVidia schießen werden niemals selbst den Vergleich gezogen haben - verständlich, bei den Mehrkosten der Monitore, aber schlecht als Diskussionsgrundlage.

Ich konnte es damals direkt nebeneinander testen, da ich einen 27" Acer Predator mit der ersten G-Sync Generation und dann später einen 34" Zoll mit G-Sync Compatible Zertifizierung direkt nebeneinander stehen hatte.

Mit Witcher 3 konnte ich das eindrucksvoll jedem zeigen, denn das Spiel lief damals mit den Ultra Einstellungen ziemlich inkonstant zw. 40 und 55 FPS. Was genau der Bereich ist wo man die "FreeSync Monitore" - also VRR erst ab 48 Hz - an ihre Grenzen bringt.

Und während der G-Sync Monitor zu keinem Zeitpunkt ein ruckelndes Bild hervorgebracht hat, war es am "FreeSync Monitor" kein Genuss mehr, denn sobald die FPS die 48 unterschritten wurde das Bild unruhig.
Da hilft bei den neueren Monitoren mMn auch das LFC nicht wirklich in jeder Lage (mein subjektiver Eindruck) - es ist einfach kein Vergleich zu proprietärem G-Sync in den niedrigen FPS Bereichen.

Alles kein Problem wenn man Spiele spielt, bzw. die nötige HW hat, dass man nie unter die 48 FPS kommt, aber falls man sich bei diesen FPS aufhält, vor allem wenn es hin und her springt, dann ist G-Sync proprietär ne komplett andere Liga.
 
  • Gefällt mir
Reaktionen: autopilot und Grestorn
Wobei der Freesync Range nicht auf 48 Hz festgeschrieben sondern vom Monitor abhängig ist.
 
  • Gefällt mir
Reaktionen: Hoebelix
@Hoebelix

Grundsätzlich stimme ich dir zu, auch wenn ich den Ton etwas polemisch finde und dein Beitrag selbst etwas einseitig ist.

Hoebelix schrieb:
Der zitierte Teil steht auch dafür dass rein technisch die durch HW gestützte G-Sync Methode - sichtbar - bessere Ergebnisse über alle mit dem Modul ausgestatteten Monitore erzielen konnte.
Sehe ich genauso - GSync kann in bestimmten Szenarien bessere Ergebnisse als vergleichbare Lösungen erzielen.

Hoebelix schrieb:
Und während der G-Sync Monitor zu keinem Zeitpunkt ein ruckelndes Bild hervorgebracht hat, war es am "FreeSync Monitor" kein Genuss mehr, denn sobald die FPS die 48 unterschritten wurde das Bild unruhig.
Da hilft bei den neueren Monitoren mMn auch das LFC nicht wirklich in jeder Lage (mein subjektiver Eindruck) - es ist einfach kein Vergleich zu proprietärem G-Sync in den niedrigen FPS Bereichen.

Alles kein Problem wenn man Spiele spielt, bzw. die nötige HW hat, dass man nie unter die 48 FPS kommt, aber falls man sich bei diesen FPS aufhält, vor allem wenn es hin und her springt, dann ist G-Sync proprietär ne komplett andere Liga.

Das ist ein Szenario, was besonders zur Anfangszeit von GSync und FreeSync problematisch war und ich kann deine Beobachtung auf der FreeSync Seite teilen - das lief zu Anfang nicht überall rund.

Allerdings muss man der Vollständigkeit halber unterscheiden, wo die Ursache liegt - das bringen hier viele nämlich durcheinander:

In einigen Szenarien, wo FreeSync schlechter abgeschnitten hat, lag es häufig an der schlechten Implementierung des Monitorherstellers. Oder des Spieleherstellers. Oder zu Anfang auch der Treiber von AMD, der Flackern verursachte. Das war vor allem in der Anfangszeit so und ist mittlerweile deutlich seltener ein Problem. Genau deswegen hat sich mittlerweile FreeSync ja auch "durchgesetzt". Es ist "gut genug" und erzeugt dabei für den Kunden weder Extrakosten, noch einen Lüfter im Monitor und auch keine Zwangsbindung an NVIDIA, um dieses Feature nutzen zu können.

In einigen Szenarien ist die Technologie GSync überlegen und FreeSync kommt da nicht heran.
Aus meiner Sicht trifft das heute nur noch auf wenige Szenarien zu. Und ich bin gespannt, was die Kooperation mit Mediathek Neues bringen wird an Verbesserungen.
 
  • Gefällt mir
Reaktionen: Hoebelix
Aktuell nutze ich als Zwischenlösung einen günstigen 34" ASUS mit VA Panel (VG34VQL3A), der zwar GSync Compatible zertifiziert ist, aber nirgendwo steht dass er auch LFC mitbringt.
Da sehe ich wieder die gleichen Probleme wie früher und vorher von mir beschrieben.
(Ganz abgesehen davon dass der Monitor einfach echt nicht das Gelbe vom Ei ist - aber ist ja auch nur ne Zwischenlösung)

Mein LG 34GN850-B davor lief tatsächlich durchgehend flüssig, wobei ich auch hier deutliche Unterschiede unter den 48 FPS zu FPS Zahlen darüber feststellen konnte.
Aber meine HW schafft dann meist doch mehr als genügend FPS um nicht mal in die Nähe dieser "Problemzone" zu kommen.

Aktuell warte ich auf meinen neuen LG 38WR85QC-W, das wird sicher genauso rund laufen wie beim letzten LG.

Jedenfalls würde ich wenn ich die Wahl hätte und es keine oder zumindest nur geringe Mehrkosten hätte, sofort zu einem vollwertigen G-Sync Monitor wechseln.
Aufgrund der wenigen verfügbaren Modelle hat man diese Wahl aber eher selten.
Deshalb hoffe ich da auf diese Kooperation und bin gespannt was das in der Zukunft bedeutet.
 
  • Gefällt mir
Reaktionen: Wechhe
Ja_Ge schrieb:
Auf wessen Basis hat Apple denn den M1 "geklaut"? Du bist da einem riesen Skandal auf der Spur :freak: .
Der M1, ist ARM IP. Wofür sie eine Lizenz. Sie haben die Kerne verbessert, aber nicht erfunden. Ist ist immernoch ein ARM Chip.
 
  • Gefällt mir
Reaktionen: Ja_Ge
Wechhe schrieb:
Grundsätzlich stimme ich dir zu, auch wenn ich den Ton etwas polemisch finde und dein Beitrag selbst etwas einseitig ist.
Polemisch und einseitig siehst Du offenbar jeden Beitrag, der nicht Deiner Meinung entspricht. Das war bei meinen Beiträgen auch schon so, obwohl ich nichts falsches geschrieben habe.

Was mir immer wieder gegen den Strich geht, ist dass einige AMD immer als den Heilsbringer hinstellen, weil die Firma ihre Technologien "offen" gestalten. Dabei ist es eben absolut offensichtlich, dass das eine Strategie ist, technologisch teuer erkaufte Innovationen zu egalisieren.

Das ist ja durchaus legitim und das gehört zum Wettbewerb dazu. Ich mache AMD da auch keinen Vorwurf.

Ich finde es nur ziemlich eigenartig, wenn einseitig eine Firma, die immer wieder in neue Bereiche investiert, moralisch abgestraft wird, weil sie damit auch Geld verdienen will, wogegen die andere Firma als "moralisch überlegen" gesehen wird, obwohl sie am Ende auch nur versucht den Anschluss nicht zu verlieren und den Vorsprung möglichst preisgünstig (eben z.B. oft über Partner wie bei VRR oder OSS wie bei OpenCL) zu egalisieren.

Das "Offen" ist dabei, und das kann ich nur immer wiederholen, eine reine Augenwischerei. Beim Egalisieren kann man ganz leicht "offen" sein und die Lösung auch auf den Produkten der Konkurrenz laufen lassen, denn eine proprietäre Lösung hätte keine wirtschaftlichen Vorteile mehr, wenn die Konkurrenz ohnehin schon eine mindestens ebenbürtige Lösung im Angebot hat.

Es wäre mal schön diesem Gedankengang ohne Vorurteil und grundsätzlicher Abwehr zu folgen oder ein gutes Gegenargument, warum er nicht stimmt, zu bringen.
 
  • Gefällt mir
Reaktionen: autopilot
Hoebelix schrieb:
Da hilft bei den neueren Monitoren mMn auch das LFC nicht wirklich in jeder Lage (mein subjektiver Eindruck) - es ist einfach kein Vergleich zu proprietärem G-Sync in den niedrigen FPS Bereichen.
Da wird es spannend, da wir nicht genau wissen wie die Module hier vorgehen. Aber ohne Zwischenbildberechnung kann der Monitor eigentlich auch nichts anderes als LFC machen. Soweit könnte das also auch theoretisch mit GPU-seitigem LFC erreicht werden. Solange dieses Perfekt auf die Eigenschaften des Monitors abgestimmt ist.


Nvidia hatte mal in einem Interview gesagt, dass sie schätzen ,wann das nächste Frame kommt, so dass sie das wiederholen von alten Frames vorziehen können um direkt bereit zu sein wenn das neue Frame kommt. Aber auch das kann man GPU-seitig machen. Evtl sogar besser.

Wechhe schrieb:
Genau deswegen hat sich mittlerweile FreeSync ja auch "durchgesetzt". Es ist "gut genug" und erzeugt dabei für den Kunden weder Extrakosten, noch einen Lüfter im Monitor und auch keine Zwangsbindung an NVIDIA, um dieses Feature nutzen zu können.
Ich würde nicht sagen, dass "FreeSync" sich durchgesetzt hat. Eher es hat sich Adaptive Sync und HDMI VRR durchgesetzt. Und wenn man das hat, kommt es nur darauf an, wie gut der Monitor das umsetzt. Und mit der Marke FreeSync hat das eben eigentlich herzlich wenig zu tun.

Und Zwangsbindung an Nvidia habe ich ja auch entkräftet. Ob man den Lüfter hört oder nicht kommt auf das Monitor Modell an. Bei meinem AW3821 hörst du genau nichts. Ich denke gerade dass es nur weniger Module gibt, die dann Ports und diverse Zusatzfunktionen einschränken hat den Ruf als die universelle High-End Lösung gekillt bei den G-Sync Modulen. So dass selbst die Leute die bereit sind den Preis zu zahlen andere Monitore in Erwägung ziehen müssen zB für USB-C Docking Support, oder Eingängen um Konsolen gut anzuschließen. Oder auch nur 2 PCs mit maximalen Hz.
Und wer eine Nvidia GPU hat schaut immer noch besser auf die Kompatibilitätslisten von Nvidia anstatt auf ob das Display FreeSync zertifiziert ist oder nicht.
Ergänzung ()

Sternengucker80 schrieb:
Sie haben die Kerne verbessert, aber nicht erfunden. Ist ist immernoch ein ARM Chip.
Viel zu ungenau. Die ISA ist ARM. Die Kerne sind selbst entwickelt. Das ist schon ein himmelweiter Unterschied zu eingekauften ARM Cortex Kernen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sentry0815, Hoebelix und Wechhe
Ray519 schrieb:
Ich würde nicht sagen, dass "FreeSync" sich durchgesetzt hat. Eher es hat sich Adaptive Sync und HDMI VRR durchgesetzt. Und wenn man das hat, kommt es nur darauf an, wie gut der Monitor das umsetzt. Und mit der Marke FreeSync hat das eben eigentlich herzlich wenig zu tun.
Stimmt, da hast du Recht. Wird oft durcheinander gebracht und mir ist das auch passiert.

Da wo heute "FreeSync" drauf steht (oder auch "GSync compatible") ist am Ende nur Adaptive Sync / HDMI VRR drin und die Lables von AMD/NVIDIA bedeuten nur, dass bestimmte Sachen unterstützt werden wie range von x bis y Hz oder maximale Wiederholungraten.
So ist es richtig, oder?


@Grestorn
Du zitierst mich, wirfst mir was vor und scheibst dann noch weitere, allgemeine Anschuldigungen, die ich nicht in diesem Thread so gesagt habe. Bitte trenn eine konkrete Anschuldigung an mich doch von allgemeinen Anschuldigungen.
Ich habe nirgends erwähnt, dass AMD ein Heilsbringer wäre. Und wo habe ich NVIDIA "moralisch abgestraft" (was auch immer das heißt)?
Ich habe sogar in mehreren meiner Beiträge zugestimmt, dass NVIDIAs GSync in einigen Szenarien besser ist als die anderen Lösungen.
Du scheinst immer noch nicht verstanden zu haben, in welchen Punkten ich dir widersprochen habe und Quellen hast du auch noch keine geliefert für deine Behauptungen, dass AMD von NVIDIA was geklaut habe und sie aktiv torpediert haben sollen. Stattdessen siehst du in meiner inhaltlichen Kritik (und auch der Kritik von anderen Leuten hier) an deinen Beiträgen einen Angriff auf NVIDIA und wehrst dich dagegen. Warum kannst du das nicht trennen?
 
  • Gefällt mir
Reaktionen: Hoebelix
Wechhe schrieb:
für deine Behauptungen, dass AMD von NVIDIA was geklaut habe
Schau her: Ich habe NIE behauptet, dass AMD etwas von NVidia geklaut hat.

Ich habe geschrieben, dass AMD Innovationen von NVidia mit eigenen Lösungen egalisiert - was auch absolut i.O. ist.

Wenn NVidia da etwas dagegen hätte würden sie ein Patent anmelden. Dass das nicht passiert - auch bei Technologien wie Upscaling mit einer Technik, wie sie DLSS einsetzt, ist das nicht passiert, obwohl das ja durchaus patentwürdig gewesen wäre - ist auch bezeichnend.

Dass ich einen Angriff auf NVidia sehe, ist wohl nicht überraschend, angesichts des massiven Gegenwinds und der Polemik hier im Thread gegen GSync und NVidia im Allgemeinen. Auch Deine Antworten an mich sind in dieser Hinsicht mindestens so polemisch, wie Du es z.B. Hoebelix unterstellt hast.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: autopilot
Grestorn schrieb:
Schau her: Ich habe NIE behauptet, dass AMD etwas von NVidia geklaut hat.

Hier ein paar Beispiele:

Grestorn schrieb:
Ich freu mich darauf. NVidia mag teurer sein, was manche hier zum ausflippen bringt, aber sie treiben die Technik voran, was eben Geld kostet. Nicht wie andere, die immer nur hinterherhecheln.

Ich goutiere Investition in Technologie gerne auch mit meinem Geld. Da ist es dann viel sinnvoller angelegt, als bei Firmen, die nur abschauen und versuchen, die Innovation mit angeblicher "Offenheit" (die gar keine ach so tolle Tat für den Kunden ist, da es ja keinen Vorteil für den Nachmacher mehr wäre, die Technik "exklusiv" anzubieten) zu zerstören, statt mal etwas eigenes, innovatives zu entwickeln. Und auch dann trotzdem am Ende immer nur die zweitbesten sind.

Grestorn schrieb:
Nein. GSync war bereits lange in der Entwicklung. AMD ist nur aufgesprungen und hat es ins Konsortium getragen, um die drohende Innovation schon zu entwerten, bevor diese auf den Markt kam.

Grestorn schrieb:
Bei GSync / VRR wäre das nicht der Fall gewesen. Also hat man versucht, das Feature exklusiv anzubieten (und das wurde von AMD sehr erfolgreich torpediert).

Grestorn schrieb:
AMD ist nicht auf die Idee gekommen, sondern haben die Innovation von NVidia einfach torpediert, weil sie rechtzeitig davon Wind bekamen. So einfach ist das.


Grestorn schrieb:
NVidia GPUs können ja auch keine Freesync Premium Features nutzen.
Vermutlich Haarspalterrei, aber ich denke schon, dass NVIDIA GPUs die gleichen Funktionen wie AMD GPUs eines Monitors benutzen können, der "FreeSync Premium" hat. Das Siegel FreeSync Premium sind ja nur blumige Werbeversprechen. Der Monitor selbst bietet das Feature ja über AdaptiveSync / HDMI VRR an.

1724326300340.png

Quelle: AMD
 
Wechhe schrieb:
Vermutlich Haarspalterrei, aber ich denke schon, dass NVIDIA GPUs die gleichen Funktionen wie AMD GPUs eines Monitors benutzen können, der "FreeSync Premium" hat.
Jain! Bevor mit HDMI2.1 VRR Teil der Spezifikation wurde, war "Freesync" bei solchen Monitoren und TV Geräten rein proprietär.
https://hexus.net/tech/news/graphics/88694-amd-announces-freesync-hdmi/

Ich habe die Diskussion jetzt nur rudimentär überflogen, aber es ist keinesfalls so, als hätte AMD damals nur mit der VESA zusammen Adaptive Sync (DP) gepuscht, sie haben auch ihr proprietäres Freesync über HDMI entwickelt. Letzteres lässt sich mit einer Nvidia GPU schlichtweg nicht nutzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: autopilot, Wechhe, Grestorn und eine weitere Person
Wechhe schrieb:
So ist es richtig, oder?
Ja. Das ist leider überall ein Problem. Wo Marketing im Vordergrund steht weil die darunter liegenden Standards als "zu kompliziert" gesehen werden. Auch bei USB(-C) and TB4 ähnliche Thematik.
Und Zertifikate oder Marketingbegriffe wie "TB4" mit soliden Mindestgarantien haben ja auch einen echten Mehrwehrt um es einfacher zu machen, was man erwarten kann. Aber halt eben nur in dem System dieser Marke. Wenn man Herstellerübergreifend sein will, dann muss sich notgedrungen mit den komplexeren Dingen hinter der Marke befassen und ich als Technik Nerd bin immer dafür das auch immer so anzugeben. Wer vereinfachen will soll es halt überspringen und kauft dann nur Dinge von der selben Marke.
Und wenn die Hersteller das wie hier nicht freiwillig machen, sollte jeder Reviewer das klipp und klar angeben oder lautstark dem Hersteller in die Schuhe schieben, dass er nicht weiß, was sein Produkt kann.
Wechhe schrieb:
Der Monitor selbst bietet das Feature ja über AdaptiveSync / HDMI VRR an.
Fast.
AMD hat in ihrem proprietären FreeSync HDMI auch HDR Support integriert. Die ersten FreeSync Displays mit HDR haben das genutzt. Und das ist nicht kompatibel und hat scheinbar auch mit mancher Software Probleme (ich vermute mal, das war um Tone Mapping für HDR vom Monitor auf die GPU auszulagern, damit die Monitorhersteller es einfacher hatten und nicht so viel falsch machen konnten. Gibt ja durchaus viele Displays die angeblich HDR können aber dann eklatante Fehler in der Darstellung machen).

Soweit ich weiß, ist "FreeSync HDR" nicht spezifisch, ob das jetzt nach HDMI VRR + normale HDR Standards ist oder nur FreeSync HDMI mit verkapptem, AMD-spezifischem HDR.

Aber ich würde hoffen das die aktuellen High-End Monitore wegen FRL eh HDMI 2.1 bieten müssen und dann auch damit HDR können. Auch für die Konsolen. Aber evtl. nutzt AMD selbst dann doch noch ihr eigenes Ding das leicht anders arbeitet und evtl. zu anderem Tone Mapping führt. Ich habe keine Ahnung wie die Chancen stehen was dann besser aussehen würde oder ob AMD das noch so macht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wechhe, Hoebelix und Grestorn
Wechhe schrieb:
Hier ein paar Beispiele:
Da steht nirgendwo geklaut. Ich schreibe nur, dass AMD Innovationen von NVidia mit eigenen oder Mitteln der Community / Industrie nachbaut.
Und damit die Investition in die Innovation zumindest teilweise entwertet. Das ist etwas ganz anderes als klauen.

Und es ist einfach eine Tatsache. Das kann man mögen oder nicht, aber leugnen kann man es kaum.

Und ich persönlich gebe lieber etwas mehr Geld aus, für eine Firma, die sich innovativ aufstellt, auch wenn sie dabei proprietär und etwas teurer ist. Denn nur so wird Technik vorangetrieben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: autopilot
Grestorn schrieb:
Polemisch und einseitig siehst Du offenbar jeden Beitrag, der nicht Deiner Meinung entspricht.
Naja, meinem Beitrag gegenüber hat er da ja nicht komplett unrecht. :D
Ein wenig Polemik habe ich als Stilmittel ja durchaus bewusst eingesetzt - wir sind hier ja nicht im Debattierclub mit klaren Regeln in der Diskussionsführung und Punktrichter. ;)
 
  • Gefällt mir
Reaktionen: Wechhe
xexex schrieb:
Jain! Bevor mit HDMI2.1 VRR Teil der Spezifikation wurde, war "Freesync" bei solchen Monitoren und TV Geräten rein proprietär.
https://hexus.net/tech/news/graphics/88694-amd-announces-freesync-hdmi/

Ich habe die Diskussion jetzt nur rudimentär überflogen, aber es ist keinesfalls so, als hätte AMD damals nur mit der VESA zusammen Adaptive Sync (DP) gepuscht, sie haben auch ihr proprietäres Freesync über HDMI entwickelt. Letzteres lässt sich mit einer Nvidia GPU schlichtweg nicht nutzen.
Ja, gute Klarstellung von dir. Ich meinte das auch so, merke nun aber, dass ich das nicht klar genug ausgedrückt habe.
Danke!


@Hoebelix - nur zum Klarstellen:
Meine Aussage der Polemik dir gegenüber galt nur zur Unterscheidung, dass ich dir inhaltlich zustimme, aber nicht der Stilmittel, die eventuell andere Inhalte/Meinungen implizit darstellen. Das sollte keine Kritik sein, sondern nur deutlich machen, wo ich zustimme.

Ich habe in der Antwort (die sich super inhaltlich auf andere Beiträge bezog) aber gemerkt, dass du das auch so verstanden hast - von daher denke ich, dass es so passt oder? :schluck:
 
  • Gefällt mir
Reaktionen: Hoebelix
Ray519 schrieb:
Du könntest die EDID Infos ansehen. Denn dort sollte drin stehen was der Monitor angibt.

Da steht der gleiche Wert, wie in der Bedienungsanleitung:

Timing characteristics
Horizontal scan range.... 255-255kHz
Vertical scan range...... 48-165Hz
Video bandwidth.......... 650MHz
CVT standard............. Not supported
GTF standard............. Supported
Additional descriptors... None
Preferred timing......... No
Detailed timing #1....... 2560x1440p at 60Hz (16:9)
Modeline............... "2560x1440" 241,500 2560 2608 2640 2720 1440 1443 1448 1481 +hsync -vsync

Der mit dem fps-Limiter von Overwatch 2 ermittelte Umschaltpunkt für Frame Doubling ist 55 fps, ab da zeigt "Display Info" im Monitormenü den doppelten Wert als Bildwiederholfrequenz an.
 
JMP $FCE2 schrieb:
Da steht der gleiche Wert, wie in der Bedienungsanleitung:
Ja, den Teil hatte ich erwartet. Es könnte maximal sein, dass es proprietäre EDID Extensions gibt (wie die Nvidia oder AMD Erweiterungen die ich gezeigt habe) und dass da in den Bytes zusätzliche Infos drin stehen, die der jeweilige Hersteller nutzt.

Dafür müsste man Monitore mit verschiedenen Magic Bytes sehen oder die Werte da drin zu den tatsächlich vom Treiber genutzten Wert korrelieren.

Aber zB bei der G-Sync Extension gibt es nur 2 Byte Inhalt. Und die sind mit meinem alten (non-Adaptive Sync) und G-Sync Ultimate Monitor beide immer "01 01". Also scheint nichts Modell-spezifisches drin zu stehen.

Deshalb vermute ich wirklich, dass das aus einer Treiber Datenbank kommt, wie so vieles.
Und es vermutlich ein Eingeständnis ist, dass der Monitor die offiziell angegebenen Grenzen nicht sinnvoll einhalten kann und AMD es weiß, aber weiterhin bewerben lässt, evtl sogar mit ihren Logos etc.
 
Ray519 schrieb:
Und es vermutlich ein Eingeständnis ist, dass der Monitor die offiziell angegebenen Grenzen nicht sinnvoll einhalten kann

Die Grenzen können ja in Normalsituationen passen, nur eben nicht bei extremen Sprüngen auf den doppelten Wert.

Es bringt ja auch keinen Vorteil, ausgerechnet die Untergrenze als Umschaltpunkt zu nehmen, wenn im Prinzip jeder Wert zwischen 48 Hz und 165/2=82,5 Hz funktioniert. Im Sinne der Fehlerminimierung würde ich da ganz pauschal die "goldene Mitte" wählen.

Am besten wäre es, wenn der Umschaltpunkt manuell veränderbar wäre. Dann könnte man bei Problembären einfach auf 82 Hz stellen, fps-Limit auf 80 rein, und dauernd verdoppeln.
 
Ray519 schrieb:
Ich würde nicht sagen, dass "FreeSync" sich durchgesetzt hat. Eher es hat sich Adaptive Sync und HDMI VRR durchgesetzt. Und wenn man das hat, kommt es nur darauf an, wie gut der Monitor das umsetzt. Und mit der Marke FreeSync hat das eben eigentlich herzlich wenig zu tun.
Das kommt doch auf das Gleiche hinaus. Letztlich war es AMD, die bei der VESA um eine Spezifikationsänderung/-erweiterung hinsichtlich FreeSync beworben hat. Im März 2014 kam dann dieses Whitepaper von der VESA mit der Einführung, was übrigens von einem Architekten/Ingenieur von AMD geschrieben wurde.

FreeSync ist de facto nur der "Name des Schalters im Treiberinterface von AMD". Der Schalter aktiviert AdaptiveSync in Spielen. Genau so, wie der Schalter "G-Sync Compatible" AdaptiveSync in Spielen aktiviert.
 
Sternengucker80 schrieb:
Der M1, ist ARM IP. Wofür sie eine Lizenz. Sie haben die Kerne verbessert, aber nicht erfunden. Ist ist immernoch ein ARM Chip.
Apple hat eine Lizenz für die ARM Instruction Set Architecture. Das Kerndesign ist von Grund auf eine komplette Eigenentwicklung.
 
  • Gefällt mir
Reaktionen: Ja_Ge
Zurück
Oben