News AMD FreeSync: Neue Anforderungen mit höheren Bildwiederholraten

Suspektan schrieb:
10 bit Quantisierung ist allerdings eigentlich Vorraussetzung für hdr
Ich weiß nicht wie exakt es umgesetzt wird, aber das 8 Bit + Dithering gibt es. Das macht Windows / die Treiber ständig wenn du HDR anschaltest, aber keine Bandbreite für 10 Bit übrig ist. Wird von Windows auch genauso angezeigt wenn du HDR anschaltest, aber nur 8 Bit zur Verfügung hast. Ich war davon ausgegangen, dass die einfach weniger Präzision haben als die 10 Bit Werte. Und das dann mit spatial dithering ein wenig kompensieren. Wenn man Farbverlauf-Tests anzeigt, kann man auch sehen, dass es mehr sichtbare Stufen hat als auf den vollen 10 Bit und verrauschter ist, aber immer noch besser als den selben Verlauf 8 Bit SDR (https://www.rtings.com/monitor/tests/picture-quality/gradients mit Windows Photos anzeigen reicht aus, wenn man rein zoomt).
Vllt gehen sie auch neu Quantisieren. Aber es gibt ja auch die 12 und 14 Bit von Dolby Vision die auch auf BT.2020 PQ (SMPTE ST 2084, habe meine selten genutzten Fachbegriffe verwechselt) basieren.
Also suboptimal, gerne. Aber möglich und weit genug verbreitet, dass es mein TV und meine Monitore das alle können, insbesondere über HDMI mit Limit auf TMDS 18G und 4K60.
 
Zuletzt bearbeitet:
Ray519 schrieb:
Ich weiß nicht wie exakt es umgesetzt wird, aber das 8 Bit + Dithering gibt es. Das macht Windows / die Treiber ständig wenn du HDR anschaltest, aber keine Bandbreite für 10 Bit übrig ist. Wird von Windows auch genauso angezeigt wenn du HDR anschaltest, aber nur 8 Bit zur Verfügung hast. Ich war davon ausgegangen, dass die einfach weniger Präzision haben als die 10 Bit Werte. Und das dann mit spatial dithering ein wenig kompensieren. Wenn man Farbverlauf-Tests anzeigt, kann man auch sehen, dass es mehr sichtbare Stufen hat als auf den vollen 10 Bit und verrauschter ist, aber immer noch besser als den selben Verlauf 8 Bit SDR (https://www.rtings.com/monitor/tests/picture-quality/gradients mit Windows Photos anzeigen reicht aus, wenn man rein zoomt).
Das Dithering übernimmt aber das Panel und nicht das signal selbst

rtings verwendet für den Test doch das übliche 10 bit hdr signal, Bandbreite wird damit nicht eingespart.
 
Suspektan schrieb:
Das Dithering übernimmt aber das Panel und nicht das signal selbst
Nein. Hier verwechselst du. Man kann Dithering in der Zeit machen oder über den Ort. Temporal Dithering ist was FRC macht. Wo du ein Panel hast das zB nur 6 Bit versteht, du aber zB 8 Bit Inputs hast und deshalb Pixel des Panels die zwischen 2 in 6 Bit darstellbaren Werten liegen sollten über die Zeit zwischen den beiden angrenzenden Werten wechseln. Das wird gemacht vom Controller / Scaler. Und der Host weiß davon nichts.

Ich rede und die GPUs machen Spatial Dithering. Wo das mit benachbarten Pixeln passiert und im Bildsignal drin ist. Völlig andere Technik. Warum würde Windows es sonst angeben.
1710002552737.png

1710002576992.png


Monitor kann nur 4xHBR3, kein DSC. Deshalb geht 10 Bit nicht mit 144Hz.
Ergänzung ()

Suspektan schrieb:
rtings verwendet für den Test doch das übliche 10 bit hdr signal, Bandbreite wird damit nicht eingespart.
Dazu habe ich auch nichts gesagt. Ich meinte den Test-Farbverlauf, der intern 16 Bit Präzision hat herunterladen. Und auf einem eigenen Monitor anzeigen. Mit 8 Bit SDR, 8 Bit Dithered HDR und 10 Bit HDR. Und man kann die Unterschiede selbst sehen. Um zu zeigen, dass HDR auch mit 8 Bit geht und auch mit quasi jedem Monitor der HDR versteht. Schlechter als 10 Bit, aber es geht und ist immer noch besser als SDR in dem was es kann.
Und deshalb kann das kein sinnvoller Grund sein HDR nicht zu können (andere Gründe mag es geben. Nur diesen nicht).

Edit: Link zu Quell-File von RTings https://www.rtings.com/images/test-materials/2016/gradient-16-bit.tif. Das war in dem Artikel über die Gradienten Test gar nicht verlinkt. Uups. Die haben einen 2. Artikel wo sie es verlinken. Dafür in dem von mir verlinkten schon der Unterschied zwischen Temporal und Spatial Dithering erklärt...
 
Zuletzt bearbeitet:
Bin zu blöd für das Thema und bräuchte mal Euren Input.

Ich habe derzeit einen Dell S2721DGF - laut Datenblatt hat dieser folgendes an Bord:

Adaptive Sync, AMD FreeSync Premium Pro (48-165Hz via DisplayPort, 48-144Hz via HDMI, mit LFC-Support, mit HDR), NVIDIA G-Sync Compatible zertifiziert (48-165Hz via DisplayPort)

An meiner 4070 Super wird der Dell als G-Sync kompatibles Gerät angezeigt.

Ich wollte schon länger einen weißen Monitor haben und hatte mir den MSI MAG 274QRFWDE angesehen (recht ähnliche von den Specs im Vergleich zum Dell). Nur hat dieser lediglich AMD FreeSync Premium laut Datenblatt und keine explizit erwähnte G-Sync Kompatibilität.

Frage: ist das nur ein Feature auf dem Papier oder wäre dies irgendwie nachteilig im "normalen" Gaming-Betrieb im Vergleich zum Dell?
 
Ray519 schrieb:
Ich rede und die GPUs machen Spatial Dithering. Wo das mit benachbarten Pixeln passiert und im Bildsignal drin ist. Völlig andere Technik.
Ja und rtings leitet die Erklärung der beiden Techniken ein mit
"However, many modern 8-bit displays use a technique called 'dithering', allowing them to produce as many colors as a native 10-bit panel. '"

Dort findet sich kein Beleg zu deiner Aussage, das spatial dithering würde gpu-seitig erfolgen.

https://www.prepress-secrets.at/index_files/c71dd253b6fd1668a23a76547503c4f0-112.html


Die Wahrheit ist aber, dass selbst viele 10-Bit-Monitore nur 8-Bit-Panels verwenden und somit keine echten 10-Bit-Monitore sind. Damit sie dennoch als solche verkauft werden können, bedienen sich die Hersteller an technischen Tricks, um die fehlenden 2 Bit zu »erzeugen«.

Bei den Tricks handelt es sich um räumliches (spatial) oder zeitliches (temporal)
Dithering:

  • Beim räumlichen Dithering werden zwei Farben eng nebeneinander dargestellt, sodass sie bei normalem Betrachtungsabstand eine Mischfarbe ergeben, die eigentlich nicht dargestellt werden kann.
Es geht wohl aus dem Kontext hervor, dass die MONITORhersteller gemeint sind, wo siehts du da einen Zusammenhang zur gpu?
ich finde leider kaum Infos zum Spatial Dithering, weil es wohl selten eingesetzt wird


Ray519 schrieb:
Völlig andere Technik. Warum würde Windows es sonst angeben.
Weil dort die die Displayspezifikationen ausgelesen werden?
Beobachte mal die Überschrift
Abgesehen davon wird in deiner Abbildung "spatial dithering" nicht genannt
Dein Display unterstützt eben nicht 10 bit bei 144Hz, weshalb es mittels dithering simuliert wird.


Ich sagte übrigens nie, die 10 bit bedingt höhere Bandbreite von hdr sei der Grund für die Inkompatibilität von freesync, sondern nur, dass hdr eigentlich an die 10 bit Quantisierung gebunden ist und die Bandbreite gegenüber 8bit zunimmt.

Übrigens gilt die hdr Beschränkung kurioserweise auch nur für Monitore, TVs mit freesync premium (wie samsung/ panasonic/ lg oleds) unterstützen problemlos 10 bit hdr. (Z.B. in Kombination mit einer xbox)
Frag mich nicht warum, ich versteh es nicht.
Fakt ist, dass amds eigene hdr Implementierungen nerven
 
Suspektan schrieb:
Weil dort die die Displayspezifikationen ausgelesen werden?
Soll ich dir meine EDID Daten schicken um zu beweisen dass sich da drin nichts ändert?
Ganz allgemein, die EDID Daten sind vllt individuell pro Port und können von OSD Optionen beeinflusst werden, aber die ändern sich nicht mit dem was der Host sendet. Wie denn auch? Die werden ausgelesen, dann entscheidet die GPU / Treiber / OS was sie machen wollen und senden es. Und da hat auch noch nie etwas drin gestanden ob der Monitor FRC oder irgendwas anderes hat. Die Daten sind dazu da den Monitor zu erkennen und zu definieren was man ihm senden kann. Nicht wie der Monitor dass dann Intern hinbekommt.

Was auch immer der Monitor macht mit FRC oder nicht oder meinetwegen auch noch Spatial Dithering on Top, kriegt der Host nicht mit. Der Monitor sagt "ich verstehe 10 Bit" und das wird gesendet. Wie der Monitor die 10 Bit nutzt, weiß der Host nicht. Wie farbecht der Monitor ist, weiß der Host nicht. Zumal wir immer noch von HDR reden, wo in den 10 Bit Helligkeiten drin sind, die nicht mit dem Panel dargestellt werden können. Du brauchst LCD-Backlight dazu. Das hießt die gesamten 10 Bit gehen bei HDR eh nicht ans Panel. Sondern müssen auch teilweise in Variation der Hintergrundbeleuchtung umgesetzt werden.


Suspektan schrieb:
Abgesehen davon wird in deiner Abbildung "spatial dithering" nicht genannt
Du meinst meine Screenshots? Ja und? Glaubst du es ist Temporal Dithering das da genannt wird? Wie soll man das denn senden, ohne mehr Frames zu senden? Wenn du das glaubst, dann brauche ich nicht weiter zu reden.
Suspektan schrieb:
Dein Display unterstützt eben nicht 10 bit bei 144Hz, weshalb es mittels dithering simuliert wird.
SAG ICH DOCH. Ich habe sogar erklärt wieso, weil wenn man ein bisschen was über EDID, Displayport und Videotimings weiß, kann man das einfach ausrechnen. Nur dass der Monitor nicht kompensieren kann, was gar nicht erst durch das Kabel gesendet werden kann. Weshalb diese Idee schwachsinnig ist. Die einzige Möglichkeit ist, dass die GPU es macht und was anderes sendet.

Suspektan schrieb:
sondern nur, dass hdr eigentlich an die 10 bit Quantisierung gebunden ist und die Bandbreite gegenüber 8bit zunimmt.
Und ich habe dir Argumente geliefert wieso diese Aussage falsch ist. Oder die Quantisierung eben nicht bedeutet, dass man auch 10 Bit senden muss, weil du auch mit 8 Bit HDR haben kannst. Man könnte ja auch einfach die untersten 2 Bit weglassen. Weniger Präzision, ohne den Wertebereich anzutasten (hierzu habe ich explizit gesagt, ich weiß nicht, wie diese 8 Bit HDR Signale gemappt sind, das war also nur eine Idee).
Suspektan schrieb:
und die Bandbreite gegenüber 8bit zunimmt.
Wenn man 3x10 Bit pro Pixel anstatt 3x8 Bit sendet, nimmt die Bandbreite zu, klar. Nur dass man das nicht muss, sondern kann und HDR unabhängig davon ist. Das war mein Argument für:
HDR an oder aus, muss der Monitor nur wissen. Und dann entscheidet es bloß über die Interpretation der Werte, nichts anders ändert sich.
Du kannst ja auch genauso in SDR bleiben und viele Monitore auf 10 Bit zwingen, inklusiver aller Monitore die HDR10 verstehen. Nvidia Treiber haben die Optionen dafür. Farbraum / Interpretation der Werte sind nicht direkt abhängig von Bittiefe der Werte.
Suspektan schrieb:
Fakt ist, dass amds eigene hdr Implementierungen nerven
Und meine Fragen liefen darauf hinaus, ob es handfeste Gründe gibt warum du sagst, FreeSync ist daran Schuld und erlaubt es nicht vs. die Monitore können halt einfach kein gutes HDR und AMD hat es nicht Teil der Zertifizierung gemacht, die Qualität des HDR zu verifizieren. Ich habe auch einen Monitor der HDR versteht, bei dem es aber grässlich aussieht und alle Farben verfälscht.

Weil bisher hast du nichts gesagt, was begründet wieso dass an FreeSync hängen sollte. Das einzige was ich gesehen habe ist, dass es verdächtig ist, dass AMD in ihrem FreeSync Block in EDID die statischen HDR Metadaten listet. Weil dafür gibt es auch einen ganz normal standardisierten Block und es macht nicht viel Sinn, dass AMD das nochmal zusätzlich erwähnt.


Und sonst so? Hast du die Zeit genutzt um mal zu testen, was ich beschrieben hatte? Dass du mit ner Nvidia GPU (und vermutlich auch AMD GPU) einfach HDR anschalten und die Farbtiefe auf 8 Bit reduzieren kannst?
Nur Intel hat dafür keinen manuellen Hebel und macht es schlichtweg automatisch je nach SDR/HDR und der verfügbaren Bandbreite.

Suspektan schrieb:
Übrigens gilt die hdr Beschränkung kurioserweise auch nur für Monitore, TVs mit freesync premium
Dann wäre das der Beweis, dass es nicht am FreeSync Protokoll liegt. Oder aber du fängst auch an HDMI VRR mit FreeSync HDMI zu verwechseln.

Fyi. via HDMI Eingang am selben Monitor
1710022203279.png

Und schau mal hier, der MST-Hub durch den ich das gerade durch sende sieht das DP Signal auch und hat Diagnosedaten dazu.
Code:
TX1: 4lane HBR2 mode, EFM enabled, SSC enabled, output enabled
   3840x1600@85.14Hz RGB 8bpc, pixel clock: 567.4MHz, Audio enabled
   HT: 4000, VT: 1666, HA: 3840, VA: 1600, HS: 112, VS: 63, HSW: 32, VSW: 5, HPOL: 0, VPOL: 1
   DPCD 202~205h: 77 77 01 03, symbol error recently: 8000 8000 8000 8000, in 1s: 8000 8000 8000 8000
 
Zuletzt bearbeitet:
McQ schrieb:
Nur hat dieser lediglich AMD FreeSync Premium laut Datenblatt und keine explizit erwähnte G-Sync Kompatibilität.
Freesync Premium ist DP Adaptive Sync, genauso wie Gsync Compatible via Displayport.

Es sollte also gehen. Rein theoretisch könnten Fehler auftreten, wenn Nvidia das Gerät nicht als Gsync Compatible zertifiziert hat, aber das muss nicht sein.

Es kann nur sein, dass du Gsync erst noch explizit aktivieren musst und es nicht ab Werk eingeschaltet wird, wenn das Gerät nicht offiziell zertifiziert ist.
1710029240894.png
 
  • Gefällt mir
Reaktionen: McQ
Ray519 schrieb:
Ganz allgemein, die EDID Daten sind vllt individuell pro Port und können von OSD Optionen beeinflusst werden, aber die ändern sich nicht mit dem was der Host sendet.
Hab ich auch nicht behauptet, sobald du deinen Monitor aber auf 144Hz schaltest bzw. über das Signal ihn dazu veranlasst, wird dir doch automatisch 8bit + dithering, statt 10 bit angezeigt?

Ich sagte aber nicht, dass die von windows ausgelesenen Displayspezifikationen ausschließlich edid Daten darstellen.

Ray519 schrieb:
Zumal wir immer noch von HDR reden, wo in den 10 Bit Helligkeiten drin sind, die nicht mit dem Panel dargestellt werden können. Du brauchst LCD-Backlight dazu. Das hießt die gesamten 10 Bit gehen bei HDR eh nicht ans Panel. Sondern müssen auch teilweise in Variation der Hintergrundbeleuchtung umgesetzt werden.
Der Displaytreiber bzw. tcon board übernimmt natürlich die Ansteuerung für den Verbund aus Panel und backlight, darf hier nicht isoliert betrachtet werden.


Ray519 schrieb:
Du meinst meine Screenshots? Ja und? Glaubst du es ist Temporal Dithering das da genannt wird? Wie soll man das denn senden, ohne mehr Frames zu senden?
Überhaupt nicht, ich sprach von monitorseitigem Dithering, weil ich keine eindeutigen Infos zu gpu Dithering finden konnte, nur Widersprüchlichkeiten.
Das geht dann soweit https://www.computerbase.de/forum/threads/hdr-unter-windows-howto.2046426/post-26175204 (k.A, worauf seine Aussage basiert, müsste man ihn mal fragen)
der von dir genannte rtings Artikel bezieht das Dithering auch nur allgemein auf das Panel selbst, daher auch meine Annahme.
Wenn die Bandbreite des Anschlusses kein 144hz 10 bit (mit voller Auflösung etc.) zulässt, kann das Signal natürlich auch nicht so übertragen werden, klar.
Limitiert hier der Anschluss oder die interne Datenverarbeitung des Displays?

Ray519 schrieb:
Und ich habe dir Argumente geliefert wieso diese Aussage falsch ist. Oder die Quantisierung eben nicht bedeutet, dass man auch 10 Bit senden muss, weil du auch mit 8 Bit HDR haben kannst.
Womit man den hdr standard verlässt und an sich gröber auflöst als sdr mit 8 bit.
Hdr arbeitet mit absoluten Werten und der Maximale Bitwert (1023 bzw. 940) ist IMMER 10000 nits zugewiesen.

Peak Luminance & Bit Levels

As the PQ standard is an absolute standard, not relative, each and every luminance level has an equivalent bit level. For a 10-bit signal the levels are as follows.
20240310_125558.jpg

https://www.lightillusion.com/what_is_hdr.html


Hdr umfasst also einen deutlich größeren Helligkeitsbereich mit 10000 nits als sdr (wird auf ca. 100 nits kalibriert, aber selbst mit 300 nits Zielhelligkeit wäre der Umfang noch deutlich geringer).
Wenn nun 256 Stufen (8 bit bzw. 2^8) statt 1024 (10 bit bzw. 2^10) auf 10000 nits verteilt werden, sind die Abstufungen deutlich größer als 8 bit auf 100 nits. (Oder von mir aus auchauf 300 nits im hellen Raum)
Kann man natürlich dennoch machen, hat aber nichts mehr mit hdr10 oder pq10 Format (ohne Metadaten, von Spielen verwendet) im eigentlichen Sinne zu tun.
8 bit hdr löst ungenauer auf als 8 bit sdr, was man nicht ernsthaft wollen kann

Was glaubst du, warum es sich hdr10 und pq10 nennt?

Ray519 schrieb:
Man könnte ja auch einfach die untersten 2 Bit weglassen.
Was sind die "untersten 2 Bit"?

Ray519 schrieb:
Wenn man 3x10 Bit pro Pixel anstatt 3x8 Bit sendet, nimmt die Bandbreite zu, klar. Nur dass man das nicht muss, sondern kann und HDR unabhängig davon ist
An sich nicht, s.o.
Das hdr10 /pq10 Format setzt eben mehr als nur einen höheren Hdlligkeitsumfang voraus.

Ray519 schrieb:
HDR an oder aus, muss der Monitor nur wissen. Und dann entscheidet es bloß über die Interpretation der Werte, nichts anders ändert sich.
Naja, weil die gpu die rgb Wertetripel in 8 bit natürlich bereits ihrerseits korrekt zuordnet

Ray519 schrieb:
Farbraum / Interpretation der Werte sind nicht direkt abhängig von Bittiefe der Werte.
Rgb Wertetripel a, b,c in 10 bit entspricht nicht a, b, c in 8 bit, muss von der gpu also entsprechend zugeordnet werden.
Eine veränderte Bittiefe bedingt also andere Wertetripel, wenn du das unabhängig nennst, ok



Ray519 schrieb:
Und meine Fragen liefen darauf hinaus, ob es handfeste Gründe gibt warum du sagst, FreeSync ist daran Schuld und erlaubt es nicht vs. die Monitore können halt einfach kein gutes HDR und AMD hat es nicht Teil der Zertifizierung gemacht, die Qualität des HDR zu verifizieren.
Amd hat für freesync + freesync premium keine hdr Unterstützung laut ihren Specs vorgesehen, bei wem willst du sonst die Verantwortung dafür sehen außer amd selbst?
Ich spreche nicht von der hdr Qualität des jeweiligen displays, sondern amd's grdstzl. fehlender hdr Unterstützung bei Monitoren mit diesen vrr Zertizierungen.
Wenn selbst ein hdr oled monitor mit "freesync premium" auf hdr verzichten muss, braucht man die Qualität des Monitors bzw. dessen hdr Darstellung für amd's Entscheidung wohl nicht mit einbeziehen.
https://www.cyberport.de/?DEEP=6126-2CY&APID=278&MCSUQ9Mjc4

Ray519 schrieb:
Weil bisher hast du nichts gesagt, was begründet wieso dass an FreeSync hängen sollte
Woran denn sonst, wenn selbst simples hdmi vrr bzw. wie nvidia es nennt "Gsync compatible" vrr mit hdr erlaubt, ganz ohne mehrere angehängte Vokabeln der Superlative?





Ray519 schrieb:
Und sonst so? Hast du die Zeit genutzt um mal zu testen, was ich beschrieben hatte? Dass du mit ner Nvidia GPU (und vermutlich auch AMD GPU) einfach HDR anschalten und die Farbtiefe auf 8 Bit reduzieren kannst?
Mein hdr oled notebook kann kein hdr Signal ausgeben, da nur hdmi 1.4 vorhanden und den pc nutze ich schon lange nicht mehr.
Ob mein notebook die Bittiefenreduzierung zulässt, muss ich mal testen.
Ich verwende aber sicher kein tiff Bildformat für einen hdr test, denn hdr ist ein VIDEOformat, Bilder liegen grdstzl. nicht in hdr vor, bestenfalls windows "hdr screenshots".

https://www.rtings.com/monitor/tests/picture-quality/gradients

SETUP

For our test, we only use a Nikon D750 camera and a PC connected to the monitor being tested. We ensure that the monitor is in SDR mode with local dimming off (if applicable), and we set up the camera with an F4.0 aperture lens, a 1/15 sec. shutter time, and an ISO of 200.

2 - The second step is to take a photo of the screen in a dark room displaying our gradient image. The image is displayed through the NVIDIA 'High Dynamic Range Display SDK' program. For 8-bit monitors, we display the image at 8-bit without any other process. However, for 10-bit panels, we first open the gradient image, then change the Tonemap Mode to 'Linear', which is essentially a passthrough mode. Before taking the photo, we adjust the brightness so the brightest part of the image is at 100 cd/m² (on the right side of the second row

Der Monitor wird also im sdr mode getestet und die Maximalhelligkeit auf 100 nits gestellt, was hat das bitte mit hdr zu tun?
sehr dubios

Gut, dass echtes hdr gradient testmaterial zur Verfügung steht.
https://drive.google.com/drive/folders/1JSfP3EGvA9aM4gYCrI09Y_CdFP10KTby

Ergänzung ()

Ray519 schrieb:
Dann wäre das der Beweis, dass es nicht am FreeSync Protokoll liegt.
Unterschiedliche Implementierungen?

Ray519 schrieb:
Oder aber du fängst auch an HDMI VRR mit FreeSync HDMI zu verwechseln.
Nein
Ergänzung ()

Ray519 schrieb:
Redest du hier von minimaler und maximaler Helligkeit punktuell und in Fläche? Die Standard-Daten die jeder HDR-Monitor bereitstellen muss?

Was sollte AMD an HDR ändern? Bei HDR ist das Tonemapping vom Monitor einfach kritisch. Dynamisch geht nicht gut wenn man es in Echtzeit haben will und gerade mit variabler Framerate wird es noch schwerer, ähnlich wie Overdrive.
das Problem ist, dass Spiele keine hdr Metadaten ausgeben (das Signal also nicht im hdr10, sondern pq10 Format gesendet wird) und die Maximalhelligkeit für jedes Spiel separat ingame eingestellt werden muss.
Z.T. weisen deren Regler diese aber nicht mal (korrekt) aus oder erlauben nur kombinierte Anpassung von Peak- und Grundhelligkeit, etc.
Klar kannst du den Ingame Regler auf Maximum stellen, was meist eben die 10.000 nits abruft und den Monitor dann das Tonemapping übernehmen lassen.
Die meisten Spiele verfügen aber über ein eigenes Tonemapping, so dass man eher das Tonemapping des Monitors komplett deaktiviert (falls möglich) und das Spiel auf Maximalhelligkeit des Monitors einstellt.
Spiele mit hgig Unterstützung tun das automatisch, existieren aber leider kaum.

Einen ähnlichen Ansatz scheint freesync premium pro zu verfolgen, was allerdings auch die Unterstützung seitens des Spiels erfordert (wie bei hgig eben auch), nur leider fehlerhaft.
Nur verwendet premium pro seine eigene hdr Pipeline inkl. Metadaten, worauf hgig komplett verzichtet.

Grdstzl. haben beide Ansätze kontrolliertes Tonemapping zum Ziel

Ray519 schrieb:
Diese gehen von der Quelle zum Bildschirm. Und sind einfach nur durchschnittliche Bildinhalt-Helligkeit und maximale Inhalte-Helligkeit.

Das was Spiele machen ist on Top.
Nein, weil wie gesagt Spiele keine Metadaten ausgeben (von freesync premium pro abgesehen)

 
Zuletzt bearbeitet:
Suspektan schrieb:
Limitiert hier der Anschluss
Der Anschluss. Deswegen habe ich die 4xHBR3 DP Bandbreite angegeben. Mit den CVT-RB Videotimings passt mehr als 8 Bit nicht rein bei der Auflösung. Genau wie in HDMI TMDS 18G mit der Auflösung und 85Hz kein 10 Bit mehr passt. Und auch bei 4K60 auf nicht. Jeder TV mit max. TMDS 18G Inputs und HDR Support kann das auch nutzen.

Woher sollte die Limitierung im Monitor selbst kommen? Displayport überträgt Bits sequentiell, da spielt es ne Rolle. Wenn du das aber verarbeitest, wird das nach der Pixel-Clock passieren. Und die ist unabhängig von der Datenmenge pro Pixel. Die hat natürlich ihre eigenen Limits. Aber es macht nicht viel Sinn, warum dann Limits für Farbtiefe variieren sollten mit der Pixel Clock.

Suspektan schrieb:
Womit man den hdr standard verlässt und an sich gröber auflöst als sdr mit 8 bit.
Du verlässt vllt den "HDR10" Standard (weiß ich nicht, vllt deckt der auch die 8 Bit übertragung ab). Aber offensichtlich ist das irgendwo standardisiert. Sonst würde es nicht mit allen meinen HDR-fähigen Monitoren und TVs gehen und Intel und Nvidia GPUs und Windows ne Anzeige dafür haben.

Auch habe ich dir ja bereits gesagt, dass die Kurve die du abtruckst auf dem SMPTE ST 2084 Standard basiert. Und der wird AUCH für Dolby Vision mit mehr Bits (12 und 14) genutzt. Was du also sagst, dass 1023 immer 10000 nits ist, ist viel zu allgemein. Das gilt bei 10 Bit Farbtiefe. Der ganze Punkt davon ist doch die Werte so zu verteilen dass der Mensch die Sprünge zwischen Werten ähnlich wahrnimmt. Und da der Mensch bei hohen Helligkeiten unempfindlicher wird, werden die Schritte hier gröber um mehr Präzision in den niedrigen Helligkeiten zu haben. Dieses Konzept lässt ich aber quasi auf alle Bittiefen anwenden. Ob das jetzt in HDR10 beschrieben ist oder in einem anderen HDR Standard ist mir recht egal. Fakt ist, ich habe noch keinen HDMI oder DP Monitor gesehen der HDR10 kann aber nicht auch mit 8 Bit HDR darstellen kann. Was auch immer für ein Standard das ist (wäre schön einen Namen dafür zu haben), ist weit verbreitet.
Suspektan schrieb:
Was sind die "untersten 2 Bit"?
Die 2. niederwertigsten Bit. Ein naiver Ansatz um den selben Wertebereich auch mit nur 8 Bit auszudrücken. In dem man einfach nur jeden vierten Wert aus deinem Graphen nutzt. Wenn du die die Zahl in Bit aufschreibst, entspricht das dem Weglassen der untersten 2 Bit (und könnte man einfach mit 00 Auffüllen um wieder einen gerundeten 10 Bit Wert zu bekommen den man genauso verarbeiten kann). War nur eine Idee wie das ganze auch ohne große Änderungen mit 8 Bit genutzt werden könnte. Oder wie gesagt, in dem sie 256 diskrete Werte neu Verteilen, nach den selben Regeln wie man es für 10 Bit macht.
Suspektan schrieb:
Das hdr10 /pq10 Format
Und nochmal, ich habe nirgendwo HDR10 erwähnt (und weder du noch ich wissen offensichtlich was da drin steht und ob der nicht auch die 8 Bit Umsetzung beschreibt). Es gibt noch andere HDR Standards. Und OFFENSICHTLICH können die Monitore was auch immer für ein Standard, der definiert wie man HDR mit 8 Bit hinbekommt. Deshalb wird dieser vermutlich mindestens sehr verwandt sein mit HDR10 wenn es nicht Teil von HDR10 ist.
Suspektan schrieb:
Naja, weil die gpu die rgb Wertetripel in 8 bit natürlich bereits ihrerseits korrekt zuordnet
Ja natürlich. Das war ein Argument, dass ich nicht sehe und du nicht genügend weißt über die Umsetzung von FreeSync HDMI, was sinnvoll den Einsatz von HDR einschränken könnte. Wenn du sagen würdest FreeSync HDMI ist nicht kompatibel mit 10 Bit Farbtiefe wäre dass vllt möglich. Aber da HDR aus den Pixel-Daten selbst nicht zu erkennen ist, sondern sowohl GPU und Monitor nur wissen müssen in welchem Farbraum mit welcher Quantisierung sie sich befinden, wird ein Protokoll, dass sich um Synchronisierung kümmert nichts sagen über die Farbräume mit denen Monitor oder GPU rechnen. Ist das so schwer zu verstehen? Das ist genauso wie wenn jemand sagt für DSC oder HDR braucht man spezielle Kabel. Nein. Die Kabel arbeiten auf einer völlig anderen Ebene, deshalb ist die Behauptung offensichtlich aus der Luft gegriffen, wenn man da nicht viel Hintergrund Wissen zu hat, warum es doch irgendwo einschränkt.

Suspektan schrieb:
Rgb Wertetripel a, b,c in 10 bit entspricht nicht a, b, c in 8 bit, muss von der gpu also entsprechend zugeordnet werden.
Ok, ich gebe auf. Ich weiß nicht wie ich meinen Punkt noch anders versuchen soll zu erklären. Und ich weiß nicht was du versuchst mit dieser trivialen Wahrheit hier zu sagen. Das geht an meinem Punkt völlig vorbei.


Suspektan schrieb:
Freesync unterstützt von sich aus nichtmal hdr, hdmi forum vrr problemlos.
Suspektan schrieb:
Ich kann dir nicht sagen, warum amd freesync nicht mit hdr kompatibel ist
Suspektan schrieb:
von der hdr Qualität des jeweiligen displays, sondern amd's grdstzl. fehlender hdr Unterstützung bei Monitoren mit diesen vrr Zertizierungen.
Suspektan schrieb:
Wenn selbst ein hdr oled monitor mit "freesync premium" auf hdr verzichten muss
Jetzt wechseln wir also das Thema? Ich habe deinen ursprünglichen Punkt interpretiert als: "FreeSync HDMI verhindert eine normale HDR Umsetzung aus technischen Gründen. AMD zwingt die Monitore hier zu etwas grundsätzlich anderem das immer schlecht aussieht und gar nicht gut aussehen kann. Wenn man FreeSync ausschaltet und es dem normalen HDR Standard folgen kann wird es besser."

Und ich habe dazu gefragt, wie FreeSync das technisch verhindern soll und Beispiele und Beweise geliefert, dass HDR auch mit 8 Bit geht und deshalb FreeSync, der Standard wie man VRR hin bekommt, nicht viel sagen kann, das verhindert dass Hersteller das mit HDR kombinieren. Denn "Unterstützen" (=erlauben/ermöglichen) und und erfordern/zertifizieren sind 2 ganz unterschiedliche Dinge. Wenn du mir zustimmst, dass AMD keine gute HDR Implementierung verhindert, sie nur mit ihren FreeSync Marketing-Labels nicht vorraussetzt, brauchen wir darüber nicht mehr zu diskutieren. Dann hast du dich in deinen ersten Posts dazu nur falsch ausgedrückt.

Suspektan schrieb:
Ich verwende aber sicher kein tiff Bildformat für einen hdr test, denn hdr ist ein VIDEOformat, Bilder liegen grdstzl. nicht in hdr vor, bestenfalls windows "hdr screenshots".
Ok. Jetzt drehen wir also völlig am Rad? Alles klar. Wenn das Verständnisproblem da schon liegt und dein Satz sich sogar selbst widerspricht, kann aus einer Diskussion nichts werden.

Auch verwende ich das Testbild nicht um irgendeine maximale HDR Helligkeit zu finden. Sondern nur um die Präzision der verschiedenen Farbtiefen zu illustrieren. Der Punkt von dem Tiff-Bild ist, dass es den Farbverlauf so präzise, so fließend hat, dass man darin eigentlich nie Color-Banding sehen würde. Aber wenn der Monitor diese Präzision nicht mitbekommt oder nicht darstellen kann, dann sieht man Color-Banding. Und weil du fälschlicherweise gesagt hast:
Suspektan schrieb:
10 bit Quantisierung ist allerdings eigentlich Vorraussetzung für hdr
habe ich dir praktische Beweise geliefert, dass das nicht der Fall ist. Inklusive Erklärungen, dass es natürlich einen Unterschied macht und HDR mit 8 Bit + Dithering suboptimal ist. Aber immer noch präziser ist, also die selben 8 Bit besser ausnutzt als SDR, durch die Anpassung an die menschliche Wahrnehmung die wir mit PQ und den HDR Formaten erhalten haben. Mit Schritten zur Reproduktion mithilfe des Testbildes, für den Fall das Leute in einer Schnellschussreaktion, ohne selber getestet zu haben oder in dieser Hinsicht informiert zu sein, an mir zweifeln.
Suspektan schrieb:
so dass man eher das Tonemapping des Monitors komplett deaktiviert (falls möglich)
Das macht nur Sinn wenn man das rein als diesen simplen, globalen Graphen versteht, wie er im Video gezeigt wird. Außerhalb von Referenz-Monitoren, müssen die Geräte aber auch um diverse andere Limitierungen drum herum arbeiten.
LCDs mit Local Dimming müssen die Zonen berücksichtigen, von denen die GPU nichts weiß und OLEDs haben Limits mit flächiger Ausleuchtung und maximaler Dauer von hoher Helligkeit. Wenn man das am Host berücksichtigen wollte, braucht es sehr detaillierte Angaben über was der Monitor kann und wie er aufgebaut ist.
Solange es das nicht gibt, kann das nur im Monitor passieren, der seine eigenen Limits genau kennt.

Das Spiel sollte nicht in der Verantwortung sein, dass zu fixen. Da aber der Output in Echtzeit berechnet wird, ist es für das Spiel ein leichtes die maximale Helligkeit zu skalieren. Und falls der Monitor zum Beispiel grottig ist und zu hohe Helligkeiten einfach clipped oder ein dynamisches Tonemapping hat, dass durch hohe Helligkeiten verwirrt wird, kann man im Spiel einfach da drum herum arbeiten. Und da viele HDR-Displays keinen eigenen Helligkeitsregler bieten, weil das ein wenig gegen den Sinn von HDR geht und noch komplizierter wird, muss man die Ausgabehelligkeit grundsätzlich an der Quelle Regeln. Genau wie man die SDR Helligkeit in Windows regelt, wenn Windows nach HDR konvertiert. Das muss aber dann eigentlich nur einen schlichten Helligkeitsregler ersetzen. Schadet da natürlich nicht die Blacklevel, Paperwhite und Max. Brightness Regler zu bieten. Die finde ich auch gut.

Mein G-Sync Ultimate Monitor zB kann seine Dimming Zones nicht ansatzweise sinnvoll managen und fährt deshalb bei winzig kleinen Highlights eine ganze Zone auf Maximum die dann nur noch Hellgrau ist, ohne jegliche Details aus dem sonst sehr dunklem Content. Das ist die Schuld meines Monitors. Das auf dem Host zu lösen würde erfordern, dass der Host die Geometrie der Dimming Zonen versteht und die Panel Optik etc. Man kann versuchen den Effekt abzuschwächen, wenn man die Helligkeitsspitzen reduziert. Aber das ist kein Ersatz für einen Monitor der seine eigenen Limits versteht und das Bild anpasst um so nah an die gewünschte Darstellung zu kommen wie er im jeweiligen Moment kann.

Gilt ja auch für OLEDs. Vincent beschreibt ja wie der TV einfach seine vollen Fähigkeiten ausfahren soll und dann clippen, wenn das Spiel das clippen verhindern kann. Schön und gut. Und jetzt hast du eine besonders Helle Szene, so Wüste, Schneelandschaft. Zu hell für den OLED. Dann reduziert der seine maximale Helligkeit auf weit unter die 700 nits. Und dann müsste er clippen. Vincent ist ja sonst gut informiert und misst auch viel. Aber darauf geht er leider überhaupt nicht ein. So finde ich seine Aussage, dass das der bessere Weg und der Weg für die Zukunft ist überhaupt nicht glaubwürdig. Bei OLEDs vermutlich noch einfacher zu ignorieren, wenn du wie er auswendig weißt, was die TVs in der Fläche an maximaler Helligkeit können und wie lange sie überhell sein dürfen und das berücksichtigst in den Einstellungen im Spiel. Aber für den normalen Nutzer nicht sonderlich praktikabel wenn die Helligkeit vom Spiel schwankt (vergleiche zB Forza Horizon 5 bei Tag und bei Nacht. Wenn du das Spiel so einstellst, dass es bei Tag nicht clippt, lässt du nachts viel Potential liegen).
 
Zuletzt bearbeitet:
Ray519 schrieb:
Ich schaue mir das aktuelle Marketing an. Und da steht dann so Schwachsinn wie

Und hier wird halt maximal verwirrt mit der "unique hardware/software solution". Über das DP Kabel wird Adaptive Sync gesprochen. Ausschließlich. Wenn der Monitor das kann, kannst du das mit AMD nutzen. Dass "unique hardware/software" heißt, sie haben ihren DP-Ausgängen beigebracht die Signale passend zum DP Standard auszusenden. Und der Treiber kann zwischen Spiel und Monitor vermitteln und trifft Entscheidungen, wie wann werden Frames verdoppelt und wie gehe ich mit um wenn die Refreshrate unterhalb der VRR Range vom Monitor ist. Das ist ist schlichtweg notwendig damit VRR gehen kann. Und der Rest von FreeSync sind Zertifizierungen für Mindestfähigkeiten. Die haben mal bei dem Niveau von mit Tesa auf den Boden geklebter Kordel angefangen und werden jetzt so langsam auf etwas gehoben, dass auch ansatzweise Sinn macht. Aber das einzig interessante daran sind die Zertifizierungen. Nicht das AMD genau wie Nvidia und Intel in der Lage war die Hardware und Software zu bauen, die man nun mal braucht für jeglicher der Techniken.
Das unique bezieht sich auf die Zertifizierung des Monitor bzw. TV.
Alle XBox Kompatible TV sind Freesync Premium Pro Zertifiziert. (Made by MS)

Das wird dann in den Adrenalin Einstellungen aktiviert und im TV oder Monitor Menü. (Spiele Modus)
Das lesen kann ich dir abnehmen, aber verstehen muss man es schon als System (PC+Wiedergabegerät)
 

Anhänge

  • FreeSyncPp_Adrenalin.jpg
    FreeSyncPp_Adrenalin.jpg
    368,6 KB · Aufrufe: 58
DerBär88 schrieb:
Das wird dann in den Adrenalin Einstellungen aktiviert und im TV oder Monitor Menü. (Spiele Modus)
Aber das ist in keinster Weise einzigartig. Macht Nvidia mit allem was G-Sync zertifiziert ist doch ganz genauso.

Das ehrliche Marketing ist: "unser XYZ Zertifikat/Label/Logo garantiert, dass wir sorgfältig folgende Funktionen * a * b * c mit unseren GPUs getestet haben. Du kannst dich entspannt zurücklehnen, musst dich nicht mit Benchmarks oder technischen Details befassen und weißt trotzdem das es gut geht".

Das Besondere da dran sind die Tests die sie machen. Zwischen "FreeSync" Hosts und "FreeSync" Monitoren. Nicht was im Treiber steckt oder die Hardware tut.

Und das würde auch im Treiber besser stehen als:
VRR: HDMI VRR aktiv
FreeSync Premium Pro zertifiziert für maximale Flüssigkeit, niedrige Latenz und HDR

Und ein nicht zertifizierter Fernsher würde dann als
VRR: HDMI VRR aktiv
nicht getestet auf reibungslose Kompatibilität mit AMD GPUs
angezeigt.
Immer noch Marketing für die eigenen Marken und Standards. Aber ehrlich, muss nicht lügen, nennt die zugrundeliegenden Industriestandards und schließt so die Konkurrenz weniger aus.

Wie besessen mit einer Marke muss man denn sein, um den Vorschlag hier nicht objektiv besser zu finden, als dass es einen Schalter gibt um "FreeSync Premium Pro" anzuschalten. Das macht schon gar keinen Sinn wenn der Schalter seine Beschriftung ändert je nachdem was der Monitor überhaupt kann. Besonders wenn FreeSync Premium Pro eine ganze Sammlung an Dingen garantiert, darunter auch Teile die man überhaupt nicht abschalten will oder unabhängig davon an und ausgeschaltet werden sollten wie "HDR".

Intel hat keine eigene Marke für VRR, deshalb geben die das einfach schön agnostisch an (hoffen wir dass es so bleibt). Sieht für FreeSync und G-Sync Displays die Adaptive Sync können (alles moderne über DP) ganz genauso aus. Wenn der Monitor die Vorraussetzungen für LFC nicht erfüllt, gehe ich von aus das der unterste Schalter einfach ausgegraut wird, genau wie alle diese Schalter ausgegraut werden, wenn der Monitor einfach kein Adaptive Sync kann.
1710439164926.png
 
Zuletzt bearbeitet:
Nvidia kann kein Freesync Premium Pro und ob du das HDR davon nutzt oder nicht wählst du bequem im dazu kompatibelen Game.
 
  • Gefällt mir
Reaktionen: DerBär88
Ja. Und ob du HDR dort anschaltest oder nicht wird unabhängig davon sein, ob der "FreeSync Premium Pro" Schalter im AMD Panel umgelegt ist oder nicht?

Also ist es für jeden der geradeaus denken kann, offensichtlich absolut dämlich einen Schalter mit dieser Marke zu beschriften, wenn AMD selbst die Marke entworfen hat um "FreeSync Premium" + HDR zu meinen.
1710441547684.png

FreeSync Premium Pro vs FreeSync Premium garantiert, dass HDR und VRR zusammen gehen.
Das ist eine Garantie. Die kannst du nicht abschalten. Macht gar keinen Sinn. Der Schalter ist auch nicht für Low Latency. Der Schalter schaltet die VRR Funktion an und ab. Und das ist nur ein kleiner Teil von dem was die Marke "FreeSync Premium Pro" Kunden vermitteln möchte.

Aber warum mache ich mir die Mühe, wenn du es eh nicht verstehen möchtest.
Ergänzung ()

Ja_Ge schrieb:
Nvidia kann kein Freesync Premium Pro
Daran gibt es ja auch nichts zu "können". Es ist ein Zertifikat. AMD garantiert das eine Sammlung an Features unterstützt werden und mit AMD GPUs reibungslos gehen. Das kann kein andere Hersteller "können". AMD entscheidet ja, was das Zertifikat garantiert und was sie testen.
Die Techniken hingegen mit denen AMD VRR umsetzt, die kann Nvidia zum Teil (wie ich vor vielen Seiten geschrieben habe gibt es 1 Technik via DP, die kann Nvidia. 2 Techniken via HDMI. Eine alte, die Nvidia nicht kann und eine neue die Nvidia auch kann).

Und HDR ist ganz unabhängig davon. Die Latenz ist nur Sache des Monitors. Der hat nicht plötzlich eine niedrigere Ausgabelatenz, weil der Hersteller der GPU wechselt. Das zu machen wäre ja ein krasser Schritt der die Wettbewerbshüter auf den Plan rufen würde, weil es nichts anderes als Absicht sein könnte.
 
Zuletzt bearbeitet:
Ray519 schrieb:
Daran gibt es ja auch nichts zu "können".
Es geht mir nicht um den VRR-Teil. Es verschwindet z.B. bei Fenyx Ryzing der Ingame Button / Balken wo Freesync Premium Pro drinsteht und die HDR-Kalibrierung verändert sich im Funktionsumfang, wenn ich ein TV Mit Freesync Premium gegenüber ein TV mit Freesync Premium Pro anschließe.
Ray519 schrieb:
Aber warum mache ich mir die Mühe, wenn du es eh nicht verstehen möchtest.
Oder du es nicht verständlich genug erklären kannst?
Ggf. reden wir auch aneinander vorbei. Freesync Premium Pro ist halt nicht „unique“ wegen VRR, was quasi jede GPU inzwischen kann, sondern wegen dem HDR Part. Und genau das stellt dabei mehr als nur „Marketing Begriff für eigentlich das gleiche wie alle“ da.
 
  • Gefällt mir
Reaktionen: DerBär88
Ja_Ge schrieb:
sondern wegen dem HDR Part.
Das würde ja zu dem passen was hier schon beschrieben wurde. Das AMD bei FreeSync mit HDR ein komplett eigenes Ding macht. Da weiß ich nichts drüber. Könnte sein.

Rein hier aus dem Thread klingt das aber nicht unbedingt nach etwas dass man unbedingt haben möchte.
Und noch habe ich keine Argumente gelesen, warum das sinnvoll/notwendig wäre.

Mir fallen da nur Gründe wie mehr Tone Mapping auf der GPU machen, weil die Monitore da ursprünglich einen miesen Job gemacht haben, mangels der Rechenleistung / Hardware / Kenntnisse dafür bei den Monitor-Herstellern. Aber das hätte rein gar nichts mit VRR zu tun und eine Koppllung daran wäre dann einfach nur doof (Wenn AMD vor hat besseres HDR Handling anzubieten mit Monitoren die sie zertifizieren).

@Suspektan hat jetzt nicht gerade positiv von den Ergebnissen die AMD da erreicht geschrieben.

Ich habe selbst keine FreeSync Monitore, aber habe EDID Infos von anderen bekommen.
Vendor-Specific Data Block (AMD), OUI 00-00-1A:
Version: 2.1
Minimum Refresh Rate: 40 Hz
Maximum Refresh Rate: 120 Hz
Flags 1.x: 0x00
Flags 2.x: 0x00
Maximum luminance: 0 (50.000 cd/m^2)
Minimum luminance: 0 (0.000 cd/m^2)
Unknown: 0x00 0x00
Das hier wäre was da noch zusätzlich von AMD drin steht. Das ist jetzt aber keine Welt an Informationen und auch nicht mehr als in standardisierten Infos drin steht.
Edit: das war von einem OLED TV. Hier ein LCD Display
endor-Specific Data Block (AMD), OUI 00-00-1A:
Version: 2.5
Minimum Refresh Rate: 60 Hz
Maximum Refresh Rate: 144 Hz
Flags 1.x: 0x00
Flags 2.x: 0x04
Maximum luminance: 97 (408.759 cd/m^2)
Minimum luminance: 79 (0.392 cd/m^2)
Maximum luminance (without local dimming): 97 (408.759 cd/m^2)
Minimum luminance (without local dimming): 79 (0.392 cd/m^2)


Hier der standardisierte Satz:
HDR Static Metadata Data Block:
Electro optical transfer functions:
Traditional gamma - SDR luminance range
SMPTE ST2084
Supported static metadata descriptors:
Static metadata type 1
Desired content max luminance: 120 (672.717 cd/m^2)
Desired content max frame-average luminance: 96 (400.000 cd/m^2)
Desired content min luminance: 31 (0.099 cd/m^2)
Also nach allem was ich hier so lese, klingt das eher nach einem Hack der aus einer alten Notwendigkeit geboren wurde (so wie das der damals vorhandene Weg von HDMI HDR zu übertragen zu limitiert war oder inkompatibel mit wie AMD FreeSync HDMI umgesetzt hat) und kein alleinstehendes sinnvolles Feature. Und klingt noch mehr nach einer hausgemachten Limitierung von AMD, dass du nicht getrennt kontrollieren kannst, wie HDR umgesetzt wird und auch nicht klar beschriftet.

Aber wie gesagt ich weiß es nicht, darüber kannst du gerne mehr erzählen und auch Argumente bringen.

Aber ich sehe nichts da drin, dass rechtfertigt die Industrie-Standards zu VRR hinter der Hausmarke zu verstecken. Nur Berichte das AMD schlecht dokumentiert noch mehr proprietäre Dinge dahinter versteckt. Und das AMD nicht genügend Vertrauen in die eigene Lösung hat um das irgendwo klar zu dokumentieren und mit Bildern zu illustrieren, wie HDR von FreeSync Premium Pro Monitoren besser ist als von anderen Monitoren.
Ergänzung ()

Ah, in de FAQs steht sogar was:
The implementation of HDR in FreeSync™ Premium Pro differs from a conventional HDR pipeline. In the case of FreeSync Premium Pro, the display passes specifications and data straight to the PC. This allows games to directly tone map to the display, skipping bulky intermediate steps and reducing input latency
Das beschreibt jetzt aber auch nichts weltbewegendes. Besonders wenn sie min, und max. Luminance als "specifications" beschreiben. Ich meine das hatte ich hier im Thread schon geschrieben, für LCDs mit Local Dimming bräuchte es da Infos zu den Dimming Zonen. Bei OLED mehr Info zum Panel (so wie lange kann eine wie große Gruppe wie hell leuchten. Also eher eine 3D Kurve).
Selbst wenn das edid-decode Tool nicht alles versteht was AMD da reinpackt, das sind so wenige Bytes (Edit: 10 Bytes btw), ausführliche Infos passen da nicht rein. Dann müsste AMD das wie bei Nvidia machen mit G-Sync Compatible: Der Treiber hat eine Datenbank an bekannten Monitor-Modellen (Nvidia erkennt ja so nachträglich dass ein Monitor zertifiziert ist und dann schalten sie VRR automatisch an). AMD müsste dann Details über das Verhalten des Monitors aus dieser Datenbank beziehen.

Ohne das, wäre das alles nur heiße Luft und man könnte das gleiche Processing auch mit generischen Infos machen.
Und man könnte dem Besitzer auch ein Menü bieten wie "Custom Resolutions" wo man den Monitor beschreibt, damit die GPU Dinge da besser berücksichtigen kann.
Und braucht das Support vom Spiel? Oder ist das nur Postprocessing vom GPU Treiber? Weil ich habe noch nicht mitbekommen, dass Spiele auch FreeSync zertifziert sein müssen.
 
Zuletzt bearbeitet:
Um bei meinem Beispiel Fenyx Rising zu bleiben, da ich darin viele Stunden versenkt habe, es sieht mit Premium Pro auf einem (bzw. hier zwei) passenden TV einfach deutlich besser aus als ohne.
Wie die technische Umsetzung im Detail ist kann ich nicht sagen, aber das Game sagt halt im Menü dass es Freesync Premium Pro im Menü "erkannt" hat und man sieht sofort den Unterschied in Helligkeit und Farben, ohne weitere HDR Kalibrierung. Ob es dabei etwas "überzeichnet " ist wegen der Comikhaften Grafik schwer zu sagen. So hätte ich mir das von Windows gewünscht, wobei 11 es schon besser macht als 10.
Da es von dem Game eine spielbare Demo gibt kann es übrigens jeder testen.
Wo ich dir Recht gebe ist die Namensgebung, HDR Features an VRR zu koppeln und das namentlich mit "Premium Pro (ehemals Freesync 2)" zu bezeichnen ist dämlich, kein Käufer erkennt am Namen die HDR Komponente bzw. den ggf. wichtigen Unterschied.

EDIT: Ja Spiele müssen die Unterstützung für Premium Pro implementiert haben, hier ein Bild von der AMD Seite (kann leider gerade nur Handy Screenshot machen):
1710476749034.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerBär88
Wenn wir schon beim Thema VRR sind. Mein Monitor läuft mit 144 hz aber wenn ich am PC die Netflix App nutze und mir einen Film auf meinem neuen Monitor anschaue, dann wechselt der Monitor von 144hz auf 48hz.
An sich ja gut wenn er sich der Bildrate des Films anpassen will. Aber ich habe das Gefühl dass es dann nicht mehr flüssig erscheint. es hakt und flimmert leicht und irritiert mich. Sollte es eigentlich nicht perfekt aussehen wenn der Bildschirm sich der Bildrate des Films anpasst? Kann man nicht auch den Bildschirm auf 96hz laufen lassen statt 48hz.

Wenn ich freesync ausschalte und 120 hz erzwinge...fühlt es sich viel besser an. Oder ist das nur Einbildung
 
Filme sind leider immer noch hauptsächlich auf ~24Hz. Das ruckelt grundsätzlich einfach und wird nie flüssig.

Man kann das Gehirn nur mit so Sachen wie Black-Frame-Insertion darüber hinwegtäuschen.

Dein Monitor scheint auch keine 24Hz zu können und dann wird der GPU Treiber entscheiden wie er die einzelnen Frames vervielfacht um in die VRR Range zu kommen. Intel scheint hier zB das höchste Vielfache zu nehmen. Dein Treiber wohl eher das niedrigste Vielfache. Grundsätzlich ist ein stupides verfielfachen der Frames ja schlecht, weil es ein ruckeligeres Bild suggeriert als es ursprünglich war (fünf mal das selbe Frame dann eine große Änderungen suggeriert eine viel ruckartigere Bewegung, wenn man nicht weiß, dass da Frames vervielfacht wurden nur um eine höhere Framerate zu faken.)

Und gerade weil Filmmaterial so ruckelig ist und PC Bildschirme nicht auf direkt kompatiblen Refreshrates arbeiten gibt es in Videoplayern und in GPU Treibern viel Technik um das flüssig zu konvertieren. Evtl werden dabei Zwischenbilder berechnet, wie Fernseher das auch standardmäßig machen. Oder gerade mit hohen Refreshrates fällt dir die ungleichmäßige Frameverteilung nicht mehr auf.

Kann mir da gut vorstellen dass es so Effekte gibt. Netflix habe ich selbst nicht mehr zum testen und von anderen Videoplayern habe ich noch kein VRR Support gesehen (oder wahrgenommen seit ich das letzte mal getestet habe).
 
  • Gefällt mir
Reaktionen: Ja_Ge und Birnenbaer
Zurück
Oben