HDR 10 mit einem 8bit Panel

DenoUchiha

Cadet 4th Year
Registriert
Dez. 2020
Beiträge
85
Guten Tag
ich wollte mich erkundigen wie man HDR 10 erreichen soll wenn das Display nur ein 8bit Panel hat.
Ich habe den Samsung lc32g54tqwrxen:
https://www.samsung.com/de/monitors/gaming/odyssey-g5-32-inch-144hz-1ms-curved-lc32g54tqwrxen/

Da steht das man echtes HDR10 hat.
Ich bekomme zwar wenn ich das Display mit DP anschließe bei 120hz 10bit hin aber der Monitor kann laut Datenblatt ja gar nichts damit anfangen. Bei 60hz sind es sogar 12bit.
Also wie will er HDR10 darstellen wenn er es gar nicht kann?
Ich danke euch schonmal für die wie immer freundliche Hilfe
 
Weil HDR Bezeichnungen bei TVs und Monitoren zu 98% Marketing Gerede sind. Um HDR erfolgreich darzustellen, ist die Farbtiefe des Panels nur ein Element.
 
Also heißt es das mein Monitor gar kein HDR hat?
Das viel mit Marketing zutun hat war mir klar aber so dreist?
 
Sicher kann er HDR. Spiele HDR Inhalte ab und aktiviere es. Dann siehst Du es.
 
  • Gefällt mir
Reaktionen: DenoUchiha
Darf ich fragen wie das HDR dann funktioniert?
8bit hat doch nur 16,7mio fahren und 10bit 1,07 Mrd?
Ich habe schon einen Unterschied gesehen. Aber die Funktionsweise ist mit unbekannt.
 
DenoUchiha schrieb:
Da steht das man echtes HDR10 hat.
Echtes HDR10? Das kann quasi kein normaler Monitor zur Zeit.

Die höhere Farbtiefe wird bei HDR10 sowohl für einen größeren Farbraum, als auch mehr Präzision, als auch einen deutlich höheren Helligkeitsumfang genutzt.

Diese Helligkeiten können überhaupt nicht mit einem normalen LCD-Panel erreicht werden, egal welche Quantisierung das Panel nativ kann. Der Farbraum wird von den meisten Monitoren auch nicht voll abgedeckt.

Ein Teil der HDR10 Informationen wird also genutzt um die Hintergrundhelligkeit (HDR10 geht bis 10000 nits) zu steuern, nur der Rest muss überhaupt vom Panel umgesetzt werden, insofern es dass überhaupt kann.

Ganz zu schweigen davon, dass mit FRC auch noch mehr Farbtiefe abgebildet werden kann, als das Panel nativ kann.

Und zur Not kann die Farbwiedergabe immer noch unpräzise sein, dass fällt, wenn es geschickt gemacht ist nur den Messgeräten auf. Für professionelle Fotobearbeitung oder Color Grading ist der Monitor ja eh nicht vorgesehen. Und wenn Tone Mapping ins Spiel kommt (was es zwangsweise muss, wenn der Monitor nicht exakt HDR10 umsetzen kann), ist das eh keine originalgetreue Farbwiedergabe mehr.

Außerdem ist HDR10 mehr als nur die Fabtiefe die übertragen wird, sondern vor allem der BT.2020 Farbraum mit PQ. Das kann man auch mit nur 8 Bit übertragener Farbtiefe nutzen, was Windows auch macht, wenn die Bandbreite der Schnittstelle nicht ausreicht um 10 Bit zu übertragen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DenoUchiha
Laut Datenblatt hat der Bildschirm kein FRC.

HDR10 bezieht sich hier sehr wahrscheinlich nur auf die Unterstützung des Formats an sich, also etwa die Verarbeitung der Metadaten. Im Standard heißt es:
Additionally, this standard does not fully specify all the information that would be necessary to preserve the creative intent on displays with color volumes different from the mastering display color volume.
 
  • Gefällt mir
Reaktionen: DenoUchiha und Ray519
Ach okay. Das letzte von @Amaoto verstehe ich noch nicht ganz.
Sollte ich dann lieber 8bit FRC nutzen oder echte 10bit dann aber ''nur'' bei 120hz, auch wenn das Panel nur 16,7mio Farben kann? Naja oder ich habe alles kaum verstanden und laber nur Müll xD
Das FRC-Verfahren mit Dithering hat mein Monitor wohl, dies Steht bei mir auch in Windows. Hier ein Screenshot.
 

Anhänge

  • ApplicationFrameHost_mBx4vEFDqy.png
    ApplicationFrameHost_mBx4vEFDqy.png
    162,1 KB · Aufrufe: 163
DenoUchiha schrieb:
Das FRC-Verfahren mit Dithering hat mein Monitor wohl, dies Steht bei mir auch in Windows. Hier ein Screenshot.
Das ist tatsächlich ein anderes dithering, auch wenn ich nicht exakt weiß was es tut.

Das HDR10, was der Monitor bewirbt, bedeutet nur er versteht das Format an seinen Eingängen.
Es macht keinerlei Garantien, dass er das auch angemessen darstellen kann.
Dazu sind zB die DisplayHDR400, 500 etc Labels da.

Generell beschreibt HDR10 einen viel zu großen Funktionsumfang, so dass so ziemlich jeder Monitor nur versucht, so viel wie er kann aus dem Format darzustellen, so gut wie der Hersteller es hinbekommt.

=> sehr individuell, ob man den Unterschied zwischen 8 Bit und 10 Bit Farbtiefe überhaupt sehen kann. Such dir eine HDR Test-Szene und vergleiche am besten selbst. Mein 144Hz Monitor läuft auf 120Hz für volle 10 Bit. Aber ich halte 120Hz für mich sowieso für viel sinnvoller, weil ich noch andere Monitore mit 60Hz habe.

Das ganze Konzept von PQ ist, dass der Farbraum nicht linear über die Farbwerte verteilt ist, sondern entsprechend was das menschliche Auge sehen kann. Das heißt zum Beispiel in den Farben die auch in SDR drin sind große Präzision, aber viel weniger Präzision in den Helligkeiten > 100nits.
Ich nehme an, so fällt es auch weniger stark auf als bei SDR, wenn die Farbtiefe reduziert ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DenoUchiha
Danke für die sehr ausführliche Antwort. Ich habe zwar nicht alles Verstanden aber verstehe was du meinst.
Hasst du zufällig den selben Monitor oder das selbe HDR ding wie ich?
 
Nein, ganz anderer. (AW3821DW. Der hat ein DisplayHDR600 Label das aber genau nichts bedeutet, weil er nicht den Kontrast hat, um seine maximale Helligkeit auch nur ansatzweise sinnvoll zu nutzen.)
 
  • Gefällt mir
Reaktionen: DenoUchiha
Ach okay. Also meist viel Gerede und nichts dahinter bei den Laber oder Weniger und Undefiniert dahinter.
Ich danke aber für die detailreiche erklärung.
 
Zuletzt bearbeitet:
Zurück
Oben