HDR unter Windows, Howto

Irgendwie war das Quatsch, die Color-Depth auf 75-100 zu stellen, um ein ähnliches Bild wie auf dem iPhone 12 mini zu erhalten. Daher habe ich das aus meinem früheren Beitrag entfernt. 50 ist korrekt. Den Gamma-Wert im SDR-Modus auf 1.9 zu stellen, habe ich ebenfalls entfernt, weil das jetzt doch nicht mehr nötig war. Ich hatte einfach die Bildschirmhelligkeit vom iPhone zu hoch für den Vergleich mit dem Fernseher. Wenn ich das Bild vom iPhone jetzt möglichst exakt imitieren möchte, sind diese Einstellungen korrekt:

Gamma: BT.1886 (SDR), 2.2 (HDR)
Color-Depth: 50
White-Balance: Warm 50

Fällt was auf? Das deckt sich mit dem, was ich über das iPhone las, nämlich dass Videos darauf auch in einem Filmmaker-Modus wiedergegeben werden. Die TV-Einstellungen entsprechen ja dem Filmmaker-Modus und was auf RTINGS.com empfohlen wird. Der Weißpunkt ist auch in normalen Apps und auf dem Home-Screen viel kühler (entspricht Color-Depth 0 beim TV) als in Videos in z.B. der Netflix-App (entspricht Color-Depth Warm 50 beim TV).

Somit hat SDR-Content im HDR-Modus nach dem Fix durch RGB-Limited noch einen Haken: Videos werden mit Gamma 2.2 dargestellt und nicht mit BT.1886. Wenn man am PC bei SDR-Filmen also wirklich das Filmmaker-Erlebnis haben will, kommt man um den nativen SDR-Modus nicht herum, aber auch nur aufgrund des unterschiedlichen Gamma-Werts. Der Rest passt jetzt. Und ggf. findet man BT.1886 ja eh zu dunkel für die vorhandenen Lichtverhältnisse. Es lässt auf jeden Fall bei mir die Gesichter plastischer und echter erscheinen.

Was ich jetzt allerdings weiterhin mache, ist die Color-Depth auf 0 zu lassen. Das mag zwar nicht so filmisch wirken, dafür wirkt es aber realistischer. Und ich bevorzuge auch bei Filmen eher diesen realistischen "Soap-Opera"-Look. Daher nutze ich für Netflix und Prime Video auch die integrierten TV-Apps, da ich dann unabhängig vom PC- und Gaming-Modus die Frame-Interpolation nutzen kann. Das Bild wirkt mit den genannten Einstellungen maximal realistisch und nicht so surreal filmisch.
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
Ja im HDR Modus geht es weil Windows es erzwingt!
Im SDR Modus kann es Nvidia auf den Consumer Karten nicht. (Bzw der Treiber lässt es nicht zu obwohl es kein Akt wäre..) nur der Quadro Treiber kann das.
Oder du fummelst halt in der Registry rum.. was so ne Glückssache ist ob es funktioniert..
Viele Monitore haben deswegen colorbanding Probleme mit Nvidia Karten.
Ist aber n Recht bekanntes Problem wenn man danach googelt

Leider nur für LG TVs zumindest die meisten Funktionen des Tools .. Ist ein mächtiges Tool
aber es gibt auch andere tools die das können :

11.jpg


22.jpg


https://github.com/Maassoft/ColorControl


Das Tool sollte auch auch mit anderen Monitoren TVs gehen und nich nur LGs.
Aber von Calibrations Tools hab ich kein plan .. nutze halt das feine Color Control für mein OLED.

33.jpg




Alternative kannst du auch Reshade nutzen mit "Deband" das macht auch nen Super Job gegen Color Banding in Games


2.jpg


https://en.oledspace.com/about/oled-ex/


"LG Display plans to strengthen its leadership and product competitiveness in the large-sized OLED business by integrating OLED.EX technology into all OLED TV displays manufactured at its OLED production plants in Paju, South Korea, and in Guangzhou, China, starting from the second quarter of 2022."

https://news.lgdisplay.com/global/2...eils-next-generation-oled-tv-display-oled-ex/


Joa .. ich denk der 42" LG OLED wird immer interessanter bzw die ganze 2022 Gen.
Die müssen dann nur noch das ABL weitaus weniger Agressiv gestallten dann
werd ich mir 2022 wohl den 42" LG OLED kaufen und meinen 48CX abtretten.
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
Update 26.12.2021
Bin gerade bei dei Tut durch zu gehen.
Hänge jetzt bei HDR static metadata.
HDR.png

Bei mir steht da schon was drinne, kann das so bleiben oder muss ich damit noch spielen?

Achso haben einen Samsung CH32HG70 VA mit 603 Nits.
 
xRedF schrieb:
Bin gerade bei dei Tut durch zu gehen.
Hänge jetzt bei HDR static metadata.
Anhang anzeigen 1166627
Bei mir steht da schon was drinne, kann das so bleiben oder muss ich damit noch spielen?

Achso haben einen Samsung CH32HG70 VA mit 603 Nits.
alles gut einfach stehen lassen :)
 
  • Gefällt mir
Reaktionen: Blackfirehawk
VaniKa schrieb:
Möglicherweise passiert das auch nur bei HDMI-Anschlüssen, bei denen ja traditionell als Black-Level Limited verwendet wird, im Gegensatz zu DisplayPort oder DVI, bei denen traditionell Full verwendet wird. Möglicherweise verwendet SDR-Content im HDR-Modus an solchen Anschlüssen dann auch korrekt einen Full-Black-Level.
Es sieht so aus, als ob das tatsächlich nicht der Fall ist. Ich habe jetzt mal beim Samsung Odyssey CRG9 den Black-Level im nativen SDR-Modus und im HDR-Modus verglichen und es sieht so aus, als ob auch bei diesem Monitor, der mittels DisplayPort an der Intel-CPU-Grafik am Mainboard angeschlossen ist, der Limited-Black-Level verwendet wird für SDR-Content im HDR-Modus. Auch das SDR-Content-Vergleichsvideo über dem SDR-Content-Brightness-Slider sieht viel ausgewaschener aus als das gleiche Video weiter oben in den HDR-Einstellungen, wenn HDR abgeschaltet ist. Es ist also kein HDMI- und kein NVIDIA-spezifisches Problem, sondern ein allgemeines Windows-Problem.

SDR-Content wird im HDR-Modus also nur dann nie korrekt angezeigt, wenn man einen Limited-Black-Level verwendet, egal welchen Monitor- oder Grafikkartenhersteller man hat und welchen Anschlusstyp man verwendet, da SDR-Content immer einen Limited-Black-Level verwendet.

Vielleicht können andere das auch mal bei sich prüfen? Leider ist das nicht unbedingt leicht zu sehen und man kann schnell meinen, alles sei in Ordnung. Es muss wirklich in SDR und HDR nahezu identisch aussehen und sich in Farbkraft und Kontrast entsprechen. Im Black-Level-Test von Lagom.nl muss die oberste Reihe insgesamt sehr dunkel, aber noch sichtbar, sein. Sie ist bei mir im nativen SDR-Modus deutlich dunkler, aber noch zu erkennen, als im HDR-Modus. Im HDR-Modus sieht es auf den ersten Blick okay aus, ist aber eben deutlich heller.

PS: Ich weiß nicht, wie ich vorher zu dem Eindruck kam, man könne das Problem durch den dauerhaften Limited-Modus lösen. Aktuell bekomme ich es gar nicht mehr hin. SDR im HDR-Modus ist immer ausgewaschen. Außer ich stelle Windows auf Full und den Fernseher dann absichtlich falsch auf Limited, was dann aber nur für SDR-Content passt und nicht für HDR-Content. Das Problem ist echt verflixt.

Man kann das Problem wirklich gut erkennen, wenn man, wie ich bereits schrieb, das Vorschauvideo in den HDR-Einstellungen einmal im nativen SDR-Modus betrachtet (wo es oben angezeigt wird) und dann mit dem linken SDR-Video beim SDR-Content-Brightness-Slider im HDR-Modus vergleicht. Letzteres sieht immer ausgewaschen aus im Vergleich. Wenn ich absichtlich den TV auf Limited verstelle, dann sieht das Video auch unter dem Slider korrekt aus, bloß ist HDR dann zu dunkel.

Da ich das Problem auch auf dem Samsung-Monitor an einem anderen PC mit anderem Anschluss und anderem GPU-Hersteller feststelle, bin ich aktuell am Ende mit meinem Latein. SDR-Content ist einfach broken und ich glaube nicht, dass irgendwelche EDID-Tweaks mit CRU daran etwas ändern können. Dafür sind beide Bildschirme zu unterschiedlich, dass es wirklich an so etwas liegen könnte.

Will man also wirklich eine korrekte Darstellung, führt für SDR-Content aktuell kein Weg am nativen SDR-Modus vorbei. Oder man nutzt für Spiele den HDR-Modus von Special K statt Auto-HDR von Windows, weil dadurch ein echter HDR-Modus erzeugt wird, der nicht von der SDR-Darstellung beeinflusst wird.

Das ist wirklich schade, denn ohne diesen Bug wäre eigentlich alles super.
 
Zuletzt bearbeitet:
Um für mich das nochmal ein bisschen verständlich zu machen.

Wenn ich den ganzen Quatsch in CRU mache, funktioniert Tadeloos, aber nun zu meiner Frage

Wenn ich zb jetzt AC Valhalla starte was MUSS ich im HDR Slider einstellen meine 600 Nits oder wie es mir am besten gefällt ? LG User wie ich haben dann noch die Option DTM oder HGIG in den TV Settings einzustellen. Ich komm da nicht mit Was InGame eingestellt werden muss und ob ich HGIG oder DTM nutzen soll. Ich würde mir das so erklären wollen/können.

Stelle ich zb in AC Valhalla 4000Nits ein und Kappe Per DTM die Helligkeit = das was mein TV an NITS darstellen kann. Dann kommt aber die HGIG Methode ins Spiel. Wenn ich jetzt das gleiche nur mit HGIG anstelle von DTM nutze ist das BILD übelst dunkler, auch egal wie ich den Slider in AC einstelle irgendwie Kastriert GHIG mir das Bild.

Vieleicht kann mir einer mal erklären was ich wie richtig einstellen muss. Ich weiß HGIG ist kein Standart sondern eine "empfehlung" HGIG ist auch Toll für Konsolen da sie eine Einstellung haben für das ganze HDR zeugs was Windows halt nicht hat. Aber mein gedanken gang ist das wenn ich Windows 11 mit CRU sage mein TV kan nur XY Nits sollte doch vom logischen her HGIG richtig sein, nur dann die frage was stell ich in den Games für einen Wert ein ( wenn überhaupt ) ich hoffe einer oder mehrere können mir hier mal helfen.
 
Zuletzt bearbeitet:
Wenn du die Nit-Obergrenze des Bildschirms kennst und auch im Spiel diese Obergrenze festlegen kannst, dann würdest du das objektiv beste Bild erhalten, so wie vom Spiel intendiert, wenn du HGiG nutzt und im Spiel eben diese Obergrenze angibst. Wenn dir das zu dunkel ist, dann kannst du es mit DTM natürlich heller boosten, aber das entfernt sich eben entsprechend von der intendierten Anzeige und überlässt das Bild dem Fernseher und nicht dem Spiel.

Ich schätze, das Problem, was viele PC-Spieler, die bisher einen LCD-Monitor benutzt haben, hierbei haben, ist dass sie SDR meist nicht mit 100 Nits, sondern mit 200, 300 oder sogar 400 Nits genutzt haben und einfach eine höhere Grundhelligkeit gewohnt sind. Wenn man in sehr heller Umgebung spielt, mag das auch durchaus sinnvoll sein. 100 Nits in einem hellem Bürozimmer sind zu dunkel und eher für einen dunklen Kinoraum gedacht. Nun kann man entweder die Grundhelligkeit bei HDR ebenfalls erhöhen, was mit DTM automatisch passiert, aber gleichzeitig das Bild massiv beeinflusst und eben auch den HDR-Effekt schmälert, oder man dunkelt die Umgebung ab und gewöhnt sich an eine geringere Grundhelligkeit, mit dem Vorteil, ein möglichst exaktes Bild zu haben mit hohen Hell/dunkel-Kontrasten, bei denen HDR auch wirklich auffällt, wie z.B. ein Autorücklicht in der Nacht. Es erfordert sicherlich einige Umgewöhnung, wenn man bisher eher so ein grelles SDR-Bild gewohnt ist. Das auf Biegen und Brechen behalten zu wollen, halte ich aber für keine gute Idee, vor allem wenn 600 Nits die Obergrenze sind.

Ich spiele grundsätzlich mit HGiG und passender Helligkeitskalibrierung. Ich finde das im abgedunkelten Wohnzimmer am TV genau richtig und empfinde das auch nicht als zu dunkel. Vermutlich würde das aber in meinem Arbeitszimmer mit heller Deckenbeleuchtung ganz anders wirken. Insofern sind die passenden Lichtverhältnisse um den PC herum auch ein sehr wichtiger Aspekt. Je dunkler, desto besser, denn umso mehr kann man auch aus HDR herausholen.
 
  • Gefällt mir
Reaktionen: Shadowbrain1979
Danke dir. Also um es kurz zu fassen

607 Nits (115) in CRU
607 Nits Ingame
Und auf HGIG stellen

Richtig?

Ich spiele in einem Dunklen Raum
 
@VaniKa
ich gebe dir ja Tendenziell Recht.. Das Problem ist halt das viele LCD Monitore eine Gewisse Grund Helligkeit brauchen um ihre Farben relativ akkurat anzuzeigen.

Ein Oled ist hier bedeutend im Vorteil was das angeht
 
Shadowbrain1979 schrieb:
Um das ganze jetzt hier nicht ausarten zu lassen :) Ich besitze einen LG OLED 77 Zoll TV :)
Welches Modell denn genau? Woher stammen die 607 Nits? Ich habe einen B1 und der gilt ja als vergleichsweise dunkel, wenn man ihn mit dem C1 vergleicht. Dennoch kann ich laut Kalibrierungstool bis 750 Nits ansteuern, bis es ins Clipping geht. Würde ich bei dem Gerät nur 600 Nits als Obergrenze angeben (Peak 10% Window bei RTINGS.com), würde ich einiges an Helligkeit verschenken.
 
  • Gefällt mir
Reaktionen: Shadowbrain1979
Dann installier dir mal die App "DisplayHDR Test" im Windows-Store und starte sie mit Windows im HDR-Modus mit HGiG.

Wenn du 31 mal Bild↓ drückst, landest du auf der Seite mit der Überschrift "Calibrate Max Tone Mapped Luminance Value". Mit Pfeil↑ und Pfeil↓ regulierst du den Nit-Wert. Schau da mal, wie hoch du gehen kannst, bis zum ersten Mal das Logo gar nicht mehr in dem weißen Quadrat zu sehen ist, weil es genau so weiß geworden ist. Das ist der tatsächliche Nit-Wert, den du bei CRU ins erste Feld eintragen musst.

Eine Seite mit Bild↓ weiter ("Calibrate Max Full Frame Luminance Value") kalibrierst du den zweiten Wert in CRU. Bei meinem TV sind beide Werte identisch, auch wenn das Weiß im zweiten Test aufgrund von ABL deutlich dunkler ausfällt. Das spielt aber hierfür keine Rolle. Es geht einzig und allein darum, ab wann das Logo verschwindet.

Bei LCD-Bildschirmen fällt der zweite Wert in der Regel niedriger aus als der erste Wert. Bei meinem Samsung CRG9 beispielsweise sind die Werte im EDID mit 1015 Nits und 604 Nits vordefiniert, während ich mittels Kalibrierungstool die Werte 979 Nits und 604 Nits ermittle. Der erste Wert ist also geringfügig schwächer, während der zweite Wert sogar exakt passt. Das zeigt mir aber gleichzeitig auch, wie sehr auf diese Form der Software-Kalibrierung Verlass ist.

Den dritten Wert lässt man bei den OLED-TVs leer, da es keine Untergrenze beim Schwarz gibt.

Bin gespannt ob du da auch auf die 748 Nits kommst, oder ob ich wirklich Glück mit meinem Modell hatte, denn das liegt ja eigentlich weit über dem Soll-Wert und kommt dem C1 schon sehr nahe.
 
Shadowbrain1979 schrieb:
Sollte ich den CRU erstmal Resetten ?
Kannst du machen, sollte aber nicht nötig sein. Wichtig ist nur ein Restart nach den Änderungen.

Ich habe allerdings festgestellt, dass die ganzen anderen Einstellungen, die im ersten Beitrag beschrieben werden, bei mir nicht nötig sind bzw. nichts bringen (bei meinem Samsung auch nicht), also diese ganzen Colorimetry-Werte anzuhaken. Kannst also gerne auch ein Reset ausführen und dann nur die zwei oberen Luminance-Werte eintragen.

Und um das nochmal deutlich zu sagen: Die Werte, die du mit CRU einträgst, sind für ein Spiel mit manueller Kalibrierung völlig irrelevant. Bisher verwendet nachgewiesen nur Auto-HDR bei Spielen diese Daten zur Kalibrierung. Sie haben auch keinen Einfluss auf das Kalibrierungstool, sondern definieren da lediglich bestimmte Startwerte. Inzwischen wissen wir auch, dass der SDR-Content-Brightness-Slider davon nicht beeinflusst wird.
 
Zuletzt bearbeitet:
Jain. Filme werden dadurch teilweise je nach Player bzw streaming App beeinflusst.

Da können dann helle Details überbelichtet aussehen


@VaniKa . Du kannst auch testweise Mal den colormetrie Block in CRU einfach löschen.

Ich zb hab im Moment nur die dynamischen und statischen HDR Metadaten + freesync Range überhaupt in der EDID.
Denn Rest hab ich gelöscht weil sich die colormetrie Daten mit den HDR Metadaten beißen können..

Bzw das Bild sieht anders aus.. teilweise dunkler

Da du den Dolby Vision Block hast könnte es auch ohne die bt2020 Farbräume in der colormetrie funktionieren
 
Blackfirehawk schrieb:
Filme werden dadurch teilweise je nach Player bzw streaming App beeinflusst.

Da können dann helle Details überbelichtet aussehen
Hmm, ich nutze Edge für YouTube und RTL+, sowie die Apps von Netflix und Amazon Prime (zumindest hatte ich das bis zum Umstieg auf die nativen TV-Apps). Da ist mir nichts aufgefallen. Auf den Desktop und regulären SDR-Content scheint das jedenfalls auch keinen Einfluss zu haben. Bei meinen beiden Bildschirmen (OLED-TV und Samsung-LCD) ist unter Colorimetry standardmäßig nur BT.2020 YCC und BT.2020 RGB angehakt, also identisch, obwohl unterschiedliche Hersteller und Panel-Technologien. Reiner Zufall und gleichermaßen geschlampt?

Okay, gerade habe ich den kompletten Colorimetry-Block gelöscht. Nun ist SDR im HDR-Modus blass wie eine Leiche, jedenfalls auf dem Samsung, auf dem ich das gerade getestet habe. Finde ich ja interessant, dass das bei dir dann nicht passiert.

Noch mal etwas zu dem Black-Level-Problem von SDR-Content im HDR-Modus. Ich habe noch diesen Thread gefunden, in dem das Problem erläutert wird:
https://www.avsforum.com/threads/windows-hdr-broken.3194947/
Leider gab es da nicht sonderlich viel Resonanz, weil wohl auch nicht alle das Problem wirklich verstanden hatten. Der Nutzer meinte am Ende aber, dass das Problem in Windows 10 20H2 bestand, dann aber in 21H1 augenscheinlich behoben worden wäre. Nun begegne ich dem Problem aber in Windows 11.

Ich frage mich, an wen man sich da bei Microsoft konkret wenden kann, damit die den Bug wirklich ernst nehmen. Das macht nämlich den ganzen SDR-Content im HDR-Modus kaputt. Man merkt das auch mit Auto-HDR. Wenn ich Auto-HDR nutzen möchte, muss ich für ein korrektes Bild nun immer am TV (eigentlich falsch) den Black-Level auf Limited stellen. Und der ganze Desktop sieht ja auch falsch aus, inkl. aller SDR-Videos, z.B. bei YouTube oder in Apps wie Netflix.

Es wird dann schnell gemeint, das sei halt der Umwandlung von SDR nach HDR geschuldet und man solle daher für SDR immer natives SDR verwenden, aber das ist Quatsch. Es ist ein Bug. Vielleicht wurde der in Windows 10 21H1 ja wirklich behoben und Windows 11 basiert da noch auf einer älteren Codebasis, wodurch sich der Bug wieder eingeschlichen hat.
 
VaniKa schrieb:
Samsung, auf dem ich das gerade getestet habe. Finde ich ja interessant, dass das bei dir dann nicht passiert.
Hab über delta e Edit die dynamischen Metadaten aktiviert. .
Wichtig sind weniger die Farbraum information im colormetrie Block... Sondern die Metadaten md0-3

Die Farbraum Infos geben dem Monitor nur an Sachen die in diesen Farbraum codiert sind so genau wie möglich anhand hinterlegter Tabellen darzustellen.




VaniKa schrieb:
Noch mal etwas zu dem Black-Level-Problem von SDR-Content im HDR-Modus. Ich habe noch diesen Thread gefunden, in dem das Problem erläutert wird

Nun bei mir mit dem Samsung Monitor sieht SDR content genauso aus wie wenn ich im "SDR-Mode" bin. Auch wenn ich die verschiedenen Kalibrierungsseiten durchgehe.
Dunkler weil nur mit 240nits anstatt max helligkeit aber kann nicht sagen das es Limited wäre.

Schalte ich im GPU Treiber auf Limited sehe ich das sofort das SDR content scheiße aussieht weil's bleicher/milchiger ist.

Aber .. ich bin per Displayport verbunden.. ich kann beim Monitor im OSD gar kein schwarzwert verändern..
und hab zur Zeit die neuste win11 Developer Version drauf.

vielleicht ist der AMD Treiber da aber auch anders..
 
Zuletzt bearbeitet:
Ich bin jetzt wieder einen kleinen Schritt weiter bei der Analyse des Problems. Gamma ist echt tricky und kann einen ganz schön verarschen, vor allem beim Ausbalancieren von Brightness und Gamma. Man kann schnell das eine nutzen, um das andere scheinbar zu korrigieren. Und eine zu hohe oder zu niedrige OLED-Helligkeit kann man schnell mit einer falschen Gamma-Kurve ausgleichen wollen.

Meine Erkenntnis, dass es mit einem Limited-Black-Level am TV korrekt aussieht, bleibt bestehen, jedoch hatte ich bei verschiedenen SDR-Bildmaterialien im Vergleich zum nativen SDR-Modus noch Unterschiede gefunden. Die verschwinden aber, wenn ich im nativen SDR-Modus als Gamma BT.1884 (bzw. 2.4) einstelle anstatt 2.2. Dann passt es wirklich absolut exakt. Vorausgesetzt der SDR-Slider passt zur OLED-Helligkeit im SDR-Modus.

Das bedeutet, wenn man sich den Bug weg denkt, dass für SDR-Content im HDR-Modus kein Gamma 2.2, sondern BT.1884 bzw. 2.4 verwendet wird. Das finde ich etwas eigenartig, passt aber zu Film-Content und entspricht dabei der Videodarstellung auf dem iPhone und eben dem SDR-Filmmaker-Modus beim TV. Es ist dunkler als Gamma 2.2, aber ich kann definitiv bestätigen, dass der Black-Level-Fix durch den Limited-Modus am TV die Schwarztöne nicht crusht, sondern auch noch SDR-Schwarzwerte unter 16 differenziert dargestellt werden und sogar die Weißwerte steigen und im Bereich 236-255 ebenfalls nicht crushen, sondern noch differenziert dargestellt werden. Wäre der Bug nicht vorhanden, müssten SDR-Werte von 0-15 und 236-255 definitiv crushen, wenn ich den TV auf Limited stelle, tun sie aber nicht. Das beweist, dass sich im SDR-Modus aufgrund des Bugs alle Werte zwischen 16 und 235 befinden, also der Limited-Modus verwendet wird für SDR-Content.

Was mich allerdings auch etwas wundert: Ich habe mich beim nativen SDR-Modus am Filmmaker-Modus orientiert mit OLED-Helligkeit 80, Kontrast 85 und Gamma BT.1886. Ich würde eigentlich annehmen, dass bei einer von RTINGS.com festgestellten SDR-Spitzenhelligkeit von 400 Nits eine OLED-Helligkeit von 80 dann 80 % von 400 entspräche, also 320 Nits. Wenn ich dann aber 320 Nits beim SDR-Slider im HDR-Modus auswähle (Wert 60), ist das viel heller. Tatsächlich entspricht eher ein Slider-Wert von 25 (180 Nits) dem nativen SDR-Modus. Die Idee, man könnte einfach durch etwas Prozentrechnung auf bestimmte Werte kommen, hat sich also mal wieder als falsch herausgestellt. Ist aber auch irgendwie logisch, denn sonst müsste ja eine OLED-Helligkeit von 0 den Bildschirm komplett schwarz machen. Wie hell volles Weiß also bei welcher OLED-Helligkeit-Einstellung ist, kann man nur messtechnisch von außen ermitteln. Oder eben so lange zwischen SDR und HDR-SDR hin und her wechseln, bis beides gleich hell wirkt. Dann würde der SDR-Slider die Helligkeit verraten.

Auf jeden Fall passen bei mir SDR und HDR-SDR nun wirklich zu 99 % überein mit diesen Einstellungen:

Nativer SDR-Modus:
OLED-Helligkeit: 80
Kontrast: 85
Gamma: BT.1886
Black-Level: Full

Also hier habe ich einfach den Filmmaker-Modus als Referenz genommen. Ich finde, dass SDR-Filme so einfach super aussehen, vor allem eben mit Gamma BT.1884 statt 2.2.

SDR im HDR-Modus:
OLED-Helligkeit: 100
Kontrast: 100
Gamma: 2.2 (sagt der TV und kann man nicht ändern)
Black-Level: Limited (eigentlich falsch und nur nötig aufgrund des Bugs)
SDR-Slider: ~25

Abgesehen von dem Workaround wegen des Bugs und der Anpassung des SDR-Sliders alles Standard für den HDR-Modus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fabii02 und Stagefire
Zurück
Oben