HDR unter Windows, Howto

Stagefire schrieb:
???

andersrum .. wenn du 40 FPS und Gsync oder Freesync hast werden bei einem 120hz monitor die 120hz zu 40hz.
Die Hz passen sich den FPS an.
Wenn du unter der sync Grenze bei meinem Monitor bist werden aus 40fps 120hz
Sprich jedes Bild wird 3 Mal ausgegeben um das ganze syncron zu halten.
So funktioniert LFC bei meinem Monitor.

Ich hab auch eine Funktion die nennt sich VRR enhance

Dadurch werden die Herzzahlen generell multipliziert
Aus 60fps werden 240hz
Aus 55fps werden 220hz
Aus 119fps werden 238hz
Und so weiter
 
Blackfirehawk schrieb:
Wenn du unter der sync Grenze bei meinem Monitor bist werden aus 40fps 120hz
Sprich jedes Bild wird 3 Mal ausgegeben um das ganze syncron zu halten.

oh okay das kannte ich bisher noch nich .. dachte LFC heisst einfach nur das
er dann halt von 0 - 120hz als Beispiel Freesync kann .. also das er dann zb auf 5hz runter geht
bei 5fps

Heute in Vince Video vom C9 hatte ich noch was endeckt.

4.jpg


1.jpg


4.jpg
1.jpg


Dachte erst das sind Fixe Werte aber auf der Konsole kann man das wohl anpassen .. man hätte sonst zb die Passenden OLED Werte gehabt.
 
Kann gut sein das es da variable tonmapping Daten gibt..

Gibt ja auch die Option unter HDR Static Metadata die sich "Static Metadata" nennt
Und Windows kann im Gegensatz zu den Konsolen ja auch nicht mit Dolby Vision umgehen wie es scheint..
Ich hab auf einen deiner Screenshots gesehen das es da unter CRU n Dolby Vision Datablock gibt.. den man aber nicht editieren oder einsehen kann..
Kannst den ja Mal testweise löschen und gucken was passiert

Kann auch sein das dein AVG frame luminance wert 300nits ist
 
Blackfirehawk schrieb:
Kann gut sein das es da variable tonmapping Daten gibt..

Man sieht im Video wie er die Werte mit dem Gamepad anpassen konnte.
Die Konsolen haben extra ein Kalibrier Bildschirm vom Betriebssystem her
das gibts beim PC ja nich da macht man das jeweils im Spiel Menu.

Blackfirehawk schrieb:
Und Windows kann im Gegensatz zu den Konsolen ja auch nicht mit Dolby Vision umgehen wie es scheint..

Das war mal anders ... ab 2017 gabs bisher 3 Dolby Vision Games die zumindest damals liefen

Battlefield 1
Mass Effect Andromeda
NFS Heat

aber Microsoft hat den Dolby Suppport gedroppt daher geht das nun im Grunde nich mehr
aber ein paar Leute haben es noch hinbekommen.

Er hier zb mit ner RTX 3070 und bei Mass Effect Andromeda


Ich hatte es auch 2 mal Probiert aber habs nich hinbekommen daher stammen auch diese
Rot - Blau - Grün Bilder die ich letztens hier gepostet hatte. Aber es ging zumindest mal.

Blackfirehawk schrieb:
Ich hab auf einen deiner Screenshots gesehen das es da unter CRU n Dolby Vision Datablock gibt.. den man aber nicht editieren oder einsehen kann..
Kannst den ja Mal testweise löschen und gucken was passiert

Dadurch wird sich nix ändern .. mein OLED hat ja Dolby Vision daher auch der Block.

Blackfirehawk schrieb:
Kann auch sein das dein AVG frame luminance wert 300nits ist

Das war zumindest der Startwert bevor er den mit dem Gamepad geändert hat .. sieht man im Video :

Ab 01:10 min.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Blackfirehawk
So ich will ja nicht nur nörgeln

Hier mal der Vergleich zwischen dem Helligkeitsverlauf von SDR und HDR, bei gleicher Helligkeit.

Einmal SDR
G34WQC-SDR-Luma.PNG



Einmal HDR
G34WQC-HDR-Luma.PNG


So wie man sehen kann ist da deutlich mehr Unterschied wie SDR 400 ist ja quasi HDR 400.

Und nun zu den Werten. Genau weiss ich es auch nicht. Ihr könnt aber mal folgende Werte probieren.

Wenn ihr die schon in Bit angeben wollt, dann bitte auch in 10bit für HDR nicht in 8 bit für SDR, wobei das nur ein Schönheitsfehler sein sollte.
Max Luminance sollte die Maximale Helligkeit des Kontent sein also in dem Fall 1024 bzw. 940
Max frame-avg. sollte die durchschnittliche Helligkeit vom Kontent sein, was ungefähr bei 40% der Maximalen Helligkeit entspricht.
Min Luminance sollte die Minimale Helligkeit vom Kontent sein, also in dem Fall 0 bzw. 64

Ich gehe davon aus das es sich um den Kontent und nicht den Monitor handelt, da dieser für die Transformation meiner beiden gezeigten Helligkeitsverläufe fast uninteressant ist. Je nach Monitor und auch Mastering vom Kontent (1k Nits , xk Nits, ..., 10k Nits ) ist der Bereich des Rolloff leicht verschoben. Auch sei erwähnt, das die HDR- Kurve die ich hier darstelle nicht den Referenzkurven entspricht. Sie ist ihr aber sehr ähnlich. Die Kurvenform ist nahezu korrekt, nur die Helligkeiten weichen ab.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
SeniorWitti schrieb:
So wie man sehen kann ist da deutlich mehr Unterschied wie SDR 400 ist ja quasi HDR 400.

Zumindest habe ich keinen Großen Unterschied bei meinen Tests damals feststellen können
die ich mit dem BenQ XL2420T ( 300 Nits SDR ) und dem Asus PG43UQ ( Auf HDR 400 gestellt ) gemacht habe


SeniorWitti schrieb:
Wenn ihr die schon in Bit angeben wollt, dann bitte auch in 10bit für HDR nicht in 8 bit für SDR, wobei das nur ein Schönheitsfehler sein sollte.

Ich weiss zwar grad nich wo das Bestandteil unserer Diskussion war aber gut.
Es gibt aber auch 10 Bit SDR und 8 Bit + Dithering HDR.

SeniorWitti schrieb:
Max Luminance sollte die Maximale Helligkeit des Kontent sein also in dem Fall 1024 bzw. 940

Der OLED schafft doch keine 1024 oder 940 Nits Peak
Peak Wert beim OLED is so 800 Nits... siehe RTINGS.
Somit müsste man eben bei Max Lumi auf etwa 800 Nits kommen

Es geht ja darum Windows aufzuzeigen in welchem Nits Bereich unser TV / PC Monitor
arbeitet. Und das machen wir mit CRU.

Wenn man nun in CRU bei Max Lumi auf 1024 Nits geht denkt Windows mein OLED kann
1024 Nits und wird in Windows auch so geführt bei der Erweiterten Anzeigeneinstellung
aber das is ja Falsch ... er hat nur 800 Nits.

SeniorWitti schrieb:
Max frame-avg. sollte die durchschnittliche Helligkeit vom Kontent sein, was ungefähr bei 40% der Maximalen Helligkeit entspricht.

Jep das würde auch Sinn machen das es eben nich der Wert von 100 % Weiss is sondern eben der Wert
von "Durschschnittliche Maximal Helligkeit aller Bilder"

Wobei es da glaub ich fast unmöglich ist den passenden Wert zu finden
da es zig Games und Filme gibt .. die müsste man alle dann erst genau Analysieren um dann
die Max Durschschnittshelligkeit von all dem zu fiden.

Aber die 40% wird dann denk ich mal ein Richtwert sein.

Das Erklärt aber auch warum bei Vince in seinem Video dort "300" stand als Ausgangswert.
Und das währen so 40 %

800 : 100 = 8 .. 8 X 40 = 320 ... also 320 Nits Durchschnitt und 800 Nits Peak. beim OLED.

4.jpg


SeniorWitti schrieb:
Min Luminance sollte die Minimale Helligkeit vom Kontent sein, also in dem Fall 0 bzw. 64

Jepp und könnte man somit bei "blank" also "0" lassen in CRU

Danke ... das war nun mal Konstruktiv !!!

4.jpg


hmmm ... er geht vom 100 % weissbild aus und somit 150 Nits und somt so 19 % vom Peak
Wobei unten Differenziert er noch weiter.

Das Problem is halt das die beiden oberen CRU Werte immer einfluss auf 2 Vesa DisplayHDR Test Werte haben und wir nich wissen welchen Wert davon Windows beeinflusst.

Das sieht man hier ja auf meinem Bild nochmal :

1.jpg
 
Zuletzt bearbeitet:
Stagefire schrieb:
Der OLED schafft doch keine 1024 oder 940 Nits Peak
Peak Wert beim OLED is so 800 Nits... siehe RTINGS.
Das steht aber auch das es nichts mit dem Monitor zu tun hat. Es geht um die Helligkeit in 10bit Schreibweise, was in 8 bit halt 256 bzw. 235 entspricht. Je nach HDR Mastering entspricht das bis zu 10000 Nits.

Und die 800 nits Peak beim LG48C1 bekommt man auch nur bei 11K Farbtemperatur. Wenn man den TV nach Warm2 einstellt, bleiben mit viel Glück 650 Nits übrig. Meinen E9 bekomme ich auch auf 880 Nits, im VIVID Mode sogar noch ein wenig mehr. Real bleiben 760 übrig. Dann Steht aber auch das OLED-Licht und der Kontrast auf 100 und die größte Helligkeit auf Hoch. Wenn ihr bei euren OLEDS zwischen 650-700 nehmt seid ihr besser beraten.
 
SeniorWitti schrieb:
Das steht aber auch das es nichts mit dem Monitor zu tun hat. Es geht um die Helligkeit in 10bit Schreibweise, was in 8 bit halt 256 bzw. 235 entspricht. Je nach HDR Mastering entspricht das bis zu 10000 Nits.

Ah okay .. was du sagen willst is das die Bittiefe die Helligkeit beeeinflusst nehme ich nun an.

Allerdings glaube ich nich das Spiele Gemastert werden ... sowas gibts im Film Bereich aber ich
glaub bei Games gibts das nich.

SeniorWitti schrieb:
Und die 800 nits Peak beim LG48C1 bekommt man auch nur bei 11K Farbtemperatur. Wenn man den TV nach Warm2 einstellt, bleiben mit viel Glück 650 Nits übrig. Meinen E9 bekomme ich auch auf 880 Nit

Ein Grund warum ich Warm 2 nicht nehme .. ich weiss is am Akkuratesten ( Zumindest im Film bereich )
aber mir is das zu Orangig und Dunkel das Bild mit Warm 2.

Ich geh max auf Warm 1 bin aber meisst bei Mittel oder Neutral ... je nach dem Game .. wechsel da immer hin und her. Was das angeht bin ich mir auf Seiten der Max Helligkeit und weniger auf Seiten der
Akkuratheit .. das Bild soll ja mir gefallen und mit Warm 2 gefällt mir das Bild was meine
Augen sehen nich so sehr.

Es gibt nur wenige Ausnahmen wo ich auch mal Warm 2 nehme .. zb Spiel ich grad Alan Wake Remastered
und da sieht Warm 2 besser aus. Aber man kann die Games die ich mit Warm 2 zocke an einer Hand abzählen.

SeniorWitti schrieb:
im VIVID Mode sogar noch ein wenig mehr.

Jepp .. Vivid soll man aber nich nehmen weils halt schon Arg Krass auf die Lebenszeit gehen kann wenn man das dauernt nutzt. Und sieht in meinen Augen nich so toll aus. Aber das weisst ja sicher auch selber schon.

Als Gamer nutz ich natürlich beim OLED den Game Mode in Verbund mit dem PC Mode vorallem da nur
der PC Mode einem zugriff auf 4:4:4 bzw RGB gibt bzw der TV das so nicht intern umwandelt von in Windows Eingestellten RGB auf Intern 4:2:2.

SeniorWitti schrieb:
Real bleiben 760 übrig. Dann Steht aber auch das OLED-Licht und der Kontrast auf 100 und die größte Helligkeit auf Hoch. Wenn ihr bei euren OLEDS zwischen 650-700 nehmt seid ihr besser beraten.

Ja setzt man zb auf HGIG und Warm 2 .. macht man das nich siehsts halt anders aus und man is mehr im 800 Nits Bereich und weniger im 700 Nits Bereich.
 
Zuletzt bearbeitet:
So habe den VESA Test nun doch mal gemacht.

Vesa test.PNG


Display ist in dem Fall ein Gigabyte G34WQC
Die Werte Stimmen auch, habe sie überprüft mit einem X-rite
Habe Widows 10 und NIX mir CRU gemacht.
Den Testpattern PQ- ST2084 mit den angegebenen Helligkeiten habe ich überprüft. Passt auch grob.
An den Werten ändert sich übrigens überhaupt nichts selbst wenn ich den Windows Slider verstelle.
 
SeniorWitti schrieb:
Habe Widows 10 und NIX mir CRU gemacht.
An den Werten ändert sich übrigens überhaupt nichts selbst wenn ich den Windows Slider verstelle.

Merkste selber nech ? :D

Der SDR Slider hat doch auch garkeinen Einfluss auf die VESA DisplayHDR Test Werte sondern eben die Werte die man in CRU Eingibt ... das is doch auch genau das Problem weil wir eben nich wissen welche CRU Werte nun für was stehen.

Also du meintest ja vorhin 40%

Also sind 389 Nits 40% von 407 Nits ? Scheint also nich ganz richtig zu sein deine 40 % die du vorhin genannt hast. Aber das wirft das VESA Display HDR Tool ja bei dir raus. ( 407 und 389 Nits )

Der SDR Slider soll doch nur die Helligkeit von SDR Material ( Windows , Browser , SDR Games und SDR Filme ) anpassen wenn man im HDR Mode bleibt .. damit das SDR Material nich zu hell dargestellt wird weil man sich ja im HDR Mode befindet.

Standart Werte die Windows Automatisch nimmt weil Win die Nits Werte aus der EDID nich finden kann :

OLEDs haben aber keine 1433 / 1499 Nits Peak .. aber Windows nimmt den Wert von sich aus weil es auf die EDID nich zugreifen kann.

Ohne.jpg



Manuel eingefügte Nits Werte damit Windows die Korrekten Nits Werte hat und eben nich von
1433 Nits bzw 1499 Nits ausgeht sondern von den Werten die ein OLED hat.

CRU.jpg



Nun Deutlicher Geworden ?

Das Problem :

wir wissen die Korrekten Werte zwar aber wissen nich in Welche Spalte bei CRU welcher Wert kommt.
Bzw beim Max Lumi isses klar .. OLED hat 800 Nits Peak also 800 Nits und somit 128 bei Max Lumi.
Min Lumi is auch klar OLED hat Perfekltes Schwarz und somit 0 Nits und somit bleibt das Leer.

Aber was kommt eben bei "Max Frame AVG" hin ... darum gehts.

Du sagst "40 % vom Peak" ... wenn man sich nun aber deine Werte anschaut kann das nich der Fall sein.
Ich sage das es der "Real Scene" Wert is den RTINGS bei den OLEDs gemessen hat und somit so zwischen 540 und 640 Nits .. und andere sagen das is der "100 % Weissbild" Wert und somit so zwischen 135 - 150 Nits.

Das is das Problem.


Der Slider is ein anderes Problem .. bei einigen geht er und bei anderen sieht das Bild damit komisch aus.
Aber das is wie gesagt ein weiteres Problem aber eben nich das selbe.


Dennoch danke das du uns hier deine Werte verlinkt hast... ich werde die mal ans AVS Forum weiterleiten
Währ auch cool wenn du noch eine Seite weiter gehen könntest beim VESA Tool damit wir beide Seiten haben. Die 2te Seite siehst du ja auch auf meinen Bildern und hat mehr Infos. Daher pack ich in meinen Bilder auch immer beide Seiten mit rein.
 
Zuletzt bearbeitet:
Stagefire schrieb:
Merkste selber nech ?
Gemeint waren die Messwerte vom X-Rite aber egal
Stagefire schrieb:
Also du meintest ja vorhin 40%

Also sind 389 Nits 40% von 407 Nits ? Scheint also nich ganz richtig zu sein deine 40 % die du vorhin genannt hast.

Ja. die 40% Kontent Durchschnitshelligkeit meinte ich beim CRU. Das solltet ihr mal testen. Das da oben sind Monitordaten. Nicht verwechseln. Vielleicht wird es ja besser.
 
SeniorWitti schrieb:
Gemeint waren die Messwerte vom X-Rite aber egal

OK dann hatte mich wohl deine Aussage "NIX mir CRU gemacht." verwirrt.

SeniorWitti schrieb:
Ja. die 40% Kontent Durchschnitshelligkeit meinte ich beim CRU. Das solltet ihr mal testen. Das da oben sind Monitordaten. Nicht verwechseln. Vielleicht wird es ja besser.

Es muss ja erstmal schlechter sein damit es besser wird.
Bei mir is alles soweit ok .. aber bei anderen nicht.
Und wir müssen halt rausfinden welcher Wert zu Max Frame AVG passt.

Ich hab mom bei Max Frame AVG die 560 Nits ( OLED Real Scene Wert von RTINGS ) drinn was 70 % von 800 Nits währen.

Aber wie ich schon sagte machen deine 40 % keinen Sinn wenn man sich mal deine Werte anschaut.

Du hast HDR 400 und 407 Nits Peak .. dein "Max Frame AVG" Wert is bei 389 Nits ... 389 Nits sind aber keine 40 % von 407 Nits sondern es währen 162 Nits .. bei dir steht aber 389 Nits daher kann es nich 40 % sein.

Und Poste bitte mal beide Seiten vom Vesa Tool damit wir alle Werte haben !!
 
Zuletzt bearbeitet:
Bei mir ist es bei hdr600
603 nits peak
366 nits average

Von rtings weiß ich von 324nits im SDR Modus was die gemessenen haben.. (ka ob das die SDR max helligkeit ist.. bei mir steht das im OSD auf 100%)

Also mit 40% kommen wir da nicht wirklich hin

Zumal der Slider bei mir auf 100% steht.. also ist die helligkeit um 100% erhöht..
Sprich SDR/HDR Slider ist bei 0% dementsprechend auf 162nits

Wo zur Hölle nimmt der also diese 160Nits (Slider 0) als Berechnungswert her?

Ist das vllt n fester Windows wert?
160nits @Stagefire Sagt ja das er den Slider fast auf 0 hat

Dementsprechend wären 20% auf dem Slider ja 200nits.. was mit den Oleds ja wieder hinkommt

Sprich Windows geht bei SDR einfach von festen 150-160nits aus
Und dementsprechend muss man den Slider auch berechnen.. 100% Slider sind 300-320nits
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
Wo zur Hölle nimmt der also diese 160Nits (Slider 0) als Berechnungswert her?

Wo kannst du denn die 160nits einsehen ?
Oder hast du nun von dir aus deine 324 Nits durch 2 geteilt ?

Blackfirehawk schrieb:
@Stagefire Sagt ja das er den Slider fast auf 0 hat

Momentan auf 18 .. manchmal auf 0 .. manchmal auf 30 .. ich schwanke
je nach Laune .. aber da ich ein OLED hab und meine OLEDs im OLED möglichst lang
erhalten will stell ich den Slider halt möglichst tief sowie ich eben auch mein OLED Light im TV Menu
möglichst Tief stelle im SDR Mode .. statt OLED Light 100 im HDR Mode stell ich das OLED Light in
SDR auf so 35-45 ( nich zuverwechseln mit der normalen Helligkeits Einstellung im TV Menu )

Das is halt nochmal was anders mit OLED ... je heller man sein OLED laufen lässt und das über dauer
desto geringer is die Lebenserwartung des OLED. Weil man beschleunigt damit dann das Ausbrennen
der OLEDs. Mein OLED soll ( sofern der 42" OLED doch nix wird ) aber so 5 Jahre halten
daher schon ich mein OLED im SDR Bereich. ( wird aber auch allgemein beim OLED empfohlen in im SDR Mode halt runterzufahren beim OLED Light )

Und im HDR Mode steht mein OLED Light auf 100 also muss ich mit dem SDR Slider halt auch
ziemlich tief runter um die Helligkeit zu erreichen die ich normalerweise in SDR mit OLED Light 35 hätte.


Dein G7 Odysee ( HDR 600 ) bei RTINGS :

https://www.rtings.com/monitor/reviews/samsung/odyssey-g7-lc32g75t

2.jpg


HDR

Peak = 531 Nits
100 % Weiss = 324 Nits
Real Scene Highlight = 407 Nits
40 % von dem Peak währen = 212 Nits


Mein 48CX ( "HDR 800" ) :

https://www.rtings.com/tv/reviews/lg/cx-oled

222.jpg


22.jpg


HDR Game Mode :

Peak = 804 Nits
100 % Weiss = 152 Nits
Real Scene Highlight = 563 Nits
40 % von dem Peak währen = 321 Nits



Zum Vergleich auch @SeniorWitti Gigabyte G34WQC ( HDR 400 ) :

https://www.rtings.com/monitor/reviews/gigabyte/g34wqc

1635647764914.png



Peak = 499 Nits
100 % weiss = 487 Nits
Real Scene Highlight = 499 Nits
40 % vom Peak währen = 199 Nits


Seine VESA DisplayHDR Daten : ( Die die er zumindest bisher hier gepostet hat )

Vesa test.PNG



Die Frage is halt nun welcher Wert ( Ausser Peak natürlich ) is der Max Frame AVG Wert ?

100 % Weiss oder Real Scene Hightlight oder 40 % vom Peak ?

Und ich vermute immernoch sehr Stark das es der Real Scene Hightlight Wert ist
Wenn man sich das alles so ansieht kann es jedenfalls nich die 40 % sein.


-----------------------------------------------------------------------------------------------------------------


Post : 13.987 ( von Jason )

https://www.avsforum.com/threads/2020-lg-cx–gx-dedicated-gaming-thread-consoles-and-pc.3138274/page-700

Max Frame AVG = Max Lumi ( Zumindest von den Werten her )

Aber den Wert den wir brauchen is eigentlich "MaxFullFrameLuminance"
aber den beeinflussen wir zum Glück auch mit Max Frame AVG.

Und "MaxFullFrameLuminance" muss wohl auch auf 800 Nits wie auch Max Lumi.


Heisst beim OLED bei CRU

Max Lumi = 128
Max Frame AVG = 128
Min Lumi = 0 ( Leer lassen )

Wichtig is aber eigentlich :

Max Lumi
Max Full Frame Luminance ( Beeinflussen wir auch mit "Max Frame AVG" )
Min Lumi

Sieht man in der DXDiag.txt


DX.jpg



Er hat dazu auch ne Menge Info zu gepackt .. das is zuviel um das hier auch noch einzufügen .. daher schaut im von mier eben verlinkten AVS Forums Thread rein... Post 13.987

Das erklärt auch warum SeniorWitti nur 18 Nits abstand hatte

Gigabyte G34WQC HDR 400.PNG



Und beim OLED dann :

1.jpg



Er schreibt aber auch das es vielleicht besser währe beim OLED den Real Scene Wert zu nehmen

1.jpg
 
Zuletzt bearbeitet:
Bedenke min luminance ist kein Nit wert.. selbst wenn du den auf 255 stellst ist das immer noch ne 1,xx Zahl
 
Stagefire schrieb:
o kannst du denn die 160nits einsehen ?
Oder hast du nun von dir aus deine 324 Nits durch 2 geteilt

Ist für mich halt logisch.. 0% vom Slider ist NICHT schwarz..
Also ist es ein wert ..zb 150nits.. und Pack ich 100% auf den Wert drauf sind es 300nits

Ist n bischen irreführend.. der Slider verstärkt die SDR Helligkeit um bis zu 100%
Und es kann gut sein das Windows einfach denn festen Wert von zb 150nits für SDR content hat im HDR Modus..



Und zum min luminance wert fällt mir folgendes ein wenn ich mir die Daten von seniorewitt und meinen Monitor so ansehe..

Er hat einen HDR400 Monitor.. wahrscheinlich IPS ohne dimmingzonen.. sein durchschnittlicher Helligkeitswerte ist 389Nit.. maximaler wert ist 407Nits

Aber sein minimaler wert ist nie im Leben 0.119 Nits.. bei mir ist dieser Wert laut vesatool bei 0.49


Es gibt nur ganze nits.. und selbst wenn dieser Wert ist so extrem dunkel das es fast schwarz ist.. das ist aber unlogisch bei einem LCD Panel.. ein OLED geht soweit runter auf 0 nits.. aber kein LCD Panel was neben dem schwarz auch helle Highlights anzeigen muss.. ist einfach eine Frage der Hintergrund Beleuchtung..
das dimmt bei LCD ja nicht einzelne Pixel.. nur Bereiche oder den ganzen Bildschirm.. geht ja bei HDR auch um saubere Helligkeitsabstufungen im dunklen
Und selbst wenn schwarz angezeigt wird leuchtet im Hintergrund noch was bei den LCDs


Selbst wenn ich in CRU hingehe und 255 in den min luminance wert eingebe bin ich immer noch im vesa tool bei einem Wert von 1.xx

Während bei max und frame average 255 =12000 nits ist

Ergo denke ich das der min luminance wert bedeuted um wieviel % der Bildschirm gegenüber max AVG luminance abdunkeln kann!

Seniorwitts Monitor kann also maximal 11,9% abdunkeln

Er liegt also im HDR Modus bei ca 330nits für dunkle Highlights und bei 407nits für helle Highlights.. der effektive HDR Bereich ist also gerade Mal ca 70nits Unterschied zwischen maximaler Dunkelheit und maximaler helligkeit
Klingt logisch für einen Monitor der keine dimmingzonen hat und nur das komplette Bild erhellen oder verdunkeln kann um Highlights anzuzeigen während der Rest des Bildes normal sichtbar sein muss



mein Monitor hat jetzt mehrere dimmingzonen und ist ein kontrastreiches VA Panel.
Also kann der Monitor bis zu 49% seiner helligkeit in dunklen Bereichen reduzieren

Gut HDR400 ist sowieso verarsche.. Vorallem mit nem IPS Panel was n miesen Kontrast hat


Ein OLED müsste dementsprechend im Vesa-tool einen Wert von genau 1.00 haben auf dem min luminance wert.. weil er kann das Licht um bis zu 100% reduzieren in dunklen Bereichen.. gibt's du da 0 ein wirst du alles was nicht Pures schwarz ist an die maxframeavg luminance binden.
Du willst ja auch im Schatten deine 50nits haben während alles drumherum 150nits ist

Setzt du maxframeavg luminance und max luminance auf den gleichen Wert und hast dabei min luminance auf 0 versaut du dir das ganze tonmapping im dunklen bereich weil auch dieser Schatten mit 800nit versucht wird darzustellen

Ist jetzt aber auch nur ne Theorie
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
Ist für mich halt logisch.. 0% vom Slider ist NICHT schwarz..

Jup ... aber ich Persönlich könnte nun nich sagen wieviel Nits das bei mir währen.
Aber den Slider stell ich halt einfach nur so ein wie er mir gefällt und bekomme direkt
Feedback wenn ich was verstelle. Und was den Slider angeht hab ich nen Guten
Einstellungsbereich für mich gefunden eben die 0-40 und meisst so im 20ger Bereich.


Blackfirehawk schrieb:
Ein OLED müsste dementsprechend im Vesa-tool einen Wert von genau 1.00 haben auf dem min luminance wert.. weil er kann das Licht um bis zu 100% reduzieren in dunklen Bereichen.. gibt's du da 0 ein wirst du alles was nicht Pures schwarz ist an die maxframeavg luminance binden.
Du willst ja auch im Schatten deine 50nits haben während alles drumherum 150nits ist

0 Kann man garnich eingeben .. also kann man schon aber will er nich .. wird dann "Rot" die 0
das is wie als wenn man zuviel Hz bei der Auflösung wählt die man mit CRU erstellt.

0 geht nich daher hatte ich das immer Leer gelassen .. erst 1 geht

Macht aber schon irgendwie Sinn was du geschrieben hast.



Jason hat seine Post nochmal überarbeitet und erweitert mit Bildern und schreibt : ( OLED Werte )

So, there are basically 3 scenarios to compare (using measurements from rtings in Game mode):

Scenario #1: Windows 11 at default. MaxLuminance & maxCLL 1499 nits, MaxFullFrameLuminance & maxFALL 799 nits, MinLuminance & minCLL 0 nits.


Scenario #2: Assumes maxFALL is NOT used for maxFFTML & that maxFALL = 150 nits (100% window). CRU "Max luminance" 128 (MaxLuminance & maxCLL 800 nits), "Max frame-avg" 51 (MaxFullFrameLuminance & maxFALL 150 nits), and "Min luminance" blank (MinLuminance & minCLL 0 nits).


cenario #3: Assumes maxFALL is used for maxFFTML & that maxFFTML = maxTML = 800 nits (10% window). CRU "Max luminance" 128 (MaxLuminance & maxCLL 800 nits), "Max frame-avg" 128 (MaxFullFrameLuminance & maxFALL 800 nits), and "Min luminance" blank (MinLuminance & minCLL 0 nits)


Ich pack auch mal die Bilder hier in den Thread die Jason drüben im AVS gepostet hatte :

Ich pack auch noch das dazu was er dazu geschrieben hat weils halt doch recht Komplex ist :


Microsoft defines Min Luminance, Max Luminance, and MaxFullFrameLuminance as follows:
https://docs.microsoft.com/en-us/windows/win32/api/dxgi1_6/ns-dxgi1_6-dxgi_output_desc1

1.jpg


These definitions are VERY similar to minTML, maxTML, and maxFFTML in HGiG documentation and are probably equivalent:

https://www.hgig.org/doc/ForBetterHDRGaming.pdf

2.jpg


3.jpg


As pointed out previously, Microsoft does use the HGiG terminology minTML, maxTML, and maxFFTML in context of Microsoft Game Core XDisplay API, so it's unfortunate the DirectX terminology differs.


VESA provides the following definitions for MaxLuminance, maxCLL, and maxFALL:

https://displayhdr.org/performance-criteria/

4.jpg



MaxLuminance is basically maxTML. MaxFALL = average luminance at sustained 100% white window. They also note that the maxFALL = maxCLL * % of screen which is white. In other words, maxFALL = maxCLL if displaying a 100% white window or maxFALL = 0.1 * maxCLL if displaying a 10% white window (as would be done for determining maxTML):

5.jpg

6.jpg

Anyways, I'm suspecting that Windows uses CRU's HDR static content metadata to set the display's tone mapper. Windows appears to set minTML = minCLL, which makes sense (0 nits). Similarly, Windows appears to set maxTML = maxCLL, so we would need to set maxCLL at the display's peak luminance in 10% white window (800 nits per rtings).
Finally, Windows appears to equate maxFFTML (peak luminance) = maxFALL (average luminance), which would make sense for a 100% white window only. Vincent, though, states that the maxFFTML = maxTML. At a 100% white window, the CX can only display 150 nits. So, it's unclear whether to set maxFFTML to 150 nits or 800 nits


Ich bin ehrlich .. ich komm da nun irgendwier nich mehr ganz mit da das langsam zu Komplex für mich wird.
 
Zuletzt bearbeitet:
Stagefire schrieb:
Ich bin ehrlich .. ich komm da nun irgendwier nich mehr ganz mit da das langsam zu Komplex für mich wird.

Du auch? willkommen im Club :D

im Ernst, Windows muss das auf die Reihe bekommen. Wie läuft das eigentlich wenn du eine Xbox am TV hast, ermittelt die den richtigen Wert? bzw. kann man da seine korrekten Nits festlegen?
 
Flipfuchs schrieb:
Du auch? willkommen im Club :D

Anfangs gings noch einigermassen aber nun mit diesen ganzen Geschichten die ich im letzten Post noch verlinkt hab ... weil da nun auch noch die ganzen TML ( Tone Mapping Luminance ) Sachen zu kommen

Flipfuchs schrieb:
im Ernst, Windows muss das auf die Reihe bekommen.

Die Frage is eben .. wann wird das der Fall sein ? Und isses Micosofts Schuld oder LGs ( in unserem Fall ) ?

Weil Windows kann ja die Daten der anderen PC Monitore lesen ... nur unsere eben nich.
Und das is wohl der Fall weil von dem jeweiligen Hersteller vergessen wurde die für den PC zu hinterlegen
oder sowas.

Flipfuchs schrieb:
Wie läuft das eigentlich wenn du eine Xbox am TV hast, ermittelt die den richtigen Wert? bzw. kann man da seine korrekten Nits festlegen?

An den Konsolen hast du diese Probs nicht ... sah man doch auch bei den Bildern die ich letztens gepostet hatte von Vince seinem Video zum C9 Dolby Update was nich mehr kommt.

4.jpg
 
Zurück
Oben