HDR unter Windows, Howto

Blackfirehawk schrieb:
Allein von der Farbtemperatur her halte ich das für unwahrscheinlich.. Vorallem wenn du sagst das "normal" passt und warm viel zu rötlich rüberkommt.
Mir geht einfach die Logik ab

Das is halt wie immer Geschmackssache ... viele stehen da halt auf Warm 2 ob nun bedingt durch die Warm 2 "seckte" oder weil sie es selbst gut finden.

Mir is Warm 2 halt auch zu Dunkel ... jede Stufe weiter Richtung Warm 3 kostet 30 - 50 Nits
und ich mag Peak Brightness also geh ich möglichst nich in die Warmen Regionen sondern max bis Warm 1 aber meisst eben bei Mittel. Bei Battlefield 5 bleib ich auch meist bei Kühl was der Gegenpart zu Warm 3 is.

Das is bei mir mehr so Game abhängig ... meisst bin ich bei Mittel ... bei Borderlands 3 nehm ich Warm 1 und bei BF 5 eben Kühl. Ich hab da nun keine Feste Einstellung... ich variieren.
 
Ich glaube, ich muss etwas zurückrudern. Möglicherweise ist Warm 50 nun doch meine neue Einstellung. Das iPhone ist ja bekannt dafür, einen sehr guten Bildschirm zu haben und an dessen Weißwert habe ich mich gerade mal orientiert. True Tone und Night Shift habe ich natürlich deaktiviert. Dann habe ich das iPhone mit einer reinen Weißfläche einfach vor den TV gehalten, der ebenfalls eine reine Weißfläche angezeigt hat. Das Ergebnis ist eindeutig: Warm 50 entspricht nahezu exakt dem iPhone, während Kalt/Warm 0 deutlich kälter ausfällt. Ich habe auch gemerkt. wie pures Rot (255, 0, 0) und Grün (0, 255, 0) mit Warm 50 eher so aussehen, wie ich es gewohnt bin. Die Farbintensität von Rot und Grün fällt mit Kalt/Warm 0 etwas schwach aus. Ich werde das jetzt ein paar Tage testen und schauen, ob ich mich daran gewöhne und das dann wirklich als Weiß empfinde. Beim iPhone hatte ich das bisher jedenfalls nicht als vergilbt empfunden.
 
Zuletzt bearbeitet:
reicht es wenn ich nur die farbräume hinzufüge oder muss ich auch die auflösung eintragen?
wenn ich versuche 5120x1440@240hz einzutragen kann ich diese nicht hinzufügen.

bei meinem Samsung G9 zeigt er mir nämlich nichtmal die Auflösung an, sieht so aus:
01.png
 
AleksZ86 schrieb:
reicht es wenn ich nur die farbräume hinzufüge oder muss ich auch die auflösung eintragen?
wenn ich versuche 5120x1440@240hz einzutragen kann ich diese nicht hinzufügen.

bei meinem Samsung G9 zeigt er mir nämlich nichtmal die Auflösung an, sieht so aus:
Anhang anzeigen 1156761
Das steht normalerweise in den CTA Extension Block..
Aber bei dir liest er diese Blöcke anscheinend nicht aus..
Er erkennt auf jedenfall nicht alle datenblöcke

Was hast du denn für eine GPU?
Bist du über Displayportkabel angeschlossen
Ist am Monitor adaptive sync/freesync an?
 
Zuletzt bearbeitet:
ich hab eine 3090 als GPU, der Monitor ist über DP angeschlossen und ja, AdaptiveSync/VRR sind aktiv, ich glaube dass er das wegen DSC nicht anzeigt, zumindest habe ich das mal "irgendwo" gelesen, muss man den die Auflösung in CRU auch konfigurieren oder würde es für HDR reichen wenn ich nur die Farbprofile wie von dir angegeben aktiviere/hinterlege?
 
Ich hab n G7 und der hat ebenfalls DSC..
Dein Windows muss ja irgendwo Auflösung und Frequenz herbekommen..


hab 2 Extension Blöcke in CRU.. einmal
Den CTA-861 wo freesync, Sound, colormetrie und HDR definiert sind und einmal Display ID1.3 wo Auflösung und refreshrate festgelegt sind.
Bei dir fehlen diese Info Blöcke.. d.h. sie werden nicht ausgelesen von CRU

Hast du die neuste Firmware auf dem G9 drauf?

Manuel eintragen könnte sich mit bereits vorhandenen datenblöcken beißen..

Ich weiß jetzt allerdings nicht ob das ein Fehler von Nvidia ist oder was spezielles was nur den G9 betrifft.. oder ob da irgendwie was falsch verkabelt/eingestellt ist
 
Blackfirehawk schrieb:
ABER
nur in FullHD und UltraHD und das nur bis 60Hz
Offensichtlich hat Dolby Vision ein paar Limitierungen (Auflösung und Aktualisierungsrate)
Das würde erklären warum Spielentwickler es nicht implementieren.. und wenn nur für Konsolen die in der Regel ja sehr limitiert sind

Die 4K 60hz die dort beschrieben werden im BF 1 Menu basieren auf dem Stand der Technik von 2016 wo BF 1 rauskamm ... sprich HDMI 2.0 und somit 18 Gbit .. Konsolen laufen mit 4:2:2 ... und das Limit von 18 Gbit mit 4:2:2 is 4K mit 60hz und 12 Bit

HDMI Bandbreiten Liste.jpg



Erst mit HDMI 2.1 was erst 2020 kamm ist es nun Möglich 4K 120hz mit Dolby zu nutzen ... deswegen gab es ja auch das 4K 120hz Dolby Vision Firmware Update vor einigen Wochen für den CX ... und auf Konsolen funktioniert das auch. .... Nur eben seltsamerweise auf dem PC nicht da sind wir immernoch auf 4K 60hz limitiert warum auch immer.


22.jpg


https://www.4kfilme.de/weitere-lg-2...en-dolby-vision-120hz-via-update-b1-nanocell/

Am ende aber eh egal .. gibt ja nur 3 alte DV PC Games und es werden keine neuen mehr kommen glaub ich.

Halo Infinite hat kein Dolby Vision auf dem PC aber aber auf der Konsole .. mit diesem Fakt sind nun auch die letzten PC DV Hoffnungen die noch manche hatten abgestorben.

Dieses Bild stammt von der Dolby.com Seite ... diese Seite wo Halo geführt wurde wurde aber nun von Dolby entfernt und zeigt nun nur noch eine 404 Meldung an.

333.jpg


https://twitter.com/i/web/status/1399798549177634822


oh .. Seit heute is sie wieder da .. Heute Morgen war sie noch weg :

1.jpg


https://www.dolby.com/experience/halo-infinite/
 
Zuletzt bearbeitet:
Also auch wenn Warm 50 irgendwie näher an irgendeinem Standard ist, mir gefällt das Bild einfach nicht. Vor allem stört mich, dass die Highlights nicht mehr so heraus stechen. Das Bild wirkt auch insgesamt nicht so klar. Es wirkt so, als hätte man sich eine billige Sonnenbrille mit gelben Gläsern aufgesetzt. Am iPhone stört mich das tatsächlich nicht bzw. fällt mir nicht wirklich auf, aber der OLED büßt irgendwie seine gesamte Frische ein. Dann nutze ich lieber Farbtiefe 55 statt 50 (was auch der Standardwert ist), um das etwas blassere Rot und Grün zu pushen.
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
Hast du die neuste Firmware auf dem G9 drauf?
ja, hab letzte woche ein update von 1010 auf 1013 gemacht.

hab noch bei monitortests.com folgende Info gelesen:
That monitor uses purely DisplayID when 240 Hz is active, so the EDID doesn't have the required information. I don't know if it's possible to override it.
 
AleksZ86 schrieb:
ja, hab letzte woche ein update von 1010 auf 1013 gemacht.

hab noch bei monitortests.com folgende Info gelesen:
Das ist mittlerweile normal.. das macht mittlerweile jeder höher aufgelöste Monitor mit ner refreshrate über 120hz

Die Auflösung und wiederholrate sind im Display 1.3 Datablock festgehalten.

Wie gesagt du müsstest in CRU (ich geh Mal davon aus du hast die neuste Version) im untersten Fenster 2 Datenblöcke haben

Einmal Displayid und einmal CTA-861
Screenshot 2021-10-10 174502.JPG

Probier doch Mal im CRU Ordner die reset.exe und dann restart64.exe
Damit der Monitor einmal neu eingelesen wird.

Eventuell Mal schauen was passiert wenn du einen anderen Displayport Anschluss am Monitor oder an der GPU nimmst.

Vielleicht funktioniert es auch nur mit Freesync Off im OSD

Das Problem ist das bei dir der Monitor von CRU nicht richtig ausgelesen wird..
Ich aber nicht genau weis woran das liegt.. ob's ne Sache von der GPU.. Displayport Kabel.. oder weil der Monitor eventuell intern anders aufgebaut ist aufgrund der extremen breite.

Klar kannst du hingehen und den CTA-861 Block per Hand hinzufügen..aber ob das funktioniert und einen eventuellen vorhandenen Block überschreibt das weiß ich nicht
 
Ich habe die SDR-Helligkeit in Windows nun übrigens auf 0 gestellt. Die 13 waren definitiv Quatsch, denn der Slider orientiert sich offenbar nicht an der Spitzenhelligkeit des Bildschirms. Es war egal, welche Werte ich mit CRU Windows vorgegaukelt habe, 100 war immer gleich hell und sah gleich aus. Das lässt mich annehmen, dass der Slider absolut ist und unabhängig vom Gerät eine bestimmte Helligkeit anpeilt. Dabei scheint 0 genau 100 Nits zu entsprechen. Das korrespondiert auch mit dem nativen SDR-Modus mit einer OLED-Helligkeit von 25. Sowohl beim LG C1 als auch beim B1 liegt die 10-%-Spitzenhelligeit bei SDR bei rund 400 Nits laut RTINGS.com. OLED-Helligkeit 25 müsste demnach 100 Nits entsprechen.

Man könnte erst denken, das wäre extrem dunkel, aber Filme im Kino sind ja genau so dunkel und 100 Nits sind eben der eigentliche Standard. Subjektiv gefiel mir das als Basis für Auto-HDR eigentlich auch am besten, weil es den besten Kontrast hatte.

Leider habe ich keine Ahnung, welchen Nit-Werten nun die SDR-Slider-Werte über 0 entsprechen und was vor allem 100 bedeutet. Wenn man nun genau 200 oder 400 Nits einstellen wollte, wie müsste man den Slider dann einstellen? Geben vielleicht die Werte in der Windows-Registry Aufschluss darüber? Ich meine, die mal irgendwo gesehen zu haben. War das hier in diesem Thread?
 
@VaniKa ich hatte auch bereits die Vermutung das der Slider auf 0 eine Feste Nitwert irgentwo zwischen 100 und 150 nit hat,

Wärend 100% wahrscheinlich 2 fach diesen wert entspricht..
Sprich du erhöchst ja um 100%

sagen wir es sind 100Nits (hypothetisch) dann würde der Slider auf 100% wahrscheinlich 200Nits entsprechen. (eine erhöhung um 100%)

Das Problem ist halt das viele LCD Monitore auf höhere Nitwerte Kalibriert sind.. ich zb muss auf 100% gehen was irgentwo zwischen 200 und 300 Nits sein müsste.. auch gehen viele LCDs nicht wirklich Tiefer von der helligkeit weil dann der Kontrast ( IPS PANEL) total abkackt

Was windows eigentlich fehlt ist das man anstatt des Sliders einen Festen wert eingibt für die genaue SDR Nit helligkeit.. und zwar von 100-400 Nits


Beim OLed ist das wieder anders.. der hat ja keine Probleme mit der Helligkeit soweit runter zu gehen, geschweige denn das der wahrscheinlich sowieso irgentwo bei 100-200 Nits kalibriert ist aufgrund der Fullframe helligkeit und dabei in der Lage ist den Kontrast zu bewahren.


Ich gehe auch davon aus das diese Helligkeit fest hinterlegt ist und den SMPTE ST-2084 Perceptual Quantizer (PQ).. Also die Punktgenaue Helligkeitssteuerung von HDR anspricht.

Möglich das Statistisches oder Dynamisches Tonemapping einen unterschied macht.. aber wenn nur Minimal




übrigens hat Dolby Vision einen weiteren Vorteil laut Wikipedia
es benutz als einzige HDR Klasse die Dynamischen Metadaten SMPTE ST 2094-10

.... ist in der Lage, dynamische Metadaten an das Ausgabegerät zu übertragen. Diese können beispielsweise Farbkalibrierungen abhängig von der Szene enthalten, was eine originaltreuere Wiedergabe zur Folge hat..



die anderen HDR standarts (HDR10/HDR10+) können das wiederrum nicht!
Sprich wenn ein Bild zb im SRGB getaggt ist versucht dolby vision es originalgetreu in SRGB farbraum einzubinden




...Die Dolby-Vision-Metadaten SMPTE ST 2094-10 werden in einem HLG-Signal mitgeliefert und sind zudem abwärtskompatibel zum Standard HDR der HLG-Spezifikation...


Sprich Dolby Vision (bzw die Metadaten 2094-10 auf denen Dolby aufbaut) ist dadurch als einziger Standart Abwärtskompatibel zu HDR/HDR10/HDR10+ und in der lage content im Original Farbraum darzustellen


Ich habe bei mir mittlerweile nur noch die Dynamischen Metadaten 2094-10 aktiviert und alles andere bei CRU gelöscht, und das Bild sieht 1 zu 1 aus wie SDR auf dem Desktop. ich hab das ganze sogar mit diversen Kalibrierungsseiten grob gegen gecheckt. es ist für mich auch das Optisch beste Bild mit tiefen Schwarz und schönen hellen highlights in Film und Spiel.

Theoretisch habe ich damit Dolby Vision global erzwungen auser das mein Monitor natürlich keine zertifizierung dafür hat
 
VaniKa schrieb:
Dabei scheint 0 genau 100 Nits zu entsprechen. Das korrespondiert auch mit dem nativen SDR-Modus mit einer OLED-Helligkeit von 25.

Also bei mir ist es so wenn ich den SDR Slider im HDR Mode mit OLED Light und Kontrast 100 auf 15 stelle
ist es so ziemlich gleich hell wie im SDR Mode mit OLED Light 35 und Kontrast 90.

Bin da in dem Bereich immernoch zufrieden aber die 40 nehm ich nun nich mehr schwanke nun zwischen
15 - 25 beim SDR Slider. Aber 0 is mir definitiv zu dunkel ... das gleiche gilt für OLED Light 25.

Aber mir isses aber auch wumpe ob da irgendwas 100 nits haben muss ... ich stell das ja eher danach ein was mir gefällt und nich was Akkurat is.

Ich finds aber dennoch cool das man überhaupt die Möglichkeit hat diese Dinge zu verstellen so kann jeder das passende für sich raussuchen.
 
okay grade beim googlen gefunden.. hier wird was zur Programmierung von Programmen ect erklärt..


Wenn Ihre Anwendung den D2D1_GAMMA1_G2084 Bereich oder einen der DXGI_COLOR_SPACE_TYPE Enumerationswerte verwendet, die den Farbraum SMPTE ST.2084 (Perceptual Quantizer) verwenden, beabsichtigt die Anwendung, mit HDR-Daten zu arbeiten.

Die APIs ID2D1DeviceContext5::CreateColorContextFromSimpleColorProfile und ID2D1DeviceContext5::CreateColorContextFromDxgiColorSpace berücksichtigen dies nicht. Stattdessen wird der HDR-Inhalt während des G2084 DeGamma-Vorgangs so skaliert, dass er in den Bereich von 0 bis 1 der Traditionalen Gamma Kurve passt.

In der Praxis verwendet Inhalt, der in diesem Gammabereich codiert ist, einen WhiteLevel-Verweis von 10.000 Nits, der normalerweise als 10.000 /80 = 125,0 dargestellt wird.




Tjoar ich würde mal Spontan die Vermutung anhand der info in den Raum stellen das 0% auf dem SDR/HDR Slider genau 125 Nits entsprechen

dementsprechend wäre 20% = 150Nits
 
(Überflüssige/falsche Zitate/Quellen entfernt.)

PS: Ich habe den Slider-Wert nun in der Registry gefunden. Der Schlüssel nennt sich SDRWhiteLevel. Hier ein Vergleich zwischen Slider-Wert und Registry-Wert. Ich schätze mal, dass der Registry-Wert durch Zehn geteilt dem Nit-Wert entspricht. Die Voreinstellung von 40 entspräche also 300 Nits und für je zehn Punkte bekäme man 50 Nits dazu.

(Überflüssige/falsche Tabelle entfernt.)

PPS: Es könnte allerdings auch sein, dass man die Nit-Werte noch mit 0,8 multiplizieren muss:
The monitor's current SDR white level, specified as a multiplier of 80 nits, multiplied by 1000. E.g. a value of 1000 would indicate that the SDR white level is 80 nits, while a value of 2000 would indicate an SDR white level of 160 nits.
https://docs.microsoft.com/en-us/windows/win32/api/wingdi/ns-wingdi-displayconfig_sdr_white_level

SliderRegistryNits
0100080
51250100
101500120
202000160
302500200
403000240
503500280
604000320
1006000480

Dann bekäme man 100 Nits mit einem Slider-Wert von 5.

PPPS: Ja, Letzteres ist richtig! Man kann den Wert in Nits umgerechnet im Browser nachsehen (Chrome und Edge). Einfach about:gpu eingeben. Dort steht es dann unter "SDR white level in nits". Habe 5 eingestellt und es wird 100 angezeigt. Mystery solved!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: thuNDa
Klingt logisch..


Also es ist doch schon Mal nett zu wissen das 0%=100 nits sind.

Sollte es linear ansteigen dann sind 100% = 200 nits

Aber selbst das kommt auf vielen LCD Displays im SDR Modus viel zu dunkel rüber.


Würde mich nicht wundern wenn die % angeben wie weit die Gammacurve angehoben wird.. dann ist das ganze nämlich nicht mehr linear..
Wahrscheinlich ist das irgend eine nonlineare variable


Bei mir ist laut rtings die SDR helligkeit bei 320nits.. 100% auf dem Slider entspricht weitestgehend der SDR helligkeit (ich sehe zumindest keinen unterschied beim hin und her switchen)
Den Slider auf 0% ist dermaßen dunkel bei mir das es unbrauchbar ist.


Windows müsste im Grunde nur ändern mit wie viel Nits SDR content dargestellt wird.. bzw uns diese Option zur Verfügung stellen das wir selbst die SDR Helligkeit NIT genau festlegen können
 
Zuletzt bearbeitet:
Lies meinen Post nochmal. Ich habe einiges bearbeitet mit neuen und finalen Erkenntnissen.
 
Zuletzt bearbeitet:
Aha interressant. Gut .. den registry wert kenne ich bereits.. konnte ihn bisher aber nicht übersetzen.. bzw nachvollziehen wie er berechnet wird und hab beim googeln nix dazu gefunden


Aber bei 100% Slider hätte ich 480nits.. kann mir nicht vorstellen das der Monitor so hell ist..
Laut rtings hat der 320nits SDR helligkeit und 370nits HDR fullframe helligkeit.

Und je nachdem welche Metadaten da genommen werden ist es sogar noch n ticken dunkler als SDR.

Ich müsste den Slider nach deiner Tabelle also auf 60% stellen.. das ist allerdings defenitiv viel zu dunkel.

Also irgentwo fehlt da noch n wert oder deine Rechnung ist falsch
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
Aber bei 100% Slider hätte ich 480nits.. kann mir nicht vorstellen das der Monitor so hell ist..
Laut rtings hat der 320nits SDR helligkeit und 370nits HDR fullframe helligkeit.
Dann wird er auch nicht so hell sein. Das kümmert aber doch den Slider nicht, da der eben absolut ist. Da wird ab einem bestimmten Punkt das HDR-Tone-Mapping greifen und die Helligkeit abriegeln. Mit Tone-Mapping wird es bis zum Slider-Maximum immer noch etwas heller, aber eigentlich hat der Wert des Sliders die Möglichkeiten des Bildschirms bereits überschritten. Mit HGiG würde ab einem bestimmten Punkt stattdessen einfach Clipping einsetzen.

Blackfirehawk schrieb:
Laut rtings hat der 320nits SDR helligkeit und 370nits HDR fullframe helligkeit.
Kannst du mal den RTINGS.com-Link zu deinem Gerät posten? Ich habe den nämlich da nicht gefunden, jedenfalls nicht den "LC27G7xT" (den CRU in einem Screenshot von dir anzeigt). Dort ist ein anderer G7 mit ganz anderer Modellbezeichnung und die 32"-Variante von deinem Modell LC32G75T. Aber beide Modelle weichen beim 100-%-Fenster von den 320/370 ab. Der S28AG70 hat 315/345 Nits und der LC32G75T hat 334/324 Nits. Beim 10-%-Fenster hat der LC32G75T in beiden Modi über 500 Nits. Real Scene liegt im Mittelbereich, erreicht bei HDR aber auch nur gut 400 Nits. D.h. wenn du den SDR-Regler auf Anschlag (480 Nits) stellst, wirst du je nach Szene in den Bereich kommen, wo der Monitor die Helligkeit abriegelt. Nicht beim 10-%-Fenster, aber beim 100-%-Fenster und Real Scene. Ich würde an deiner Stelle den Regler maximal auf 60 stellen (320 Nits), da dein Monitor die auf jeden Fall immer erreichen kann, wenn du es ansonsten so hell wie möglich haben möchtest. Natürlich unter der Annahme, dass dein Modell sich da nahezu identisch zum 32"-Modell verhält. Wenn man allerdings noch das Tone-Mapping des Geräts mit einbezieht, dann würde ich noch etwas niedriger gehen, also einen Slider-Wert von 50 (280 Nits) oder eben 40 (240 Nits) wählen. Mit HGiG könntest du exakt bis an die Grenze rangehen, aber mit Tone-Mapping werden ja bereits vor Erreichen der Grenze die Werte herunter geregelt, sodass das Erreichen der tatsächlichen Grenze nur mit extrem übertriebenen Nit-Werten möglich wäre (die man beim SDR-Slider aber auch gar nicht auswählen kann). Auf jeden Fall wirst du mit dem Slider auf 100 kein lineares Verhalten mehr haben, da sich die höheren Helligkeiten dann einen sehr gestauchten Bereich teilen. Das würde ich auf jeden Fall vermeiden.

Links:
https://www.rtings.com/monitor/reviews/samsung/odyssey-g7-s28ag70
https://www.rtings.com/monitor/reviews/samsung/odyssey-g7-lc32g75t

PS: Wobei ich mich auch gerade frage, wozu du überhaupt HDR aktivierst, wenn die Grundhelligkeit eh so hoch sein soll. Da ist praktisch kein Raum mehr für HDR-Highlights. Wenn du wirklich noch halbwegs HDR genießen möchtest auf dem Gerät, würde ich die SDR-Helligkeit maximal runterschrauben (auf eben 100 Nits) und in einem dunklen Raum spielen. Dann heben sich Highlights mit 500 Nits schon ganz gut ab. Bedenke, dass du im SDR-Modus ja ebenfalls diese 500 Nits erreichen kannst bei voller Bildschirm-Helligkeit. Da wird es am Ende kaum einen Unterschied zwischen SDR und HDR geben, außer dass bei HDR viele schwer kalkulierbare Faktoren reingrätschen wie verfälschte Farben und Tone-Mapping. Für das Erreichen maximaler Helligkeit benötigst du kein HDR bei deinem Gerät. Wenn einfach nur alles hell sein soll, kannst du auch im SDR-Modus bleiben.

Dieser Wunsch, mit HDR eine hohe Grundhelligkeit zu haben, ist bei Bildschirmen mit mittelmäßiger HDR-Helligkeit einfach nicht sinnvoll. Da muss man schon mindestens 1000 Nits erreichen in meinen Augen. Ansonsten sollte man eine eher niedrige Grundhelligkeit anpeilen wie eben die 100 Nits, von denen sich die HDR-Highlights dann auch bei HDR400 noch gut abheben können.
 
Zuletzt bearbeitet:
Sehe Grade rtings hat nur den 32zoller getestet.

Auf 100 nits ist der Monitor auf dem Desktop zum Arbeiten oder Surfen unbrauchbar. Auch in einem dunkeln raum..
Du brauchst bei LCD einfach eine gewisse Grundhelligkeit durch das Backlight ansonsten leiden die Farben extrem.

Alles unter so 80-90% sieht halt extrem unnatürlich und dunkel auf dem Desktop aus.

Und ich sehe schon sehr helle Highlights das es mich blendet.. sowohl ingame als auch in Filmen.
Auch sehe ich in dunklen zenen einen schönen Kontrast.
Das ganze hat ja nur mit der Grundhelligkeit von SDR zu tun.. Videos haben ihre eigene grundhelligkeit unabhängig vom HDR/SDR Slider genauso wie HDR Spiele..

Einzig bei auto-HDR könnte das Einfluss haben.. aber auch hier hab ich schöne Highlights

Und ich sehe schon massive Unterschiede ob der Monitor in SDR oder in HDR läuft.
 
Zuletzt bearbeitet:
Zurück
Oben