Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
HDR unter Windows, Howto
- Ersteller Blackfirehawk
- Erstellt am
Tanzmusikus
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 10.053
Hallo Firehawk,Blackfirehawk schrieb:der wert Max Luminance regelt nun auch den Helligkeitshöchstwert unter Windows!
Bekannte Werte sind:
255 = 1499 Nits
140 = 1000Nits
128 = 800Nits
115 = 604 Nits
97 = 400 Nits
92 = 366 Nits
habe auch einen LCD Monitor. Bist nicht mehr alleine.
Vom VESA DisplayHDR-Test werden folgende Werte für meinen Monitor angezeigt:
In CRU fand ich dann folgende Werte (vermutlich von LG Monitor-Treiber, den ich installiert hab):
[ HDR Static Metadata ]
Max peak luminance: | 83 |
Max frame-avg luminance: | 73 |
Min luminance: | 81 |
Also sollten doch:
83 = 301 Nits
73 = 243 Nits
81 = 0,30450 (Faktor)
Mein LG 34GL750-B besitzt "Freesync Premium", was meine RX 5700 XT auch unterstützt.Blackfirehawk schrieb:Was ich aber Grade gefunden habe ist das es nicht nur freesync gibt
Sondern auch
freesync Premium Pro HDR
Was mein Monitor unterstützt (laut assasins Creed und n paar datasheets zumindest)
Kann gut sein das es dementsprechend noch einen freesyncpremiumpro Datablock gibt den CRU nicht auslesen kann.
Das würde auch erklären warum im freesync-On Mode meine richtigen Helligkeitswerte vorhanden sind und das tonmapping stimmt obwohl sie unter HDR Static Metadata blank sind..
Also ohne HDR600. Ist auch klar, er soll ja nur HDR10-fähig mit seinen ~300 Nits sein.
FreeSync ist mit G-Sync compatible gleichzusetzen, da hier kein G-Sync-Modul zur Anwendung kommt.Stagefire schrieb:Hmm ... Freesync Premium sollte früher anfangen ... bei 120hz Monitoren glaub ich von 0-120 FPS
Das is der Vorteil gegenüber Gsync Compatible was im Bereich 40 - 120 FPS Arbeitet.
Kann aber sein das er bei Monitoren mit mehr Herz also zb wie bei deinem mit 240hz
später anfängt und dann eben erst bei 80 - 240 .. fänd ich aber seltsam... man währe ja dann
gezwungen immer über 80 FPS zu haben damit Freesync arbeiten kann weil man sonst unter
80 FPS dann wieder Tearing hat. Freesync hat doch auch LFC ( Low Framerate Compensation )
0 FPS sollte (auch bei G-Sync) gar nicht möglich sein, wenn dann eher ab 1 FPS (mit LFC).
Bei Free-Sync (Premium)/G-Sync compatible sind die minFPS eigentlich immer gesetzt (z.B. 48 oder 50 FPS).
Vorausgesetzt man nutzt eine AMD-Grafikkarte mit FreeSync-Unterstützung.
Genau, bei meinem 144 Hz Monitor geht LFC ab 72 FPS los. Konnte ich im OSD beobachten.Blackfirehawk schrieb:Ja unter 80fps kickt LFC rein..
40fps werden zu 120hz ect.. da teart nix
Das geht dann runter bis 20-30 FPS, vielleicht sogar bis 1 FPS. So wenig hat meine GPU aber nie angezeigt.
Nur, wenn kein LFC vorhanden ist.Stagefire schrieb:andersrum .. wenn du 40 FPS und Gsync oder Freesync hast werden bei einem 120hz monitor die 120hz zu 40hz.
Die Hz passen sich den FPS an.
Ab G-Sync oder FreeSync Premium aufwärts ist LFC vorhanden.
https://www.nvidia.com/de-de/geforc...d_textpar47f918fe_3fd3_4716_8e20_137aa9f5a97b
https://www.amd.com/en/technologies...e-the-differences-between-the-FreeSync-tiers?
***
Unter Win10 sieht bei meinem Monitor das HDR auf dem Desktop "bescheiden" aus. Sehr grünstichig.
In einzelnen Spielen ist es je nach Implementierung aber als brauchbar anzusehen.
Zuletzt bearbeitet:
Stagefire
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 845
Tanzmusikus schrieb:Ist auch klar, er soll ja nur HDR10-fähig mit seinen ~300 Nits sein.
301 Nits Peak ? Dan dürfte er aber kein HDR 400 Zertifikat bekommen haben.
Das geht nur wenn er die 400 Nits Peak schafft.
Wird auch auf der Seite nich mit HDR 400 geführt sondern mit 300 Nits
https://www.lg.com/at/monitore/lg-34GL750
Hab ich bisher auch noch nie gesehen das ein nicht HDR Klassifizierter Monitor
HDR kann. Man lernt nie aus.
Tanzmusikus schrieb:FreeSync ist mit G-Sync compatible gleichzusetzen, da hier kein G-Sync-Modul zur Anwendung kommt.
0 FPS sollte (auch bei G-Sync) gar nicht möglich sein, wenn dann eher ab 1 FPS (mit LFC).
Ja ich meinte auch 1 FPS ... wenn ich 0 schreibe denk dir einfach die 1
Und der OLED hat LFC und somit is die Freesync Range dort 1-120 FPS
während sie mit Gsync Compatible nur 40 - 120 beträgt und somit is dann
was das angeht Freesync Premium besser als Gsync Comp.
Allerdings hab ich nun auch schon einpaar mal gelesen das es beim OLED
auch möglich is mit ner Nvidia Karte LFC zu nutzen und somit auc die
Range von 1 - 120hz zu nutzen.
Is natürlich eh egal da man unter 40 FPS ganz andere Probs hat
die 40 - 120 FPS Range find ich schon ausreichend.
Tanzmusikus schrieb:Bei Free-Sync (Premium)/G-Sync compatible sind die minFPS eigentlich immer gesetzt (z.B. 48 oder 50 FPS).
Vorausgesetzt man nutzt eine AMD-Grafikkarte mit FreeSync-Unterstützung.
Die kann man mit CRU ändern .. so konnte man damals den C9 OLED von 2019 Freesync fähig machen
obwohl er nur Gsync Comp. kann von Offizieller Seite aus.
Tanzmusikus schrieb:Nur, wenn kein LFC vorhanden ist.
Ab G-Sync oder FreeSync Premium aufwärts ist LFC vorhanden.
Low Framerate Control hatte ich bisher so verstanden das es bei einem 120hz Monitor
ab 40 FPS abwärtz losgeht. Über 40 FPS greift das normale Freesync und unter 40 FPS
greift dann zusätzlich noch das LFC.
Tanzmusikus schrieb:Unter Win10 sieht bei meinem Monitor das HDR auf dem Desktop "bescheiden" aus. Sehr grünstichig.
In einzelnen Spielen ist es je nach Implementierung aber als brauchbar anzusehen.
klar mit 300 Nits die du hast is da auch nich viel zu machen ... mein 9 Jahre alter SDR Monitor der BenQ XL2420T hat schon 300 Nits ... erst so ab 600 Nits ( HDR 600 ) beginnt HDR sinn zu machen und gut isses erst bei so 1000 Nits ( HDR 1000 )
Zuletzt bearbeitet:
- Registriert
- Dez. 2018
- Beiträge
- 2.352
Also ich will ja nix sagen aber 300nits ist kein HDR..
das LG die Daten in der EDID eingibt ist zwar löblich.. hätte man sich jetzt aber auch schenken können.
Da ist mein Monitor in SDR ja heller als deiner in HDR
Generell würde ich die davon abraten es zu nutzen.. durch die fehlenden dimmingzonen und den niedrigen Helligkeitswert ist es wahrscheinlich das dir mehr farbinfos verloren gehen als das du durch HDR hinzugewinnen kannst.
Stell den Monitor auf SDR.. kalibriere ihn einmal nach Augenmaß mit diversen Kalibrierungsseiten und gut ist.
Was freesync/gsync Premium ect angeht gibt es zwar in der Theorie feste Richtlinien für die Zertifizierung.. in der Realität sind diese Standarts aber so aufgeweicht das es absolut nix sagend ist.. und kein Mensch diese kontrolliert
Theoretisch gehen Gsync Displays runter bis 1hz refreshrate.. praktisch kickt auch hier LFC meist so ab unter 40hz ein... Hier wird das ganze vom Gsync Modul gesteuert.. bei normalen Monitor wird dies von der Monitor Software/Hardware erledigt.
Du hast quasi einen Chip im Monitor der die Steuerung von scalierung und framerate kompensation übernimmt..
Praktisch nix anderes was die Monitorsoftware nicht auch kann.
Ob du n Treiber für den Monitor installierst ist eigentlich sogar egal.. die Helligkeitswerte werden aus der EDID über das Monitorkabel ausgelesen.. das LG die Infos für Helligkeitswerte mit in die EDID-DATEN gepackt hat ist super.. bringt dir nur nix wenn diese Werte so mieß sind.
Und auch Windows 10 ist nicht so das wahre was HDR angeht.. da wurde in Win11 schon einiges verbessert
Was LFC angeht.. unter einer gewissen Aktualisierungsgrenze werden frames einfach doppelt/dreifach ausgegeben.
Da werden 35fps einfach verdoppelt auf 70hz ausgegeben.
Das macht auch Gsync (ultimate) so..
Jedoch ist es selten der Fall das die frames mehr als 2-3 Mal angezeigt werden
Bei meinem Monitor gibt's jetzt einen VRR Modus den man anschalten kann..
da werden diese 35fps/35hz so oft wiederholt wie möglich..
Sprich es wird 35fps/210hz angezeigt..jeder frame wird 6 Mal ausgegeben.
Der Sinn davon ist das viele Monitore dazu neigen bei extremen Hz sprüngen (gerade über den LFC Bereich hinweg) im Zusammenspiel mit dem Variablen Overdrive Methoden zu flackern.
Du kannst mit der freesync Range in CRU einstellen ab wann das LFC reinkickt.. bei manchen Monitoren sieht es etwas sauberer aus wenn die frames im unteren Bereich gesynct sind.. bei anderen siehst du keinen Unterschied ob LFC läuft oder nicht..
Generell muss ich dazu sagen (240hz Monitor) das ich ab so 120hz (unabhängig von FPS)kein Tearing mehr sehe..
Gibt zwar Spezialisten die behaupten sie sehen da noch Tearing und Unterschiede zu zb 144/165hz..
Aber ich bin wohl doch mit meinen 33 Jahren bereits n Alter Mann.
Wenn ich also merke das ein Spiel aufgrund von freesync ruckelt/FPS droppen.. (was gar nicht so selten ist wie man meinen mag)
Dann ist meine Methode dagegen einfach das Problem mit soviel Hz wie möglich zuzuscheißen.
Der Witz ist das ich et letz mit freesync Off (im Treibermenü) fast n Monat lang gespielt habe und es nichtmals gemerkt habe das es ausgeschaltet ist, hab's einfach vergessen..
selbst in spielen nicht gemerkt wo ich normalerweise freesync an habe weil ich mich im 60-100fps Bereich bewege.
Von daher.. wenn dein Monitor genügend Hz darstellen kann ist sync total überbewertet
das LG die Daten in der EDID eingibt ist zwar löblich.. hätte man sich jetzt aber auch schenken können.
Da ist mein Monitor in SDR ja heller als deiner in HDR
Generell würde ich die davon abraten es zu nutzen.. durch die fehlenden dimmingzonen und den niedrigen Helligkeitswert ist es wahrscheinlich das dir mehr farbinfos verloren gehen als das du durch HDR hinzugewinnen kannst.
Stell den Monitor auf SDR.. kalibriere ihn einmal nach Augenmaß mit diversen Kalibrierungsseiten und gut ist.
Was freesync/gsync Premium ect angeht gibt es zwar in der Theorie feste Richtlinien für die Zertifizierung.. in der Realität sind diese Standarts aber so aufgeweicht das es absolut nix sagend ist.. und kein Mensch diese kontrolliert
Theoretisch gehen Gsync Displays runter bis 1hz refreshrate.. praktisch kickt auch hier LFC meist so ab unter 40hz ein... Hier wird das ganze vom Gsync Modul gesteuert.. bei normalen Monitor wird dies von der Monitor Software/Hardware erledigt.
Du hast quasi einen Chip im Monitor der die Steuerung von scalierung und framerate kompensation übernimmt..
Praktisch nix anderes was die Monitorsoftware nicht auch kann.
Ob du n Treiber für den Monitor installierst ist eigentlich sogar egal.. die Helligkeitswerte werden aus der EDID über das Monitorkabel ausgelesen.. das LG die Infos für Helligkeitswerte mit in die EDID-DATEN gepackt hat ist super.. bringt dir nur nix wenn diese Werte so mieß sind.
Und auch Windows 10 ist nicht so das wahre was HDR angeht.. da wurde in Win11 schon einiges verbessert
Was LFC angeht.. unter einer gewissen Aktualisierungsgrenze werden frames einfach doppelt/dreifach ausgegeben.
Da werden 35fps einfach verdoppelt auf 70hz ausgegeben.
Das macht auch Gsync (ultimate) so..
Jedoch ist es selten der Fall das die frames mehr als 2-3 Mal angezeigt werden
Bei meinem Monitor gibt's jetzt einen VRR Modus den man anschalten kann..
da werden diese 35fps/35hz so oft wiederholt wie möglich..
Sprich es wird 35fps/210hz angezeigt..jeder frame wird 6 Mal ausgegeben.
Der Sinn davon ist das viele Monitore dazu neigen bei extremen Hz sprüngen (gerade über den LFC Bereich hinweg) im Zusammenspiel mit dem Variablen Overdrive Methoden zu flackern.
Du kannst mit der freesync Range in CRU einstellen ab wann das LFC reinkickt.. bei manchen Monitoren sieht es etwas sauberer aus wenn die frames im unteren Bereich gesynct sind.. bei anderen siehst du keinen Unterschied ob LFC läuft oder nicht..
Generell muss ich dazu sagen (240hz Monitor) das ich ab so 120hz (unabhängig von FPS)kein Tearing mehr sehe..
Gibt zwar Spezialisten die behaupten sie sehen da noch Tearing und Unterschiede zu zb 144/165hz..
Aber ich bin wohl doch mit meinen 33 Jahren bereits n Alter Mann.
Wenn ich also merke das ein Spiel aufgrund von freesync ruckelt/FPS droppen.. (was gar nicht so selten ist wie man meinen mag)
Dann ist meine Methode dagegen einfach das Problem mit soviel Hz wie möglich zuzuscheißen.
Der Witz ist das ich et letz mit freesync Off (im Treibermenü) fast n Monat lang gespielt habe und es nichtmals gemerkt habe das es ausgeschaltet ist, hab's einfach vergessen..
selbst in spielen nicht gemerkt wo ich normalerweise freesync an habe weil ich mich im 60-100fps Bereich bewege.
Von daher.. wenn dein Monitor genügend Hz darstellen kann ist sync total überbewertet
Tanzmusikus
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 10.053
Woher nimmst Du die "HDR 400"?Stagefire schrieb:301 Nits Peak ? Dan dürfte er aber kein HDR 400 Zertifikat bekommen haben.
In meinem Text steht doch eindeutig "HDR10".
Der Monitor kann 10bpc mittels FRC (Dithering) darstellen, deshalb HDR10.
https://hifi.de/ratgeber/was-bringt-hdr-11562#hdr10-basis-standard-mit-limits
Okay. Du hast 0 Ahnung.Stagefire schrieb:Ja ich meinte auch 1 FPS ... wenn ich 0 schreibe denk dir einfach die 1
Mit "aufwärts" meinte ich die Standards (FS -> FS Prem -> FS Prem Pro HDR bzw. GS comp -> GS -> GS Ulti).Stagefire schrieb:Low Framerate Control hatte ich bisher so verstanden das es bei einem 120hz Monitor
ab 40 FPS abwärtz losgeht.
Tanzmusikus schrieb:Ab G-Sync oder FreeSync Premium aufwärts ist LFC vorhanden.
Woher nimmst Du den scheinbar allgemeingültigen Wert "ab 40 FPS abwärts"?
Nicht jeder Monitor/TV/Bildschirm mit A-Sync hat eine untere Frequenzgrenze von 40 Hz.
Es gibt auch welche mit z.B. 48 oder 50 Hz. Deshalb meinte ich ja "FRC" wird bei Vorhanden ggf. eingreifen.
Ich habe den Thread gelesen. 😉Stagefire schrieb:klar mit 300 Nits die du hast is da auch nich viel zu machen
HDR hat nicht nur etwas mit der Helligkeit zu tun, sondern auch mit gewissen Farbräumen.
Und da scheint es in Windows 10 mit meinem Monitor zu hapern.
Ich schrieb ja "grün-stichig". Das liegt doch dann eher am (falschen) Farbraum.
In einigen Spielen (z.B. HZD, AC:V) hatte ich (für meine Wahrnehmung) einen passenden Farbraum.
Der Schnee z.B. hatte viele Nuancen.
Scheinbar ist mein Text bei Dir nicht so angekommen wie ich ihn geschrieben habe.
Mehr Nits bringen mir persönlich nits* mehr (), da ich über 50% Helligkeit nicht für längere Zeit aushalte.
(* -> nichts )
Dann sag lieber nix.Blackfirehawk schrieb:Also ich will ja nix sagen ...
Das habe ich natürlich gleich in den ersten Tagen/Wochen nach Erhalt mit einigen Testbildern getan.Blackfirehawk schrieb:Stell den Monitor auf SDR.. kalibriere ihn einmal nach Augenmaß mit diversen Kalibrierungsseiten und gut ist.
Hab's gerade nochmals überprüft.Blackfirehawk schrieb:Was LFC angeht..
. . .
Jedoch ist es selten der Fall das die frames mehr als 2-3 Mal angezeigt werden
Das G-Sync Pendulum auf 20-24 FPS eingestellt ... und das Monitor-OSD zeigt z.B. bei 20 FPS -> 80 Hz an.
Natürlich ist das selten, weil man dazu sehr niedrige FPS sowie eine hohe maximale Refreshrate benötigt.
War meinerseits als reine Info gedacht, hier geht es ja eher um HDR.
Macht Sinn.Blackfirehawk schrieb:Der Sinn davon ist das viele Monitore dazu neigen bei extremen Hz sprüngen (gerade über den LFC Bereich hinweg) im Zusammenspiel mit dem Variablen Overdrive Methoden zu flackern.
Ansonsten wäre FRC doch ziemlich sinnbefreit. Wozu sonst FPS verdoppeln?
Ich sehe seitdem ich FreeSync Premium eingeschaltet habe (würde behaupten) "nie" Tearing.Blackfirehawk schrieb:Generell muss ich dazu sagen (240hz Monitor) das ich ab so 120hz (unabhängig von FPS)kein Tearing mehr sehe..
V-Sync mochte ich übrigens noch nie, außer für Brett- oder zeitunkritische Spiele (z.B. Darkest Dungeon).
***
Also Tips zum Verbessern von HDR für meinen Monitor scheint ihr nicht mehr zu haben, schätze ich, oder? 😉
Würde evtl. Windows 11 irgendwas an der Grünstich-Erscheinung (falscher Farbraum) ändern können?
Grüße
Stagefire
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 845
Tanzmusikus schrieb:Woher nimmst Du die "HDR 400"?
In meinem Text steht doch eindeutig "HDR10".
Der Monitor kann 10bpc mittels FRC (Dithering) darstellen, deshalb HDR10.
HDR 10 heisst das er das Tone Mapping mithilfe von HDR 10 macht ... es gibt dann noch das HDR10+
was zb Samsung bei ihren QLEDs nutzt und auch Dolby Vision was OLED zb auch neben HDR 10 nutzen können ... das hat aber erstmal nix mit der Helligkeit des Monitors / TVs ansich zu tun sondern wie der TV/Monitor die Helligkeit verteilt bzw mit welchen System er das Tone Mapping macht.
Die HDR 400 nehm ich wie aus meinem Text hervor ging aus der Annahme das wenn ein Monitor / TV
HDR kann er mindestens die HDR 400 ( 400 Nits Peak ) schaffen muss ... deiner schafft es nich
daher wundert es mich das er überhaupt HDR kann.
Is das erste mal das ich nun ein Monitor sehe der keine HDR Zertifizierung ( HDR 400 , 600 , 1000 , 1400 ) hat aber dennoch HDR "fähig" ist mit seinen krepeligen 300 Nits die auch SDR Monitore seit Jahren schon schaffen
Das HDR Erlebniss was man mit 300 Nits bekommt is dann auch fürn Arsch ... Highlights können damit
garnich groß rausstechen vom restlichen Bild. Was das angeht is HDR 600 ja schon relativ Schlecht.
Tanzmusikus schrieb:Okay. Du hast 0 Ahnung.
Hab nie etwas anderes behauptet
Tanzmusikus schrieb:Woher nimmst Du den scheinbar allgemeingültigen Wert "ab 40 FPS abwärts"?
Nicht jeder Monitor/TV/Bildschirm mit A-Sync hat eine untere Frequenzgrenze von 40 Hz.
Es gibt auch welche mit z.B. 48 oder 50 Hz. Deshalb meinte ich ja "FRC" wird bei Vorhanden ggf. eingreifen.
Du hast den Thread hier doch gelesen ... sofern ich mich erinnere wurde genau das hier geschrieben in einem älteren Post ... wenn es nich hier war dann hatte ich das woanders gelesen .. jedenfalls nehm ich diesen "Allgmein gültigen Wert" wie du das nennst für ein 120hz Gerät aus dem was ich mir angelesen hab.
Da mir LFC aber am arsch vorbei geht beschäftige ich mich auch nich groß mit diesem Mumpitz
weil wenn man 40 FPS und weniger hat dann hat man ganz andere Probs.
Sehe daher LFC eher im Konsolen Bereich verordnet da man dort oft Games anfindet die ein 30 FPS Lock haben. Da macht dann LFC Sinn .. aber am PC hat man ja zumglück andere Möglichkeiten auf über 40 FPS , 48 , 58 , 100 , 30 , 20 , 10 , 27 , 43 FPS usw zu kommen.
Tanzmusikus schrieb:HDR hat nicht nur etwas mit der Helligkeit zu tun, sondern auch mit gewissen Farbräumen.
Nein .. also ja schon aber .. HDR nutzt nur den Ertweiterten Farbraum von 10 Bit ... aber HDR liefert nich von sich aus diesen Farbraum sondern nutzt den Erweiterten Farbraum den 10 Bit ermöglicht.
Daher is ohne 10 Bit ( oder 8 Bit + Dithering ) auch kein HDR möglich.
Tanzmusikus schrieb:Ich schrieb ja "grün-stichig". Das liegt doch dann eher am (falschen) Farbraum.
Oder daran dass das verbaute Panel halt kacke is.
Zb. bei VA Panels gibts einen Grauschleier an den Rändern wo die Farbe verblassen.
Und du hast halt ein IPS Panel erwischt was nen Grün Stich hat .. entweder dauerhafft oder halt
nur in Bestimmten Situationen.
Tanzmusikus schrieb:Scheinbar ist mein Text bei Dir nicht so angekommen wie ich ihn geschrieben habe.
Mehr Nits bringen mir persönlich nits* mehr (), da ich über 50% Helligkeit nicht für längere Zeit aushalte.
(* -> nichts )
Warum dann HDR nutzen ? Macht ja mal garkein Sinn.
Mit 50 % bist du bei 150 Nits ... da reicht doch ein SDR Monitor masse für dich.
Tanzmusikus schrieb:Also Tips zum Verbessern von HDR für meinen Monitor scheint ihr nicht mehr zu haben, schätze ich, oder? 😉
Würde evtl. Windows 11 irgendwas an der Grünstich-Erscheinung (falscher Farbraum) ändern können?
Win 11 wird daran nix ändern ... ein anderer Monitor mit nem anderen Panel aber schon.
Zuletzt bearbeitet:
Tanzmusikus
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 10.053
Und ich kann kein HDR Video Standard a la HDR 400 , 600 , 1000 , 1400 auf Wikipedia finden.Stagefire schrieb:Die HDR 400 nehm ich wie aus meinem Text hervor ging aus der Annahme das wenn ein Monitor / TV
HDR kann er mindestens die HDR 400 ( 400 Nits Peak ) schaffen muss ... deiner schafft es nich
daher wundert es mich das er überhaupt HDR kann.
Is das erste mal das ich nun ein Monitor sehe der keine HDR Zertifizierung ( HDR 400 , 600 , 1000 , 1400 ) hat aber dennoch HDR "fähig" ist.
btw.: https://en.wikipedia.org/wiki/HDR10
https://de.wikipedia.org/wiki/High_Dynamic_Range_Video#Technologie
Da steht nur etwas von HDR10, HDR10+, HLG, Dolby Vision
Erscheint mir ein bisschen wie der Vergleich von Apfelbaumzweigen und Apfelbaumblättern:
HDR Zertifizierung vs. HDR Standard
Hahahahahahah - made my day.Stagefire schrieb:Nein .. also ja schon aber .. HDR nutzt nur den Ertweiterten Farbraum von 10 Bit ... aber HDR liefert nich von sich aus diesen Farbraum sondern nutzt den Erweiterten Farbraum den 10 Bit ermöglicht.
Daher is ohne 10 Bit ( oder 8 Bit + Dithering ) auch kein HDR möglich.
. . . sorry, aber das musste mal raus.
Mir sind bisher keine 10bpc-Monitore bekannt, da auch alle sogenannten 10bpc-Monitore nur 8bpc+2bit-Dithering beherrschen sollen. Bei TVs könnte es vielleicht anders aussehen, weiß ich momentan nicht.
Das hier Geschriebene beruhigt mein Gemüt wieder:
https://bildschirm.de/hdr-technologien-im-ueberblick-hdr10-hdr10-plus-hlg-und-dolby-vision/
Letztlich geht es um Hohe Dynamische Bereiche (HDR) von Helligkeit/Kontrast und damit ja auch Farben.
Lapidar ausgedrückt ist HDR10 der "Schlechteste", gerade weil er quasi nur statische Metadaten bieten soll.
Grafikkarten sollen lt. Bildschirm.de übrigens sowieso in höheren Farbräumen das Bild berechnen.
Hatte vor einiger Zeit gelesen, dass selbst die älteren GCN-Grafikkarten von AMD bereits in 10bpc rendern.
Dies ist im Treiber seit Jahren standardmäßig vor-konfiguriert.
Problem scheinen nur die Monitore zu sein, die nicht hinterher kommen.
Vielleicht ist es besser mal wieder draußen herum zu laufen, wenn es Tag ist. Da gibt's HDR ohne Ende.
P.S.
Dieses YT-Video rückt Einiges wieder gerade: Helligkeit (1000 nits) ist enorm wichtig. Der Farbverlauf im jeweiligen Farbraum (z.B. BT.709 oder BT.2020) kann aber durch diverse Metadaten große Auswirkungen zusätzlich haben. Dies gilt vor allem dann, wenn der Bildschirm nicht Qualität der Quelle entspricht.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Generell ist also ein "unzertifizierter" HDR10-Monitor zwar knapp vor einem 8bpc-Gerät einzusortieren und kann 6bpc-Geräte locker schlagen, aber zu "zertifizierten" HDR(x)x00-Geräten mit 10bpc oder gar 12bpc/16bpc ist er weit abgeschlagen. Das mal so aus Sicht eines HDR10-Monitor-Nutzers.
Es ist Vieles im HDR-Bereich noch längst nicht am Ende der Fahnenstange ...
P.S.2
Genau, deshalb hier noch ein paar Ideen & Bilder dazu, wie Dolby Vision im Vergleich zu HDR10 die Dynamik besser anpassen kann, wenn ein Ausgabegerät z.B. nur 500 nits statt dem Master von 1000 nits darstellen kann: https://www.heimkinoraum.de/tests/dolby-vision-vs-uhd-premium-hdr10-166
Wenn Windows 11 dazwischen eine Brücke bauen könnte, dann wäre das genial.
SpecialK geht übrigens mit seinem Tool auch diesen Weg, die Farbverläufe dynamisch anzupassen.
Grüße
Ergänzung ()
Hm, jetzt geht's wieder weiter mit dem Missverstehen meiner geschriebenen Texte.Stagefire schrieb:Oder daran dass das verbaute Panel halt kacke is.
Zb. bei VA Panels gibts einen Grauschleier an den Rändern wo die Farbe verblassen.
Und du hast halt ein Panel erwischt was nen Grün Stich hat .. entweder dauerhafft oder halt
nur in Bestimmten Situationen.
Nur weil es nach dem Umschalten auf HDR grünstichig aussieht, heißt das doch nicht, dass das Panel immer einen Grünstich hat.
Im Spiel HZD sah mit HDR alles super aus, zurück im Windows aber nicht mehr.
Ist schon komisch mit so einem ***** Panel. 🤭
Zuletzt bearbeitet:
Stagefire
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 845
Tanzmusikus schrieb:Und ich kann kein HDR Video Standard a la HDR 400 , 600 , 1000 , 1400 auf Wikipedia finden.
https://www.prad.de/lexikon/hdr/
https://eu.aoc.com/de/gaming/news/leitfaden-der-vesa-displayhdr-leistungsstufen
https://displayhdr.org/
"Für die Anzeige von HDR-10- oder Dolby-Vision- Material wird eine deutlich höhere Helligkeit gefordert (meist ab 600 nits aufwärts),"
https://www.videoaktiv.de/praxistec...s-bei-monitoren-hdr-ist-nicht-gleich-hdr.html
https://www.pcgameshardware.de/Moni...DR-400-600-1000-VESA-Spezifikationen-1245701/
Tanzmusikus schrieb:Mir sind bisher keine 10bpc-Monitore bekannt, da auch alle sogenannten 10bpc-Monitore nur 8bpc+2bit-Dithering beherrschen sollen. Bei TVs könnte es vielleicht anders aussehen, weiß ich momentan nicht.
Da hast du recht das es bei TVs anders aussieht .. mein 48CX OLED hat 10 Bit Nativ und kann auch 12 Bit
per 10 Bit + 2 Bit FRC Dithering.
und auch einige Profi Monitore haben 10 Bit Nativ ... aber die meisten PC Monitore haben nur
8 Bit + 2 Bit FRC Dithering.
Tanzmusikus schrieb:Grafikkarten sollen lt. Bildschirm.de übrigens sowieso in höheren Farbräumen das Bild berechnen.
Hatte vor einiger Zeit gelesen, dass selbst die älteren GCN-Grafikkarten von AMD bereits in 10bpc rendern.
Dies ist im Treiber seit Jahren standardmäßig vor-konfiguriert.
Je nach dem was man im Grafikkarten Treiber einstellt wird gerendert.
Und ansonsten frag ich mich was deine Aktion hier überhaupt soll.
Dafür das du hier Hilfe suchst kommst du ganz schön unhöflich rüber.
Zuletzt bearbeitet:
Tanzmusikus
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 10.053
Dann hast Du ja endlich auch HDR10 gefunden, oder? 😉Stagefire schrieb:
Ich kenne doch die VESA-Zertifikate.
Mir kam's nur so vor, dass ich ohne HDR400 hier anscheinend nichts posten dürfte.
Ist aber nur mein Eindruck, weil ich von HDR10 schrieb ... und Du mir mit HDR400 "gedroht" hast.
Wo stand denn irgend etwas von "HDR400" oder "HDR400-Zertifikat" in meinem Text?Stagefire schrieb:301 Nits Peak ? Dan dürfte er aber kein HDR 400 Zertifikat bekommen haben.
Warum textest Du mich mit den Zertifikaten zu?
Willst Du auch, dass Jemand Dir schreibt, dass Dein LG OLED kein HDR1000 kann.
"Der kann also kein HDR.." ... und von Dolby Vision mit 10.000 nits ganz zu schweigen.
Und der Satz ist keine Einleitung! Eher eine "Ausleitung"..Blackfirehawk schrieb:Also ich will ja nix sagen aber 300nits ist kein HDR..
Dann hattest Du vermutlich den Text im Link dazu nicht gelesen.Stagefire schrieb:Je nach dem was man im Grafikkarten Treiber einstellt wird gerendert.
Es wurde die Aussage getroffen, dass Grafikkarten sowieso mit höherer bpc (bit per color) rendern sollen.
Was ich z.B. von AMD-Karten weiß ist, dass diese mit 10bpc rendern sollen.
Klar kann man dann etwas im Treiber einstellen. Mir scheint aber, dass das nur die Ausgabe betrifft.
Es wird dann z.B. beim Umstellen auf 10bpc zusätzlich von 10bpc zu 8bpc konvertiert oder was-auch-immer.
Ich hatte ursprünglich im Sinn nach Ideen für verbessertes HDR in Windows mit meinem Monitor zu fragen.Stagefire schrieb:Und ansonsten frag ich mich was deine Aktion hier überhaupt soll.
Und wollte zuvor gern meine Beobachtungen zum HDR-Test mit meinem Monitor usw. beitragen.
Anscheinend bin ich aber im falschen Thread gelandet ... oder habe Euch komplett falsch verstanden.
Jep. Hat sich so entwickelt. War nicht meine ursprüngliche Absicht.Stagefire schrieb:Dafür das du hier Hilfe suchst kommst du ganz schön unhöflich rüber.
Konnte dem Widerhall Eurer Texte keine Unterstützung und nur wenig Verständnis entnehmen.
Zuletzt bearbeitet:
Stagefire
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 845
Tanzmusikus schrieb:Wo stand denn irgend etwas von "HDR400" oder "HDR400-Zertifikat" in meinem Text?
Ehrlich ?
Nochmal ... du hast 0 von HDR 400 geschrieben .. und das hab ich auch niemals behauptet das du das getahn hast.
nur fängt das HDR Zertifikat erst ab HDR 400 an .. daher kamm es mir komisch vor das dein Monitor mit 300 Nits und somit keiner HDR Zertifizierung für HDR freigegeben wurde.
Und wir haben dir gesagt das HDR mit 300 Nits absolut 0 Sinn macht.
Erst ab 600 Nits merkt man überhaupt solangsam das man HDR nutzt da damit dann die Bildlich sichtbaren Highlights besser rausgearbeitet werden können aus dem Restlichen Bild. ( Tone Mapping )
Nochmal wiederhole ich das nun nicht.
Tanzmusikus schrieb:Warum textest Du mich mit den Zertifikaten zu?
Weil die in zusammenhang mit HDR stehen.
Tanzmusikus schrieb:Willst Du auch, dass Jemand Dir schreibt, dass Dein LG OLED kein HDR1000 kann.
"Der kann also kein HDR.." ... und von Dolby Vision mit 10.000 nits ganz zu schweigen.
Das is mein Haupt Kritikpunkt was OLED angeht .. sie haben nur 600 - 800 Nits Peak ( je nach Einstellung )
und sind somit zwischen HDR 600 und HDR 1000 und könnten für mein Geschmack gute 300 Nits
heller sein ( hatte schon den PG43UQ mit HDR 1000 bei mir für 2 Wochen stehen )
Ich vermisse die HDR 1000.
Das könnte sich aber Anfang 2022 ändern wenn dann der 42" OLED von LG kommt
mit EVO Panel + Heatsink
Dafür hab ich am OLED aber :
Kein Grau Schleier an den Rändern
Kein Black Smearing
Kein Red Smearing
Kein IPS Glow
Kein Grün Stich
Kein Text Smearing
Kein Ghosting
Der OLED is für mich aber der Beste Kompromiss den ich momentan machen kann für das was ich haben will. Er is nich Perfekt hat aber die wenigsten Schwächen von dem was mom auf dem Markt ist und in mein Interessensgebiet fällt
Aber wie gesagt .. auch ein OLED is nicht Perfekt und könnte um einiges Heller in HDR sein.
Und wie du siehst kann ich das sagen ohne gleich wie du unhöfflich zu werden
Und OLEDs fallen übrigens in die HDR Kategorie "True Black" wegen ihres Perfekten Schwarz Levels
Und mein 48CX OLED gehört somit zur HDR Kategorie "True Black 600" da er im Bereich
von 600 - 800 Nits Peak liegt. Somit über 600 Nits aber unter 1000 Nits und daher
Kategorie True Black 600 ist
https://www.rtings.com/tv/reviews/lg/cx-oled
"Die für Videostandards zuständige VESA hat ihre HDR-Zertifizierungen für OLED-Displays um eine weitere Stufe ergänzt. DisplayHDR True Black 600 stellt höhere Anforderungen an die Helligkeit, die in der Spitze punktuell mindestens 600 cd/m² erreichen muss."
https://www.computerbase.de/2021-09/oled-vesa-fuehrt-displayhdr-true-black-600-ein/
"Die Video Electronics Standards Association (VESA) erweitert den für OLED-Panels gedachten Bildschirmstandard DisplayHDR True Black um eine neue Einstufung: DisplayHDR True Black 600. Namensgebend ist die erforderliche Spitzenhelligkeit von 600 Candela pro Quadratmeter (cd/m²), die allerdings nur in der Bildschirmmitte (10 Prozent der Gesamtoberfläche) erreicht werden muss."
"Organische LEDs kommen bei der Einstufung nach DisplayHDR True Black 600 weiterhin auf 0,0005 cd/m² oder niedriger, wenn sie Schwarz darstellen. Daraus ergeben sich die für OLED-Technik typisch hohen Kontraste von 1.000.000:1 und mehr."
https://www.heise.de/news/Konstrast...lack-600-als-hoechste-Einstufung-6181782.html
Und nochmal das Bild von vorhin :
Tanzmusikus schrieb:Dann hattest Du vermutlich den Text im Link dazu nicht gelesen.
ne weil ich in dieser Diskussion langsam echt keinen Sinn mehr sehe.
Ich für mein Teil hab ja nun schon mehrmals gesagt warum ich das alles schrieb ... was du daraus machst
bleibt dir überlassen.
Kein Plan warum du gleich so krass auf Agro gehst ... ich bin mit dem Thema nun aber durch ... aber vielleicht befasst sich ja jemand anderes mit dir der mehr Geduld aufbringen kann mit solchen Agro Menschen wie dir zu schreiben.
Zuletzt bearbeitet:
- Registriert
- Dez. 2018
- Beiträge
- 2.352
Entschuldige bitte falls du dich angegriffen fühlst das war nicht meine Absicht..
mich wundert es ehrlich gesagt das du mit 300nits Peak überhaupt HDR aktivieren kannst.
Da du ja im Grunde eine Funktion aktivierst die der Monitor nach unserem HDR Verständnis gar nicht hat...
Daher vielleicht auch unser Unverständnis.. sorry wenn wir dir da auf den Slips getreten haben.
Generell kennt das Windows HDR sowas wie HDR10 nicht
Das liegt aber einfach daran daß wir hier von einem einem Standart reden der für DVD/Blueray-player genutzt wird.
Und beschreibt in der Regel eher das Pixelformat 4x2x2 oder 4x2x0 10bit.. was per Definition schon wesentlich komprimierter ist als das RGB 4X4X4 mit dem am PC gearbeitet wird und mit der auch deine graka ect standartmässig rendert.
Es gibt auch durchaus 10bit SDR Material
Diese 10bit (oder 8+frc) Darstellung
Ist eine Grundvoraussetzung für HDR.. bedeuten aber nicht automatisch HDR10
Bei HDR werden dir sowohl feinere schwarzabstufungen als auch höhere Helligkeitswerte gezeigt.. vorzugsweise mit unterschiedlichen Helligkeiten.
Jetzt ist dein Monitor HDR300..ja ich weis gibt es nicht.. die Standarts fangen bei HDR400 an..
(Wobei hdr400 true black nochmal ne ganz andere Sache ist wie HDR400.. da liegen Welten dazwischen)
kann also weder großartig heller noch großartig dunkler werden... Du bist also trotzdem auf etwa den Level eines SDR Monitors... Sowohl hellere wie dunklere Highlights gehen komplett unter.
Klar gibt es verschiedene Farbräume.. interessant für HDR sind die Bt2020 Farbräume.
Wobei Windows selbst und die entsprechenden spiele den BT2020 RGB nutzen.
Filme meist den den BT2020Ycc
Kannst ja Mal alle Farbräume einzelne in CRU anklicken.
Was den Grünstich angeht.. hast du Mal geschaut ob du den Monitor im HDR Modus seperat kalibrieren kannst?
Problematisch ist halt das ein Panel mit so Helligkeitswerten leider sehr beschränkt ist.
Viel Verbesserungen kannst du da HDR technisch nicht rausholen.
Klar du kannst Farbräume definieren.. die freesync Range ändern... Aber großartig mehr ist da auch nicht drin.
Zumal diese Farbräume ja auch Helligkeitswerte beinhalten.. die der Monitor gar nicht darstellen kann.
Btw ich nutz bei mir kein Vsync.. entweder freesync oder volle Pulle
Was HDR TRUE black angeht.. das können wirklich nur OLEDs.. hat einfach was mit der Hintergrund Beleuchtung zu tun.. LCD Monitore müssen eine gewisse Grundhelligkeit haben..
Du musst ja mehrere Helligkeitswerte auf einmal anzeigen.. bei LCD geht das nur mit dimmingzonen.
Selbst auf niedrigster helligkeit macht n LCD Display immer noch seine 50-100 nits.. beim OLED geht's halt wirklich bis 0
mich wundert es ehrlich gesagt das du mit 300nits Peak überhaupt HDR aktivieren kannst.
Da du ja im Grunde eine Funktion aktivierst die der Monitor nach unserem HDR Verständnis gar nicht hat...
Daher vielleicht auch unser Unverständnis.. sorry wenn wir dir da auf den Slips getreten haben.
Generell kennt das Windows HDR sowas wie HDR10 nicht
Das liegt aber einfach daran daß wir hier von einem einem Standart reden der für DVD/Blueray-player genutzt wird.
Und beschreibt in der Regel eher das Pixelformat 4x2x2 oder 4x2x0 10bit.. was per Definition schon wesentlich komprimierter ist als das RGB 4X4X4 mit dem am PC gearbeitet wird und mit der auch deine graka ect standartmässig rendert.
Es gibt auch durchaus 10bit SDR Material
Diese 10bit (oder 8+frc) Darstellung
Ist eine Grundvoraussetzung für HDR.. bedeuten aber nicht automatisch HDR10
Bei HDR werden dir sowohl feinere schwarzabstufungen als auch höhere Helligkeitswerte gezeigt.. vorzugsweise mit unterschiedlichen Helligkeiten.
Jetzt ist dein Monitor HDR300..ja ich weis gibt es nicht.. die Standarts fangen bei HDR400 an..
(Wobei hdr400 true black nochmal ne ganz andere Sache ist wie HDR400.. da liegen Welten dazwischen)
kann also weder großartig heller noch großartig dunkler werden... Du bist also trotzdem auf etwa den Level eines SDR Monitors... Sowohl hellere wie dunklere Highlights gehen komplett unter.
Klar gibt es verschiedene Farbräume.. interessant für HDR sind die Bt2020 Farbräume.
Wobei Windows selbst und die entsprechenden spiele den BT2020 RGB nutzen.
Filme meist den den BT2020Ycc
Kannst ja Mal alle Farbräume einzelne in CRU anklicken.
Was den Grünstich angeht.. hast du Mal geschaut ob du den Monitor im HDR Modus seperat kalibrieren kannst?
Problematisch ist halt das ein Panel mit so Helligkeitswerten leider sehr beschränkt ist.
Viel Verbesserungen kannst du da HDR technisch nicht rausholen.
Klar du kannst Farbräume definieren.. die freesync Range ändern... Aber großartig mehr ist da auch nicht drin.
Zumal diese Farbräume ja auch Helligkeitswerte beinhalten.. die der Monitor gar nicht darstellen kann.
Btw ich nutz bei mir kein Vsync.. entweder freesync oder volle Pulle
Was HDR TRUE black angeht.. das können wirklich nur OLEDs.. hat einfach was mit der Hintergrund Beleuchtung zu tun.. LCD Monitore müssen eine gewisse Grundhelligkeit haben..
Du musst ja mehrere Helligkeitswerte auf einmal anzeigen.. bei LCD geht das nur mit dimmingzonen.
Selbst auf niedrigster helligkeit macht n LCD Display immer noch seine 50-100 nits.. beim OLED geht's halt wirklich bis 0
Zuletzt bearbeitet:
Habe nun alle 18 Seiten durch und bin tatsächlich schlauer! Da ist nur eine Sache, die mich etwas verunsichert. Ich habe einen LG OLED B1 (65"). Hier geht es mit 800 Nits ja immer um den C1. Dementsprechend weniger Nits Peak-Helligkeit soll der B1 ja haben (laut RTINGS.com nur knapp 600). Ich habe allerdings festgestellt, dass ich den Nit-Wert bis zu 750 treiben kann, ehe die Helligkeit nicht mehr steigt. Das habe ich auf zwei Arten getestet:
1. Forza Horizon 4 hat eine HDR-Kalibrierungsfunktion und dort sehe ich bei 600 das "H" noch deutlich und bei 800 ist es verschwunden (einen Wert dazwischen kann man nicht wählen). Im Spiel würde ich also 800 einstellen für eine passende Peak-Helligkeit, da man die erste Einstellung verwenden soll, ab der das "H" nicht mehr zu sehen ist.
2. Beim VESA-DisplayHDR-Tool ist zwischen den 16 unterschiedlich hellen Vierecken zwischen 640 Nits und 1000 Nits noch ein klarer Unterschied zu sehen, von 1000 bis 10.000 jedoch sehe ich keinen Unterschied mehr. Als ich über CRU den Peak-Wert ab 600 schrittweise erhöht habe, bin ich ca. bei 750 Nits gelandet, bis ich keinen Unterschied mehr im 10-%-Peak-Test zu 10.000 Nits gesehen habe. Bei 600 konnte man noch einen klaren Helligkeitsunterschied bemerken und auch noch bei 700. Zu guter Letzt kam ich bei der Kalibrierung des Maxed Tone Mapped Luminance Value (mit den vier grauen Quadraten, die wie das Windows-Logo aussehen, auf maximal hellem Grund, ähnlich wie in FH4 das "H") auch auf knapp 750 Nits, bis ich das Logo nicht mehr sehen konnte.
Getestet habe ich das alles mit dynamischem Tone-Mapping, deaktiviertem Tone-Mapping und HGiG, wobei die Kontraste im Grenzbereich zur maximal noch unterscheidbaren Helligkeit bei dynamischen Tone-Mapping deutlich schwächer waren, dennoch aber bis zu diesem Maximum von ca. 750 noch erkennbar blieben.
Bedeutet das nicht, dass mein B1 dann eigentlich 750 Nits kann statt nur knapp 600? Messwerte von externen Messgeräten, die eine reale absolute Helligkeit messen, zählen für mich da jetzt nicht, weil es mir ja darum geht, bis wann ich noch Unterschiede sehen kann und die Helligkeit noch nicht clippt. Sind meine Beobachtungen und Schlussfolgerungen da insofern richtig? Habe ich da ein Ausnahmemodell oder gibt es eine ganz einfache Erklärung? Ich bin nämlich jetzt unsicher, welchen Wert ich einstellen soll mit CRU. 600 oder 750 Nits? Wenn 750 möglich wären, würde ich ja auf wertvolle Helligkeit verzichten, wenn ich 600 als Obergrenze festlegen würde.
PS: Falls es wichtig sein sollte, hier noch etwas zu meinen Einstellungen: Angeschlossen ist der TV über ein HDMI-2.1-Kabel, aber die RTX 2060 unterstützt nur 2.0b. In den NVIDIA-Einstellungen habe ich 1080p (ja, ich verzichte auf 4K zugunsten besserer Spieleleistung, auch auf dem Desktop), 120 Hz, RGB, 8-Bit (mit Dithering laut Windows, weil das paradoxerweise auch weniger Banding produziert als 12-Bit) mit aktiviertem HDR unter Windows 11. Die SDR-Wiedergabe im HDR-Modus sieht auch toll aus, da ist also nichts ausgewaschen oder hat einen Farbstich. Den TV habe ich im PC-Modus, auch was den HDMI-Eingang angeht, d.h. viele Optionen sind ausgegraut. OLED-Helligkeit ist auf 100, Kontrast ist auf 100, Helligkeit auf 50. Der Schwarzwert ist so eingestellt, dass er mit dem RGB-Signal der Grafikkarte korrespondiert.
1. Forza Horizon 4 hat eine HDR-Kalibrierungsfunktion und dort sehe ich bei 600 das "H" noch deutlich und bei 800 ist es verschwunden (einen Wert dazwischen kann man nicht wählen). Im Spiel würde ich also 800 einstellen für eine passende Peak-Helligkeit, da man die erste Einstellung verwenden soll, ab der das "H" nicht mehr zu sehen ist.
2. Beim VESA-DisplayHDR-Tool ist zwischen den 16 unterschiedlich hellen Vierecken zwischen 640 Nits und 1000 Nits noch ein klarer Unterschied zu sehen, von 1000 bis 10.000 jedoch sehe ich keinen Unterschied mehr. Als ich über CRU den Peak-Wert ab 600 schrittweise erhöht habe, bin ich ca. bei 750 Nits gelandet, bis ich keinen Unterschied mehr im 10-%-Peak-Test zu 10.000 Nits gesehen habe. Bei 600 konnte man noch einen klaren Helligkeitsunterschied bemerken und auch noch bei 700. Zu guter Letzt kam ich bei der Kalibrierung des Maxed Tone Mapped Luminance Value (mit den vier grauen Quadraten, die wie das Windows-Logo aussehen, auf maximal hellem Grund, ähnlich wie in FH4 das "H") auch auf knapp 750 Nits, bis ich das Logo nicht mehr sehen konnte.
Getestet habe ich das alles mit dynamischem Tone-Mapping, deaktiviertem Tone-Mapping und HGiG, wobei die Kontraste im Grenzbereich zur maximal noch unterscheidbaren Helligkeit bei dynamischen Tone-Mapping deutlich schwächer waren, dennoch aber bis zu diesem Maximum von ca. 750 noch erkennbar blieben.
Bedeutet das nicht, dass mein B1 dann eigentlich 750 Nits kann statt nur knapp 600? Messwerte von externen Messgeräten, die eine reale absolute Helligkeit messen, zählen für mich da jetzt nicht, weil es mir ja darum geht, bis wann ich noch Unterschiede sehen kann und die Helligkeit noch nicht clippt. Sind meine Beobachtungen und Schlussfolgerungen da insofern richtig? Habe ich da ein Ausnahmemodell oder gibt es eine ganz einfache Erklärung? Ich bin nämlich jetzt unsicher, welchen Wert ich einstellen soll mit CRU. 600 oder 750 Nits? Wenn 750 möglich wären, würde ich ja auf wertvolle Helligkeit verzichten, wenn ich 600 als Obergrenze festlegen würde.
PS: Falls es wichtig sein sollte, hier noch etwas zu meinen Einstellungen: Angeschlossen ist der TV über ein HDMI-2.1-Kabel, aber die RTX 2060 unterstützt nur 2.0b. In den NVIDIA-Einstellungen habe ich 1080p (ja, ich verzichte auf 4K zugunsten besserer Spieleleistung, auch auf dem Desktop), 120 Hz, RGB, 8-Bit (mit Dithering laut Windows, weil das paradoxerweise auch weniger Banding produziert als 12-Bit) mit aktiviertem HDR unter Windows 11. Die SDR-Wiedergabe im HDR-Modus sieht auch toll aus, da ist also nichts ausgewaschen oder hat einen Farbstich. Den TV habe ich im PC-Modus, auch was den HDMI-Eingang angeht, d.h. viele Optionen sind ausgegraut. OLED-Helligkeit ist auf 100, Kontrast ist auf 100, Helligkeit auf 50. Der Schwarzwert ist so eingestellt, dass er mit dem RGB-Signal der Grafikkarte korrespondiert.
Zuletzt bearbeitet:
- Registriert
- Dez. 2018
- Beiträge
- 2.352
@VaniKa
Der OLED ist HDR600 zertifiziert.. das heißt er schafft mindestens 600nits..
Die nächste Zertifizierungsstufe ist HDR1000
Alles dazwischen ist immer noch HDR600
Dann gibt's noch Panel varianzen
Kann sein das dass Panel nicht mehr für n C1 (800nits) gelangt hat von der max helligkeit..
also hat man es n den b1 reingepackt.. Resteverwertung sozusagen und dein Glück.
Wenn du denkst er hat 750nits dann stell ihn auf 750
Die Displays werden ja auch nach verschiedenen Qualitäten gebinnt.. schlechtere kommen halt in die günstigeren Fernseher und gute in die teuren.
Is ja nix anderes wie bei CPU, GPU ect
Der OLED ist HDR600 zertifiziert.. das heißt er schafft mindestens 600nits..
Die nächste Zertifizierungsstufe ist HDR1000
Alles dazwischen ist immer noch HDR600
Dann gibt's noch Panel varianzen
Kann sein das dass Panel nicht mehr für n C1 (800nits) gelangt hat von der max helligkeit..
also hat man es n den b1 reingepackt.. Resteverwertung sozusagen und dein Glück.
Wenn du denkst er hat 750nits dann stell ihn auf 750
Die Displays werden ja auch nach verschiedenen Qualitäten gebinnt.. schlechtere kommen halt in die günstigeren Fernseher und gute in die teuren.
Is ja nix anderes wie bei CPU, GPU ect
Zuletzt bearbeitet:
Stagefire
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 845
VaniKa schrieb:Habe nun alle 18 Seiten durch und bin tatsächlich schlauer! Da ist nur eine Sache, die mich etwas verunsichert. Ich habe einen LG OLED B1 (65"). Hier geht es mit 800 Nits ja immer um den C1. Dementsprechend weniger Nits Peak-Helligkeit soll der B1 ja haben (laut RTINGS.com nur knapp 600). Ich habe allerdings festgestellt, dass ich den Nit-Wert bis zu 750 treiben kann, ehe die Helligkeit nicht mehr steigt. Das habe ich auf zwei Arten getestet:
RTINGS testet mit Warm 2 ... jede Stufe Wärmer kostet etwa 30 - 50 Nits .. merkst du ja selber wenn du mal bei deinem B1 da durchschaltest wie das Bild leicht dunkler und Wärmer und somit leicht ins Röttlich Orange geht während jede stufe mehr richtung Kühl eben ins Bläuliche geht wodurch das Bild wieder leicht heller wird.
das kann dann halt schonmal ein paar Nits ausmachen.
Dazu Testet RTINGs meist die 55" OLEDs ( weil am verbreitesten bzw meist gekauft )
der 48" CX is zb auch leicht dunkler als der 55" CX
du hast ein 65" OLED der wiederrum auch leicht heller is als der 55" .. macht auch nochmal ein
paar Nits.
B1 Helligkeitswerte von RTINGS : ( bei den 2021 Modellen heisst warm 2 wohl nun Warm 50 )
https://www.rtings.com/tv/reviews/lg/b1-oled
Peak Brighness is eben auch nochmal ein Ding .. im PC Mode hat man da kein zugriff drauf sollte aber auf
dennoch auf High stehen im TV Menu
mit dem Github Tool "Color Control" kann man die Peak Brightness aber auch im PC Mode ändern und noch viel mehr https://github.com/Maassoft/ColorControl
All das hat Einfluss auf das was dein Auge am ende sieht .. daher sag ich immer das ein OLED
im Bereich 600 - 800 Nits liegt weil man durch verstellen einfluss auf die Nits zu einem gewissen Grad hat.
Und ich halte es daher für möglich das dein OLED im Bereich 700 Nits liegen könnte.
Schaut man sich auch mal den "Real Scene" Wert an trennt dein 65B1 und mein 48CX auch nur so 55 Nits
im HDR Gamemode.
https://www.rtings.com/tv/reviews/lg/cx-oled
VaniKa schrieb:2. Beim VESA-DisplayHDR-Tool ist zwischen den 16 unterschiedlich hellen Vierecken zwischen 640 Nits und 1000 Nits noch ein klarer Unterschied zu sehen, von 1000 bis 10.000 jedoch sehe ich keinen Unterschied mehr.
Das Problem is das diese Tests vom Windows SDR Slider beeinflusst werden können
Wobei der Vesa Test kaum bis garnicht beeinflusst wird merk ich grad ... habs eben nochmal probiert.
Bei diesem Bild was wir damals genutzt haben wurde es durch den Slider beeinflusst.
Das war das hier :
VaniKa schrieb:.Bedeutet das nicht, dass mein B1 dann eigentlich 750 Nits kann statt nur knapp 600?
Wie du oben schon lesen konntest währe dies Möglich.
VaniKa schrieb:Ich bin nämlich jetzt unsicher, welchen Wert ich einstellen soll mit CRU. 600 oder 750 Nits? Wenn 750 möglich wären, würde ich ja auf wertvolle Helligkeit verzichten, wenn ich 600 als Obergrenze festlegen würde.
Ich würde dort auf etwa 650 - 700 Nits gehen wenn ich ne B Serie hätte.
Das Problem is das wir es eh nur schätzen können .. auch die 800 Nits die ich bei meinem 48CX
bei CRU eingestellt hab is ja nur ne Schätzung bzw Werte von anderen Geräten die eben durch Panel Variance auch unterschiedlich sein können. Der eine 65B1 hat vielleicht 580 Nits Peak der nächste hat 630 Nis und der 3te hat 615 Nits ( bezogen auf die RTINGS Settings )
Will man es genau wissen muss man sich ein ColorMeter kaufen und nachmessen wieviel Nits dein OLED hat. Ich hab da aber keine Lust drauf daher nehme ich den Wert eines anderen CX .. 100 % genau is
das aber natürlich nich aber eben grob in dem Bereich in dem mein 48CX wohl sein wird.
VaniKa schrieb:120 Hz, RGB, 8-Bit (mit Dithering laut Windows, weil das paradoxerweise auch weniger Banding produziert als 12-Bit) mit aktiviertem HDR unter Windows 11.
liegt vielleicht daran dass das Windows Dithering einen Besseren Job macht als das 10 Bit + 2 Bit Dithering vom LG ( OLEDs haben nur ein 10 Bit Nativ Panel ) die 12 Bit werden also per 10 Bit Nativ + 2 Bit FRC Dithering erzeugt.
Aber was Color Banding angeht würde ich an deiner stelle wenn es dich zu stark stöhrt mal Reshade + Deband probieren
Beispiel Bildern im Spoiler auf der Seite :
https://reshade.me/forum/shader-presentation/768-deband
Deband is beim Reshade schon dabei und kann per mehreren Slidern angepasst werden.
Blackfirehawk schrieb:Der OLED ist HDR600 zertifiziert.. das heißt er schafft mindestens 600nits..
Die nächste Zertifizierungsstufe ist HDR1000
Is mir nun neu ... also mein OLED hat keine Zertifizierung aber fällt durch seine gemessenen Nits in eine entsprechende Sparte. Fänds aber cooler wenn LG das machen würde und ihre TVs dann zb mit
"True Black 600" bewerben würde.
Bei TVs muss man leider immer auf die Reviews schauen um rauszufinden in welche HDR Kategorie sie geöhren .. bei PC Monitren werben die Hersteller ja von sich aus mit ihrere HDR Kategorie das is im TV Bereich leider anders.
Zuletzt bearbeitet:
- Registriert
- Dez. 2018
- Beiträge
- 2.352
Okay. Dachte die Oleds hätten alle ne Zertifizierung..
Naja okay wir reden hier im Thread ja auch HDR(Zahl) und wissen im Grunde was damit gemeint ist.
Das hat sich hier so n bissel eingebürgert.. wenn hier wer sagt HDR750 wissen wir was gemeint ist..
Die offiziellen VESA HDR Abstufungen sind halt HDR400, HDR600, HDR 1000 ect PP
Selbst Monitore die 700nits schaffen sind nur HDR600 zertifiziert und vom Hersteller so beworben.
Deswegen sollte man sich auf diese VESA HDR Zertifizierung nicht versteifen.
Mir reicht es wenn mir jemand sagt er hat n HDR(peakbrigntness zahl) Display
Trueblack können ja eh nur OLEDs
Sag ja hätte ich den Platz aufm Schreibtisch .. oder nicht die blöde Dachschräge im Wohnzimmer..hätte ich auch längst einen zum testen hier..
Aber ich denke ich werde mir nächstes Jahr den 42zöller ins Auge dassen und den alten Fernseher Rauschmeißen..
Sitz ich halt am Couchtisch mit Funk Maus und Tastatur zum zocken
Naja okay wir reden hier im Thread ja auch HDR(Zahl) und wissen im Grunde was damit gemeint ist.
Das hat sich hier so n bissel eingebürgert.. wenn hier wer sagt HDR750 wissen wir was gemeint ist..
Die offiziellen VESA HDR Abstufungen sind halt HDR400, HDR600, HDR 1000 ect PP
Selbst Monitore die 700nits schaffen sind nur HDR600 zertifiziert und vom Hersteller so beworben.
Deswegen sollte man sich auf diese VESA HDR Zertifizierung nicht versteifen.
Mir reicht es wenn mir jemand sagt er hat n HDR(peakbrigntness zahl) Display
Trueblack können ja eh nur OLEDs
Sag ja hätte ich den Platz aufm Schreibtisch .. oder nicht die blöde Dachschräge im Wohnzimmer..hätte ich auch längst einen zum testen hier..
Aber ich denke ich werde mir nächstes Jahr den 42zöller ins Auge dassen und den alten Fernseher Rauschmeißen..
Sitz ich halt am Couchtisch mit Funk Maus und Tastatur zum zocken
Stagefire
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 845
Blackfirehawk schrieb:Okay. Dachte die Oleds hätten alle ne Zertifizierung.
Das währe schon möglich aber ich habe bisher noch nie auf der LG Seite bei nem OLED
was von True Black 600 usw gelesen. Also kann sein das sie Intern so geführt werden
aber LG wirbt zumindest nicht mit einem VESA Zertifkat wie es nun zb andere PC Monitor
Hersteller tun. ( was ich schade finde das LG das nich macht )
Meiner :
https://www.lg.com/de/tv/lg-oled48cx8lc
Blackfirehawk schrieb:Naja okay wir reden hier im Thread ja auch HDR(Zahl) und wissen im Grunde was damit gemeint ist.
Das hat sich hier so n bissel eingebürgert.. wenn hier wer sagt HDR750 wissen wir was gemeint ist..
Jepp ... HDR 800 gibts zb auch nich aber ich sag ja immer das OLEDs im Bereich HDR 600 - HDR 800 sind.
Blackfirehawk schrieb:Sag ja hätte ich den Platz aufm Schreibtisch .. oder nicht die blöde Dachschräge im Wohnzimmer..hätte ich auch längst einen zum testen hier.. Aber ich denke ich werde mir nächstes Jahr den 42zöller ins Auge dassen und den alten Fernseher Rauschmeißen.. Sitz ich halt am Couchtisch mit Funk Maus und Tastatur zum zocken
Wenn man will geht alles ... ich hab zb eine 100" Beamer Leinwand mittem im Wohnzimmer stehen
SeniorWitti
Lt. Junior Grade
- Registriert
- März 2019
- Beiträge
- 460
Kein LG OLED schafft die Anforderungen von Display HDR True Black. Die 600er wird nicht erreicht. Die 500er wird auch nicht erreicht. Selbst die 400er wird um ca. 30% verfehlt, da LG OLEDs keine 250 nits bei vollflächigem Weiß halten können. Die schaffen noch nicht einmal 200nits. Und als Sahnehäubchen möchte VESA das gerne für alle Farben haben.
Hier die Vorgaben.
https://displayhdr.org/performance-criteria-cts1-1/
Hier die Vorgaben.
https://displayhdr.org/performance-criteria-cts1-1/
- Registriert
- Dez. 2018
- Beiträge
- 2.352
Geht schon.. Aber Frau hat da auch ne MeinungStagefire schrieb:Wenn man will geht alles ... ich hab zb eine 100" Beamer Leinwand mittem im Wohnzimmer stehen
Wenn ich zb bei meinem Schwager bin.. der hat n riesiges Wohnzimmer..
So n 88zoll Fernseher.. ich glaub das Ding ist sogar 8K.. so n paar Einzelsitzplatz Sessel dazu .. Fette Anlage..
Hat schon Kinofeeling.
Is halt iwie verstörend wenn du da mittags zu Besuch bist und meine angeheirate Nichte so Pony Zeug sieht..
Kannst aber prima aus der Küche heraus Fernsehen..
Aber das ist so ein "eure Armut kotzt mich an" Ding bei dem..
Naja wieder was gelernt.SeniorWitti schrieb:Kein LG OLED schafft die Anforderungen von Display HDR True Black. Die 600er wird nicht erreicht. Die 500er wird auch nicht erreicht. Selbst die 400er wird um ca. 30% verfehlt, da LG OLEDs keine 250 nits bei vollflächigem Weiß halten können. Die schaffen noch nicht einmal 200nits. Und als Sahnehäubchen möchte VESA das gerne für alle Farben haben.
Hier die Vorgaben.
https://displayhdr.org/performance-criteria-cts1-1/
Ich sags Mal so.. der erste Hersteller der es schafft n 4k 32zoll 120hz HDR600+ OLED Panel für n halbwegs guten Preis (um die 1000€) auf den Markt zu bekommen
Dem wird sie Bude eingerannr
Okay, ich habe es auf Neutral stehen und daher wohl etwas mehr Helligkeit.Stagefire schrieb:RTINGS testet mit Warm 2 ... jede Stufe Wärmer kostet etwa 30 - 50 Nits .. merkst du ja selber wenn du mal bei deinem B1 da durchschaltest wie das Bild leicht dunkler und Wärmer und somit leicht ins Röttlich Orange geht während jede stufe mehr richtung Kühl eben ins Bläuliche geht wodurch das Bild wieder leicht heller wird.
Ist das denn so? Was sagen denn so Tests, wie ich sie gemacht habe, aus? Ich würde annehmen, dass solange man bei einer schrittweisen Erhöhung des Nit-Wertes noch einen Unterscheid zur Maximalhelligkeit (wie eben 10.000 Nits, die ja nie erreicht werden) sieht, wird dieser Nit-Wert auch erreicht (zumindest wenn Tone-Mapping abgeschaltet ist). Oder liege ich da falsch? Wie hell das Bild dann wirklich ist, spielt ja eigentlich keine Rolle, wenn es um die Software-Konfiguration einer Obergrenze geht, damit das Tone-Mapping sich in einem Bereich bewegt, den der Bildschirm noch differenziert darstellen kann.Stagefire schrieb:Das Problem is das wir es eh nur schätzen können
SeniorWitti
Lt. Junior Grade
- Registriert
- März 2019
- Beiträge
- 460
Ja aber das macht ja dein TV von Haus aus. Der hat ein ToneMapping. Deswegen siehst du da noch was, obwohl du es nicht sehen dürftest. Ich könnte jetzt schreiben, kann man einfach nachmessen, aber nicht jeder hat ein Colorimeter. Wobei hier das messen einfacher wie das verstehen ist. HDR hat zu jeder Saturationsstufe von Weiß eine exakt zugeordnete Helligkeit. Die ist fest definiert. 50% Weiß sind grob 94,xx nits. Ab circa 70% geht dein Tv in den sogenannten Rolloff. Je nach Mastering früher oder später. Ebenfalls ändert sich die maximale Helligkeit vom Panel, ändert sich auch der Punkt des Rolloff. Auch die Art des Rolloff gibt der Hersteller vor und wie es danach weiter geht. Gleichbleibende Helligkeit oder steigt die langsam an.
Wenn man diese clipping Tests auch bei den 3 primär und den 3 sekundär Farben macht, stellt man fest, das das auch von Farbe zu Farbe differiert.
Und absurd wird das ganze da die oleds mit steigendem hellem Bildinhalt zunehmend dimmen.
Macht man jetzt einen Messdurchlauf mit 10% Weissanteil, kommt man der Referenzkurve schon recht nahe. Würde man den Test jetzt mit 50% Weißanteil im Bild machen würde ein harter cut bei ca. 60% Helligkeit eintreten. Was dann ungefähr 260 nits entspricht. Von 100% weißem Bild sprechen wir besser nicht. Da wird es dunkel mit ca. 175 nits im HDR. Das sind leider die wahren Probleme von Oled.
Wenn man diese clipping Tests auch bei den 3 primär und den 3 sekundär Farben macht, stellt man fest, das das auch von Farbe zu Farbe differiert.
Und absurd wird das ganze da die oleds mit steigendem hellem Bildinhalt zunehmend dimmen.
Macht man jetzt einen Messdurchlauf mit 10% Weissanteil, kommt man der Referenzkurve schon recht nahe. Würde man den Test jetzt mit 50% Weißanteil im Bild machen würde ein harter cut bei ca. 60% Helligkeit eintreten. Was dann ungefähr 260 nits entspricht. Von 100% weißem Bild sprechen wir besser nicht. Da wird es dunkel mit ca. 175 nits im HDR. Das sind leider die wahren Probleme von Oled.
Ähnliche Themen
- Antworten
- 15
- Aufrufe
- 965
- Antworten
- 24
- Aufrufe
- 4.157
- Antworten
- 2
- Aufrufe
- 446
- Antworten
- 19
- Aufrufe
- 1.135