Drakonomikon
Commander
- Registriert
- Okt. 2005
- Beiträge
- 2.773
Ich habe seit heute einen ASUS PG329Q. Dieser Monitor hat ein 10-bit Panel (8bit+FRC) und ist HDR tauglich. Da dies mein erster Monitor mit einem 10-bit Panel ist, habe ich den Aufwand nicht gescheut zu überprüfen ob die Ausgabe-Farbtiefe zwischen 8bpc und 10bpc (in den Nvidia-Einstellungen) wirklich einen sichtbaren Unterschied bringt. Mir ist bewusst, dass Windows Standardprogramme stets 8bpc anzeigen und habe deswegen Photoshop installiert und den 30-bit Support aktiviert, ein neues Bild in 1440p mit 32-bit Farbtiefe erstellt und einen Farbverlauf von Schwarz zu Weiß generiert. Und siehe da, bei 8-bit ist ein deutlich stärkeres Banding zu sehen als bei 10-bit. Ich bin mir bis hier hin also sicher, dass 10-bit einen sichtbaren Unterschied erzeugen.
Nun gibt es aber die Möglichkeit HDR in den Windows-Einstellungen zu aktivieren. Nach meinem Verständnis sind 10bit Farbtiefe ein Synonym zu HDR. Allerdings kann ich in den Nvidia-Einstellungen genauso gut 8bpc mit HDR aktivieren. Das ist nach meinem Verständnis ein Widerspruch. Und Photoshop ignoriert auch eiskalt die Nvidia-Einstellung der Farbtiefe solange HDR aktiv ist. Soll heißen, das Banding ist so gering wie zuvor mit 10-bit. An dieser Stelle könnte man vermuten Windows > Nvidia, sodass die Nvidia-Einstellung egal ist solange HDR aktiv ist. Aber wenn ich die Informationen im OSD des Monitors auslese, bekomme ich auch 8-bit mit HDR bzw. 10-bit mit HDR angezeigt. Das bedeutet dass die Grafikkarte ganz klar nur eine Farbtiefe von 8-bit ausgibt, wenn es so in den Nvidia-Einstellungen eingestellt ist.
In Baldurs Gate 3 kann ich einen deutlichen Unterschied zwischen SDR und HDR erkennen. Die Helligkeitsdynamik im HDR Modus ist viel größer als in SDR. Allerdings muss ich sagen, dass ich einen ähnlichen Effekt in SDR ebenso erreichen kann, wenn ich das Gamma entsprechend verringere und die Leuchtdichte (in cd/m²) weit genug erhöhe.
Meine Fragen sind:
-Wie kann HDR bei nur 8bpc Farbtiefe ausgegeben werden?
-Was tut HDR im Detail? Wird einfach nur das Gamma manipuliert?
Nun gibt es aber die Möglichkeit HDR in den Windows-Einstellungen zu aktivieren. Nach meinem Verständnis sind 10bit Farbtiefe ein Synonym zu HDR. Allerdings kann ich in den Nvidia-Einstellungen genauso gut 8bpc mit HDR aktivieren. Das ist nach meinem Verständnis ein Widerspruch. Und Photoshop ignoriert auch eiskalt die Nvidia-Einstellung der Farbtiefe solange HDR aktiv ist. Soll heißen, das Banding ist so gering wie zuvor mit 10-bit. An dieser Stelle könnte man vermuten Windows > Nvidia, sodass die Nvidia-Einstellung egal ist solange HDR aktiv ist. Aber wenn ich die Informationen im OSD des Monitors auslese, bekomme ich auch 8-bit mit HDR bzw. 10-bit mit HDR angezeigt. Das bedeutet dass die Grafikkarte ganz klar nur eine Farbtiefe von 8-bit ausgibt, wenn es so in den Nvidia-Einstellungen eingestellt ist.
In Baldurs Gate 3 kann ich einen deutlichen Unterschied zwischen SDR und HDR erkennen. Die Helligkeitsdynamik im HDR Modus ist viel größer als in SDR. Allerdings muss ich sagen, dass ich einen ähnlichen Effekt in SDR ebenso erreichen kann, wenn ich das Gamma entsprechend verringere und die Leuchtdichte (in cd/m²) weit genug erhöhe.
Meine Fragen sind:
-Wie kann HDR bei nur 8bpc Farbtiefe ausgegeben werden?
-Was tut HDR im Detail? Wird einfach nur das Gamma manipuliert?