Vorausgeschickt, ich kenn mich eigentlich ein bisschen aus (bester Einstieg) - aber bin mit meinem Latein einfach am Ende. Obwohl System- und Hardware-Voraussetzungen erfüllt, bekomme ich keine 10-Bit Darstellung auf folgendem System:
Win 11 Pro (22000.795, 21H2)
AMD RX5700XT (auf AMD 22.6.1 Teiber)
Viewsonic VP2770 (8+2 FRC Panel, als 10-Bit erkannt)
über Displayport angeschlossen
gibt reproduzierbar in mehreren Anwendungen (Photoshop, Bildvorschau, DaVinci Resolve) keinen echten 10-Bit Gradient aus, obwohl folgende Voraussetzungen erfüllt sind:
In den Treibersettings in AMD Software Adrenaline Edition ist 10-Bit ausgewählt. Kann das zwischen 6/8/10-Bit umstellen, bei Umstellung bricht auch Signal kurz weg, also da tut sich was. In den Windows-Anzeige-Einstellungen wird der Monitor korrekterweise als 10-Bit SDR erkannt. Soweit so gut. Was am Panel ankommt, weniger.
Das wäre mal mein Latein, was Voraussetzungen angeht. Getestet mit folgendem Gradient in Photoshop:
https://www.eizo-apac.com/support-service/tech-library/monitor-test
(30-Bit-Hardware ausgewählt, 16-Bit Picker, etc. - man sieht es aber schon auf den ersten Blick, dass das nicht funktioniert)
Es gibt keinen Unterschied zwischen 8 und 16-Bit Gradient.
Verifiziert, dass ich ungefähr weiß was ich tue und als Kontrolle der Soll-Unterschiede der Gradients, habe ich auf Windows 10 PC daneben, mit nVidia Grafikkarte (ich müsste nachschauen welche), Studiotreiber und BENQPV3200PT (oder Vorgänger) den gleichen Test gemacht, da ist der Unterschied - wie erwartbar - wie Tag und Nacht da.
Irgendwelche Ideen?
Soweit ich weiß sind das lediglich die Voraussetungen in Treiber und Windows, warum das am Panel dann scheinbar doch nicht funktioniert macht mich ratlos.
Es ist kein Auflösungs / HDMI Problem. Alles hat unter Win10 letztes Jahr funktioniert, seither ehrlich gesagt nicht mehr überprüft, nur in den Settings gecheckt ob nach dem Update alles auf 10-Bit da und dort gestellt war.
Win 11 Pro (22000.795, 21H2)
AMD RX5700XT (auf AMD 22.6.1 Teiber)
Viewsonic VP2770 (8+2 FRC Panel, als 10-Bit erkannt)
über Displayport angeschlossen
gibt reproduzierbar in mehreren Anwendungen (Photoshop, Bildvorschau, DaVinci Resolve) keinen echten 10-Bit Gradient aus, obwohl folgende Voraussetzungen erfüllt sind:
In den Treibersettings in AMD Software Adrenaline Edition ist 10-Bit ausgewählt. Kann das zwischen 6/8/10-Bit umstellen, bei Umstellung bricht auch Signal kurz weg, also da tut sich was. In den Windows-Anzeige-Einstellungen wird der Monitor korrekterweise als 10-Bit SDR erkannt. Soweit so gut. Was am Panel ankommt, weniger.
Das wäre mal mein Latein, was Voraussetzungen angeht. Getestet mit folgendem Gradient in Photoshop:
https://www.eizo-apac.com/support-service/tech-library/monitor-test
(30-Bit-Hardware ausgewählt, 16-Bit Picker, etc. - man sieht es aber schon auf den ersten Blick, dass das nicht funktioniert)
Es gibt keinen Unterschied zwischen 8 und 16-Bit Gradient.
Verifiziert, dass ich ungefähr weiß was ich tue und als Kontrolle der Soll-Unterschiede der Gradients, habe ich auf Windows 10 PC daneben, mit nVidia Grafikkarte (ich müsste nachschauen welche), Studiotreiber und BENQPV3200PT (oder Vorgänger) den gleichen Test gemacht, da ist der Unterschied - wie erwartbar - wie Tag und Nacht da.
Irgendwelche Ideen?
Soweit ich weiß sind das lediglich die Voraussetungen in Treiber und Windows, warum das am Panel dann scheinbar doch nicht funktioniert macht mich ratlos.
Ergänzung ()
Es ist kein Auflösungs / HDMI Problem. Alles hat unter Win10 letztes Jahr funktioniert, seither ehrlich gesagt nicht mehr überprüft, nur in den Settings gecheckt ob nach dem Update alles auf 10-Bit da und dort gestellt war.
Zuletzt bearbeitet: