Hallo, hab mir vor rund einer Woche einen Philips E-Line 288E2A 4k 28 Zoll Monitor gekauft und bin sehr zufrieden damit als Office Bildschirm.
Datenblatt: Support für 4K Ultra HD-LCD-Monitor 288E2A/00 | Philips
Nun wollte ich checken, ob der Monitor auch mit 10 bit läuft, weil ja zwischen 8bit und 10 bit jetzt nicht so ein krasser Unterschied ist, dass man das gleich sagen kann. Ob der Monitor ein echtes 10 bit Panel oder nur 8 bit + FRC hat, konnte ich nicht rausfinden. Das sollte ja auch noch einen Unterschied machen, laut diesem Link: True 10-bit vs 8-bit + FRC Monitor | What is the difference? | Isolapse
Als Grafikkarte habe ich eine Quadro K620, die sollte in der Lage sein bei 4k 60Hz 10 bit rauszugeben. Nvidia Treiber ist 27.21.14.6089. Betriebssystem ist Windows 10 Pro.
Zum Testen habe ich mir einerseits ein Youtube Video von einem Sonnenuntergang mit 10 bit angesehen: (2) GH5 4K 10Bit 422 test footage of Siesta Key Sunset - YouTube
Und weiters habe ich hier eine Testvideo für Graustufen in 10 bit runtergeladen:10 bit Gradient Test Patterns | AVS Forum
Der Sonnenuntergang sieht Hammer aus (4k), aber am Rand hin sehe ich Farbabstufungen. Im Testvideo sehe ich klare Abstufungen, grob überschlagen ca. 250 Stück, also eindeutig 8 bit. Als Player habe ich ein paar probiert, aber grundsätzlich habe ich den VLC 3.0.11
Dann habe ich mich gespielt unter den Nvidia Anzeigeeinstellungen, und die Desktopfarbtiefe und die Ausgabefarbtiefe auf 8 bit umgestellt, macht alles keinen Unterschied. Weiters Auflösungen geändert, um eine eventuell limitierende DP1.2 Schnittstelle bzw. Grafikkarte auszuschließen, weil ich mir nicht sicher bin, ob die 4k 60Hz bei 10 bit überhaupt schaffen (Graka und DP). Als Videoplayer habe ich den VLC 3.0.11 in Verwendung, hier habe ich auch noch einige Einstellungen probiert.
Kann mir jemand einen Rat geben, warum zwischen 8bit und 10bit Ausgabe bei mir kein Unterschied ist, und offensichtlich das 10 bit Testvideo und Youtube Video auf 8 bit laufen?
Datenblatt: Support für 4K Ultra HD-LCD-Monitor 288E2A/00 | Philips
Nun wollte ich checken, ob der Monitor auch mit 10 bit läuft, weil ja zwischen 8bit und 10 bit jetzt nicht so ein krasser Unterschied ist, dass man das gleich sagen kann. Ob der Monitor ein echtes 10 bit Panel oder nur 8 bit + FRC hat, konnte ich nicht rausfinden. Das sollte ja auch noch einen Unterschied machen, laut diesem Link: True 10-bit vs 8-bit + FRC Monitor | What is the difference? | Isolapse
Als Grafikkarte habe ich eine Quadro K620, die sollte in der Lage sein bei 4k 60Hz 10 bit rauszugeben. Nvidia Treiber ist 27.21.14.6089. Betriebssystem ist Windows 10 Pro.
Zum Testen habe ich mir einerseits ein Youtube Video von einem Sonnenuntergang mit 10 bit angesehen: (2) GH5 4K 10Bit 422 test footage of Siesta Key Sunset - YouTube
Und weiters habe ich hier eine Testvideo für Graustufen in 10 bit runtergeladen:10 bit Gradient Test Patterns | AVS Forum
Der Sonnenuntergang sieht Hammer aus (4k), aber am Rand hin sehe ich Farbabstufungen. Im Testvideo sehe ich klare Abstufungen, grob überschlagen ca. 250 Stück, also eindeutig 8 bit. Als Player habe ich ein paar probiert, aber grundsätzlich habe ich den VLC 3.0.11
Dann habe ich mich gespielt unter den Nvidia Anzeigeeinstellungen, und die Desktopfarbtiefe und die Ausgabefarbtiefe auf 8 bit umgestellt, macht alles keinen Unterschied. Weiters Auflösungen geändert, um eine eventuell limitierende DP1.2 Schnittstelle bzw. Grafikkarte auszuschließen, weil ich mir nicht sicher bin, ob die 4k 60Hz bei 10 bit überhaupt schaffen (Graka und DP). Als Videoplayer habe ich den VLC 3.0.11 in Verwendung, hier habe ich auch noch einige Einstellungen probiert.
Kann mir jemand einen Rat geben, warum zwischen 8bit und 10bit Ausgabe bei mir kein Unterschied ist, und offensichtlich das 10 bit Testvideo und Youtube Video auf 8 bit laufen?