Was ich noch nicht ganz verstehe:
Angeblich funktioniert HDR ja mit 8Bit / 165Hz nicht (richtig). Wenn ich den HDR Mode im Monitor aktiviere (zB HDR Game (ich denke das entspricht HDR400) oder HDR Peak 1000) erkennt sowohl Windows als auch die Spiele, dass HDR aktiviert ist. Bei Peak 1000 sind die Leuchreklamen bei Cyberpunk dann so hell, dass es fast schon blendet ;-)
Ist bei 10Bit dann HDR Darstellung also einfach noch genauer oder wie muss man sich das vorstellen?
Angeblich funktioniert HDR ja mit 8Bit / 165Hz nicht (richtig). Wenn ich den HDR Mode im Monitor aktiviere (zB HDR Game (ich denke das entspricht HDR400) oder HDR Peak 1000) erkennt sowohl Windows als auch die Spiele, dass HDR aktiviert ist. Bei Peak 1000 sind die Leuchreklamen bei Cyberpunk dann so hell, dass es fast schon blendet ;-)
Ist bei 10Bit dann HDR Darstellung also einfach noch genauer oder wie muss man sich das vorstellen?