jubey schrieb:
Was ich mich halt frage ist, was diesen Monitor zu einem HDR Display macht....Es kann eigentlich nur ein Pseudo-HDR sein...
Nun ja, die Frage stellt sich bei aktuell jedem Display. Von rein professionellen "Betrachtungsmaschinen" abgesehen - preislich jenseits von Gut und Böse - dürfte es nach diesem Maßstab kein HDR-Display am Markt geben. Für mich war "HDR" das am wenigsten beachtete Attribut: so wie ich die HDR10-Spezifikation verstanden habe benötigt ein Display dafür 1.500 nits, und das schafft der BenQ nicht mal ansatzweise. Wichtiger waren mir die Kombination aus 4K, echten 10 bit Farbtiefe (die man auch sieht), 14 bit LUT und DP 1.4. Sogar die neuen Displays von Asus und LG kamen da nicht mit.
jubey schrieb:
das viele aus den oft recht gruseligen HDR-Fotos kennen. Ich vermute die Schatten und Lichter werden betont und die Bittiefe für feine Nuancen in den Bereichen genutzt(?).
Nein, Gottseidank nicht wie die gruseligen HDR-Fotos. Der Kontrast wirkt nicht künstlich verstärkt. Aber es stimmt, die Bit-Tiefe wird für die feinen Nuancen genutzt. Besonders einfach zu erkennen ist das natürlich bei einem Grauverlauf von schwarz nach weiß, aber eben auch bei dem von mir benannten Beispiel von feinsten Farbverläufen an einem angelaufenen Chromauspuff. Der Unterschied zwischen den Einstellungen "8 bit" und "10 bit" ist in diesen Fällen recht deutlich zu sehen. Sonst natürlich nicht, da Youtube und die meisten anderen Applikationen ja eh kein 10-bit-Material bereitstellen (HDR-Netflix habe ich nicht, aber auch das dürfte in der überwieggenden Zahl der Streams hochgerechnet sein).
jubey schrieb:
zu AdobeRGB, nunja jetzt verstehe ich auch was du mit bunt meinst ^^ und eben nicht farbtreu, wie auch? der Farbumfang ist viel größer nur weiß Mass Effect das nicht
zumindest nicht wenn du deinen Monitor nicht profiliert hast...
Stimmt, habe ich nicht. Aber der Unterschied zwischen 8 bit und 10 bit ist auch bei den anderen Profilen (sRGB, Rec. 709, DCI-P3 und "HDR") zu erkennen. Bei Adobe immerhin am deutlichsten.
Der "HDR"-Modus des BenQ ist etwa so lollipopfarben wie du das beschrieben hast und sogar farbverschoben: mehr rot, weniger gelb. Gefällt mir überhaupt nicht, effekthaschend.
Der "HDR"-Modus von Windows ist das genaue Gegenteil: matt, stumpf, verwaschen, wie mit einem Nebelschleier überzogen. Ich glaube, dass diese Offsets noch komplett im Argen liegen, beides ist für mich völlig unbrauchbar.
Und nein, ich habe auf Andromeda nicht extra profiliert sondern mich auf den nVidia-Treiber verlassen. Das Ergebnis gefällt mir sehr gut. Natürlich kann man da nicht von "natürlich" sprechen - ist ja immerhin ein SciFi-Game - aber es kommt mir stimmig vor. Ich glaube, dass die Entwickler zufrieden wären, wenn sie ihr Ergebnis auf meinem Rechner sehen würden.
BTW - Ich wollte irgendwann wieder in die anspruchsvollere Fotografie einsteigen und dann meinen Monitor hardware-kalibrieren. Zu welchem Sensor würdet ihr mir raten (Hersteller, Modell)? Sollte preislich eher bei 100 als bei 1.000 Euro liegen. Über eure Tipps würde ich mich freuen.