Bright0001
Commander
- Registriert
- Juli 2011
- Beiträge
- 2.612
Ich erweise MS hier einen Bärendienst, aber das ist etwas, dass sie aus meiner Sicht fixen sollten bzw. gar müssen. Wenn man "der Standard" sein will, der alle abholt, dann darf man solche Probleme imo nicht an den Nutzer weitergeben. Wir reden von Microsoft, die haben genug Ressourcen um Dinge sauber umzusetzen bzw. eigene Standards zu erschaffen und notfalls zu diktieren.W0dan schrieb:Das ist kein Mangel an Windows, sondern generell etwas, worauf man bei HDR Darstellung in Spielen achten soll. Sobald der Monitor oder TV Tonemapping macht sind alle Einstellungen im Spiel oder System sowieso völlig Sinnlos, weil das Display irgendwas macht, was es gerade lustig findet....
Nicht falsch verstehen; Ich werde hier nicht für Linux predigen, vor allem nicht nach der Tortur 4K@60Hz auf meinem zweiten Monitor in Ubuntu überhaupt lauffähig zu machen.W0dan schrieb:Dass man HDR Systemseitig kalibrieren muss ist auf Konsolen und Windows so und davon ist Linux nicht ausgeschlossen. Wobei man bei Linux vielleicht mal anfangen sollte überhaupt erst HDR in Spielen zu unterstützen, dann können wir weiter reden.
Und ist es tatsächlich so, dass man Konsolen auf HDR-Bildschirme kalibrieren muss? Ich hab keine aktuelle Gen, daher ehrlicherweise auch keinen Plan.
W0dan schrieb:Und ja, dass es bei Windows noch nicht sauber funktioniert, also die Kalibrierungsapp beim zweiten Mal ausführen das Profil vom ersten Mal ausführen nutzt (weil es systemweit appliziert wird) und dadurch die Kalibrierung bei jeder Ausführung weiter abdriftet ist natürlich maximal bescheuert.
Man kann halt keine Bugs damit wegrationalisieren, dass wenn der User einen Pfad nicht nimmt, der Bug auch nicht auftritt.W0dan schrieb:Aber tatsache ist auch, dass einmal ausführen auch reichen muss, da es eben nur richtig oder falsch gibt. Einmal richtig eingestellt funktioniert ja alles sauber....
Ich weiß was du meinst, aber vom Ding her trotzdem ein No-Go.
W0dan schrieb:Nein, das ist einfach falsch. Das trifft für die allermeisten Grafikeffekte und Einstellungen zu, aber HDR nimmt man auch nach mehreren Stunden noch sehr bewusst wahr, weil gewisse Elemente sich durch die höhere Leuchtkraft sehr deutlich vom Bild abheben und für eine unglaublich hohe Dynamik sorgen, die sehr deutlich auffällt.
"Falsch", im Sinne von objektiv falsch, halte ich für zu weit gegriffen. Ein gutes Spiel ist immersiv, und immersiv heißt ja, dass man die "Meta"-Ebene verlässt und "drin" ist. Selbstverständlich ist sauberes HDR auf einem guten Bildschirm besser als SDR auf selbigem, aber, zumindest mich persönlich, würden flackernde Kanten durch schlechtes AA Faktor 100 mal mehr stören, als wenn der Bildschirm nur noch 600 statt 1000 Lumen im Peak erreicht.W0dan schrieb:Genauso wie die Soundanlage nicht bei jedem Ton den Subwoofer knallen lassen soll soll eben bei HDR die maximale Helligkeit auch nur gezielt und sparsam genutzt werden. Umso besser ist dann der Eindruck, wenn es genutzt wird.
Ton ist ja ein gutes Beispiel: Ist ein wuchtiger Film besser erlebt, wenn die Anlage ordentlich ist? Ja. Ist ein guter Film weniger genossen, weil man "nur" eine normale Anlage zu Hause hat? Ich würde sagen nein.
Am Ende reden wir ja nicht von gut und schlecht, sondern von gut und besser.
W0dan schrieb:local dimming
Bei Local Dimming bekomme ich einen Würgreiz. Grauenvoll.W0dan schrieb:Bei den PC Monitoren kann ich nicht ganz mitreden, aber da sind die Dimming zonen halt meistens auch in ihrer Anzahl zu gering, so dass es zu bloom effekten kommt.
55", 4K, 100% Skalierung. Wer damit einmal produktiv gearbeitet hat, geht nicht wieder zurück.floh667 schrieb:Nicht jeder möchte einen riesen Display vor sich haben. Mir z.b reichen die 24,1" völlig aus.
Buchstäblich 6 Fenster parallel offen, ohne dass man wechseln muss, und ohne dass man Mäusekino hat.