Mehr Zonen für die Beleuchtung klingt erstmal gut...
Aber ist das bei HDR eine stärkere GPU Belastung? Oder sendet die eh zu jedem Pixel einen weiteren Helligkeitswert?
Das mit dem Heiligenschein bei ca 400 Zonen fand ich gar nicht so schlimm... Das Auge sieht sehr helle Stellen ja auch etwas überstrahlen... Verbesserungswürdig ist es natürlich trotzdem.
Mir persönlich sind die Monitore über 24" zu groß und 4K zu heftig für die GPU.
Ich habe 24" und 1440p 144Hz....das ist aus meiner Sicht für Teilzeit Desktop Teilzeit gaming am besten....zumindest wenn man noch einen zweiten Monitor für mehr Desktopfläche daneben stehen hat.
Aber da bin ich wohl alleine
.
Wo ich auch alleine bin, und wo ich ich noch keine befriedigende Antwort erhalten konnte ist die Frage nach der Bildqualität....
Was macht das Bild besser?
Ich nenne Mal absichtlich keine Panel Typen um nicht wieder den Glaubenskrieg zu starten
.
Aber eventuell hat hier ja jemand Ahnung davon, was den Monitoren am ehesten fehlt.
Die Farbdarstellung....
alle Techniken bekommen ja die gleichen Infos zu rot, grün und blau Intensitäten....so ist die Farbe also vorgegeben und der Monitor soll diese darstellen .
Wenn die Tests jetzt herausfinden, dass der sRGB Raum oder so nur zu 90% abgedeckt ist....was bedeutet das?
Hat der Monitor eine schlechte Einstellungsgenauigkeit und kann nicht die Werte 0,1,2,....,255 ansteuern, sondern nur 0,3,6,9,...255?
Oder ist seine Abschirmung nicht gut und er kommt nicht auf 0 runter oder die Durchlässigkeit ist nicht hoch genug um auf 255 zu kommen?
Und fällt mir das auf?
Ich habe einen sehr alten Laptop, da ist Rot Orange...ich hatte da Fotos angeguckt und das rote Auto war am Monitor einfach orange...da gab es eine stark wahrnehmbare falsche Farbdarstellung.
Aber an allen anderen 6 Monitoren war das Auto rot...nicht immer das perfekt gleiche Rot, aber die Monitore sind auch nicht alle gleich hell und das macht für die Wahrnehmung ja viel aus.
Ich könnte aber nicht sagen welcher Rotton der richtige ist...ich habe drei Monitore davon mit einem externen Farb-mess-Dings eingestellt gehabt...da sollte die Farbe also besonders genau getroffen sein, aber wenn man mir zwei ähnliche nebeneinander stellen würde, könnte ich nicht sagen, welche Farbnuance jetzt die "echte" ist und welche leicht falsch ist.
Eventuell gibt es Menschen mit sRGB Augen, die sich dann die Taskleiste angucken und erkennen, dass der Blauton um 2% ins grünliche verschoben ist.....ich bezweifle es aber stark.
Spätestens wenn sie ein Foto angucken ist es doch unmöglich zu sagen, weil sie nicht den direkten Vergleich haben wie es in echt aussehen muss.
Aber eventuell bin ich ja blind und andere Leute sehen auf magische Weise wenn ein Monitor nicht 100 prozentig die richtige Farbe trifft.
Wo ich Unterschiede sehe, ist bei Farbverläufen...also z.B. Wolken, die einen schwachen aber kontinuierlichen Verlauf haben, und wo Monitor A sichtbare farbsprünge hat, und Monitor B engere Abstände der Sprünge bei kleineren Unterschieden hat.
Das wäre dann wohl der Fall, wenn der Monitor bei der Farbwahl nicht so kleinschrittig einstellen kann.
Pixeldichte ist natürlich auch wichtig....aber extrem vom Abstand abhängig.
Nur weil es 4K ist, ist es ja nicht zwangsläufig gut....gestreckt auf einen riesigen Fehrseher, ist die pixeldichte schlechter als mein uralt 1680*1050 Monitor...weil der nur 21" hat.
Beim Fehrseher sitze ich ja auch weiter weg, aber für den PC Monitor muss ich mich schon stark nach vorne beugen, um mich bei gängigen Auflösungen an der pixeldichte zu stören.
In Spielen sieht man gerade an halbtransparenten Texturen wie Vegetation Unterschiede....das hat aber mehr etwas mit der Abtastung der 3D Szene als mit der pixeldichte zu tun.
Da sind 1440p schon besser als 1080p, aber wenn ich mir die verlorenen FPS angucke, will ich nicht auf 4K gehen.
Gucke ich im Geschäft diese unglaublich teuren Fehrseher an, dann denke ich auch...."man sieht das gut aus!"
Da laufen dann Videos von Urlaubsorten usw. ab....alles leuchtet hell und mit kräftigen Farben...saftiges Gras...grell grün....aber irgendwie künstlich.
Gucke ich mich vom Schaufenster aus um, dann ist da auch Mal frisches Gras, das direkt von der Sommersonne angeleuchtet wird......das sieht schön aus, aber es leuchtet nicht so von innen heraus wie auf dem Fehrseher.
Und dann Frage ich mich ob das dann ein gutes Bild ist?
Nur weil es einladend aussieht, so als würde ich gerne in das Gras beißen, ist es ja noch lange keine realistische Darstellung.
Kaufe ich da wirklich einen Monitor mit besseren Bild oder nur einen, der eine höhere Helligkeit hat und die Farben schön "saftig" verfälscht?
Und dann sind da die Bewegungen....der dell Laptop mit angeblich guter Farbdarstellung hat leider grausige Reaktionszeiten....scrollt man z.B. in Anno über die karte werden die Wälder zu einem grünen Matsch...da hat mein Desktop Monitor noch eine klare Darstellung, die auch in der Bewegung die Bäume erkennen lässt.
Und Bewegungen an meinem Fehrseher ruckeln weil der intern wohl nur mit 24Hz läuft.
Das Thema ist so komplex, das ich Nicht sagen könnte, was jetzt der bessere Monitor und dir bessere Monitortechnik ist.
Hat alles vor und Nachteile und je nach Einsatzgebiet ist was anderes wichtiger.
Ich habe lieber meinen 24" TN Monitor anstelle meines IPS Monitors, weil ich keine Farbunterschiede sehe....ich aber die 144Hz des TN deutlich gegenüber den 60 Hz des IPS sehe.
Zurück zur Anfangsfrage...kann mir jemand erklären, was das bessere Bild ausmacht?
Sollte ich eigentlich erkennen können ob die Farben 100prozentig passen oder ist es eigentlich nur eine Frage von Kontrast und Helligkeit...oder wie unrealistisch das Demovideo ist?