Ich weiß gar nicht, ob es rein von der Fertigung her möglich wäre, quasi Smartphone-Displays einfach in viel größer mit gleicher Pixeldichte zu produzieren.
Aber selbst wenn es das wäre:
Displays sind halt immer für einen bestimmten Zweck gemacht.
Der Betrachtungsabstand ist wie hier schon richtig gesagt wurde entscheidend.
Smartphones und Tablets sind relativ dicht am Auge, deshalb ist eine hohe Pixeldichte da gut.
Fernseher sind eher weit weg, deshalb ist die Pixeldichte da auch völlig okay, wenn sie geringer ist.
Monitore liegen halt irgendwo dazwischen.
Und für den "neuesten Hype" mit VR z.B. braucht man ganz kleine Displays, die extrem nah am Auge sind, mit noch höherer Pixeldichte als bei Smartphones etc.
Natürlich kann man auch immer sagen, dass mehr natürlich besser ist. Aber mehr als nötig macht man halt auch ungern.
Wenn auf normale Fernseh-Entfernungen die allermeisten Leute 4K ausreichend finden, warum mehr produzieren?
Zumal da halt auch noch hinzukommt, dass hohe Pixeldichte auf große Fläche natürlich insgesamt viele Pixel ergibt.
Und das stellt Anforderungen an die Inhalte, die auf den Geräten angezeigt werden sollen und damit auch an die Geräte, die diese liefern.
4K ist z.B. bei aktuellen TVs Standard. 4K-Bildmaterial ist aber noch lange nicht Standard. Das findet man hier und da, wenn man es denn will.
Bei Monitoren ist das mit 4K-Videos und Bildern etc. natürlich dasselbe, nur dass da eben darüberhinaus hauptsächlich Inhalte angezeigt werden, die zuvor auf dem zugehörigen Computer berechnet werden müssen. Bei Spielen z.B. ist 4K von der Leistung her noch immer sehr hart für die Hardware. 8K oder gar 16K kann man hier völlig knicken, 16K wären das 16-fache an Pixeln gegenüber 4K und bei den allermeisten optisch halbwegs anspruchsvollen Spielen nicht flüssig spielbar.
Außerdem ist das auch mit der Übertragung der Bilddaten ein Thema. Nicht nur die Anzahl der Pixel ist wichtig, sondern auch die Bildrate (Bilder/Sekunde).
Selbst der aktuellste DisplayPort-Standard kann 8K nur in 30 Bildern/s übertragen. Bei 60 Bildern/s müssen die Daten komprimiert werden.
Das aktuellste HDMI 2.0b kann sogar nur 5K bei 30 Bildern/s. HDMI 2.1 wird im Dezember veröffentlicht, ist auf aktuellen Geräten also nicht vorhanden, und kann dann dasselbe wie DisplayPort 1.4.
Man sieht also, dass es da eine ganze Menge Gründe gibt, warum man diese extrem hohen Pixelzahlen, die den allermeisten Menschen im normalen Sichtabstand rein garnichts bringen, noch nicht anrührt.
Natürlich kann man "upscaling" machen. Also Bildmaterial, das eine geringere Auflösung hat als der Bildschirm, zuführen und den Bildschirm das dann hochrechnen lassen.
Das wird aber oft sehr sehr hässlich und bringen tut es einem dann trotzdem nichts. Auch die beste Hochskalierung kann z.B. nicht mehr Details darstellen, als im eingespeisten Bildmaterial vorhanden sind.
Letqua schrieb:
Es flimmert und verursacht augenkrebs..
Das Flimmern nimmst du wahr, weil der Bildschirm eine andere Bildrate hat als die Kamera, mit der er aufgenommen wird, und die Beiden nicht synchronisiert sind.
Das hat rein NULL mit der Auflösung zu tun und sagt auch nichts über die Qualität des Bildschirms aus.
Also warte doch einfach mal ab, bis dein bestelltes Display wirklich da ist, verwende es ganz normal (und korrekt) und dann schau, ob da überhaupt ein Grund war, dich vorher verrückt zu machen.
Falls es dir nicht zusagen sollte, kannst du es ja immernoch zurückschicken.