News Huawei-Chef: „QHD-Displays sind Unsinn“

Suma schrieb:
Naja... mehr ein Apfel-Birnen-Vergleich, meinst du nicht?

Nein, ist es eben nicht – in vielen Bereichen kann die Technik viel feiner abstufen, als die menschlichen Sinne unter normalen Umständen unterscheiden können. Das ist allerdings auch absolut sinnvoll, weil eben nicht immer diese "normalen" Umstände vorliegen. Bei Displays war bisher die Technik der limitierende Faktor, so dass sich die üblichen Auflösungen *weit* unterhalb des menschlichen Auflösungsvermögens befunden haben.

Eine völlig andere Frage ist, ob es *derzeit* sinnvoll ist, bei Smartphones so hohe Auflösungen zu verwenden – und da habe ich durchaus auch Zweifel. Aber nicht, weil man "das sowieso nicht sieht", sondern weil:
- Der Unterschied relativ zum Mehrverbrauch derzeit zu klein ist (und die Akkulaufzeit von Smartphones ist ja wirklich ein Problem).
- Sowieso kaum Video-Material für mehr als 1920x1080 vorliegt und eben dieses erst auf 4K wieder sauber skaliert.
- Smartphones damit eine wesentlich höhere absolute Auflösung haben als nahezu sämtliche größeren Geräte. Von der relativen gar nicht zu reden; jeder würde 320x240 auf 4" als Schrott bezeichnen, doch für Desktop-Bildschirme ist das normal.

Diese drei Punkte werden aber in einigen Jahren sicherlich anders aussehen – und dann lohnen sich auch höher auflösende Smartphones.
 
Von sogenannten „Quick Charge“-Methoden, bei denen der Akku des Smartphones binnen kürzester Zeit auf ein akzeptables Niveau geladen wird, hält Yu unter Verweis auf die verkürzte Lebenszeit der Akkus ebenfalls wenig.

Ich weis nicht ob das iPhone 5c sowas hat, aber es lädt seht schnell mit trotzdem hoher Kapazität d.h. kann die Funktion auch sehr praktisch sein.
 
@HardRockDude: Nein, du wirst auf 5in keinen Unterschied sehen.
Pixeldichte bei QHD: 587 / in; bei FHD: 441 / in

Das Auflösungsvermögen phi des Auges wird unter optimalen Bedingungen (z. B. sehr sehr hoher Kontrast, scharfe Konturen, optimale Belichtungsverhältnisse usw.) mit 1' das ist pi/10800 (2 mm effektive Linsenöffnung und Rayleigh-Kriterium) angegeben. Der Richtwert für den minimalen angenehmen Leseabstand d ist 25 cm (wird z. B. in der Optik benutz um Vergrößerungen von Geräten zu berechnen).
Alles jetzt mal eingesetzt in eine Gleichung die die übrige Seite in einem gleichschenkligen Dreieck beschreibt ist dann der Abstand, bei dem dein Auge, unter optimalen Verhältnissen zwei Punkte unterscheiden kann. Ein Zoll, nämlich 2,54 cm, geteilt durch dies, ergibt dann die vom Auge auflösbare Pixeldichte auf 25 cm unter optimalen Bedingungen nach dem Rayleigh-Kriterium.

in / sqrt( 2 * d^2 * ( 1-cos( phi ) ) ) =0,0254 m / sqrt( 2 * (0,25 m)^2 - cos( pi / 10800 ) ) ) = 349 / in

Und selbst bei 6in hat man eine Pixeldichte von 367 / in.
 
Zuletzt bearbeitet:
Diese Rechnung ist irrelevant. Es geht nicht darum, zwei Punkte voneinander zu unterscheiden.
 
Natürlich, genau darum geht es, da aufgrund von Beugungseffekten des Lichts die Punkte sonst ineinander verschwimmen (Rayleigh-Kriterium). Das Licht ist ja kein Strahl, sondern eine Welle und das spielt beim Auflösungsvermögen des Auges eine Rolle. Das heißt, selbst wenn die Konturen eigentlich schärfer werde, nützt das nichts, da das Licht immer gleich durch Beugungseffekte „ausfranst“.
 
Zuletzt bearbeitet:
HardRockDude schrieb:
Diese Rechnung ist irrelevant. Es geht nicht darum, zwei Punkte voneinander zu unterscheiden.
Eben, denn bei schwächeren Abstufungen (z.B. Bilder) nimmt das Auflösungsvermögen noch weiter ab.
Manche möchten eben die physiologischen Einschränkungen nicht wahrhaben (einige Spieler hier sind ja auch der Meinung, dass sie die Facetten-Augen von Fliegen haben und auch noch zwischen 70 und mehr Hertz unterscheiden können).
 
Endlich hört man auch mal von einem Smartphonehersteller genau das, was ich auch schon immer gedacht habe. Wobei die Aussage etwas unglücklich formuliert ist. Er sollte lieber auf die Pixeldichte eingehen oder als Beispiel ein 5 Zoll Display mit FullHD und 2.560 × 1.440 Nehmen. Denn bei einem z.B 4 Zoll Display würden sogar schon für die meisten Menschen 720p reichen.

Im Endeffekt habe ich nichts gegen höhere Pixeldichten, aber nur dann, wenn dadurch nicht die allgemeine Laufzeit verschlechtert wird. Bedeutet also, wenn die Akkutechnik und Displaytechnik so weit ist, das ich damit z.B 1 Tag länger auskomme als heute, nehme ich die höhere Pixeldichte gerne mit.
 
Zuletzt bearbeitet:
@SB94
Vorsicht. Licht hat sowohl Wellen- als auch Strahleneigenschaften.

Das Licht beugt sich nicht einfach so, sondern erst bzw. nur dann, wenn es auf Hindernisse trifft - und die müssen kleiner oder gleich der Wellenlänge des Lichts sein. Das Licht wird sich also durch Luftmoleküle beugen. Deswegen dürfte das kein Grund gegen eine höhere Pixeldichte und damit der Effekt hier zu vernachlässigen sein, weil er natürlich ist. Es ist ebenso natürlich, das Lichtwellen miteinander interferieren.

Es spielt auch keine Rolle, ob das Bild nun "schärfer" als vollscharf wird. Was jetzt interessiert ist Kontrast, Leuchtdichte, Brillianz, Dynamik.

Wie gesagt, es kommt denke ich nicht darauf an, zwei Punkte voneinander unterscheiden zu können. Wenn vier Punkte einen weißen Punkt erzeugen sollen, dann erzeugen diese vier ihn souveräner als einer :) insofern kann das "Verschwimmen" der Pixel bis zu einem gewissen Grad sogar gewollt sein. Man denke dabei an die drei RGB-Pixel des Fernsehers für einen Bildpunkt.
 
Zuletzt bearbeitet:
Wie gesagt, es kommt denke ich nicht darauf an, zwei Punkte voneinander unterscheiden zu können. Wenn vier Punkte einen weißen Punkt erzeugen sollen, dann erzeugen diese vier ihn souveräner als einer insofern kann das "Verschwimmen" der Pixel bis zu einem gewissen Grad sogar gewollt sein.
Punkt = quadratisches Pixel?
Warum sollte eine einheitliche Form der Darstellung bestehend aus 4 nicht unterscheidbaren Einzelbestandteilen unterlegen sein?
Sollte man zwischen den Einzelbestandteilen unterscheiden können, ist die einheitliche Form überlegen, kann man nicht zwischen diesen unterscheiden, gibt es keinen Unterschied.
 
Hast Recht, habe mich mit da Begriffen verhaspelt. Ich versuch's mit dem Beispiel mal so:

Zwei nicht unterscheidbare Punkte, erzeugt durch jeweils vier Pixel. Und weil sie nicht unterscheidbar sind, wirken die beiden wie ein Punkt. Schließlich: ein Punkt, im Endeffekt erzeugt durch 8 Pixel, die alle miteinander verschwommen sind.

Das sind jetzt natürlich völlig aus der Luft gegriffene Daten, aber es wäre trotzdem interessant zu sehen, ob/wie sich QHD bei der Größe nun von FullHD abheben kann.
 
Zuletzt bearbeitet:
Die Oculus Rift könnte von der hohen Auflösung profitieren, also Unsinn sind die Displays nicht. Aber jedem das seine...
 
Licht hat nur Strahleneigenschaften, wenn man die Welleneigenschaften vernachlässigt. Kurz, das Licht als Strahlen zu beschreiben (geometrische Optik) ist eine Vereinfachung. Alle Phänomene der geometrischen Optik lassen sich durch die Welleneigenschaften erklären.

Beugungen treten nach dem Huygensschen Prinzip an jedem Hindernis auf, unabhängig von der Größe der Öffnung oder des Hindernisses. Das gebeugte Licht besteht aus quasi unendlich vielen einzelnen Wellen (Elementarwellen), welche miteinander interferieren. Das führt zu einem Typischen Beugungsmuster. Je Größer die Öffnung, desto näher Rücken die Maxima zusammen und werden so natürlich auch schwerer differenzierbar. Zudem nimmt bei zunehmender Breite auch die Intensität der Maxima ab, da es mehr destruktive Interferenz gibt (als Beispiel Beugung am Einzelspalt angucken). Deshalb sieht man auch keine Beugungseffekte bei großen Spalten oder Löchern, einfach weil sie bei den Maxima, welche nicht im Kegel der Lichtquelle liegen deutlich zu wenig Intensität haben um wahrgenommen zu werden.

Im Auge haben wir aber ganz andere Größenordnungen, als z. B. im Physikunterricht, wo ein Laserpointer oder eine LED mit einem Spalt, Loch oder Gitter ein Beugungsmuster auf eine ein Meter weit entfernte Wand wirft. Dort ist es wichtig, dass die Maxima weit auseinander liegen und eine hohe Intensität haben, damit man sie erkennen kann.

Im Auge ist eine Winkelminute 1°/60 (erstes Minima bei einer Öffnung von ~2 mm (Iris) und einer Lichtwellenlänge von ~500 nm) auf der Netzhaut wahrnehmbar und liegt, aufgrund des im vergleich zur Länge des Augapfels sehr viel größeren Abstandes der Lichtquelle auch nicht im Kegel dieser, da das Licht idealisiert parallel auf die Linse trift und von dieser sogar noch gebündelt wird. Zudem sind uns alle anderen Maxima als das Hauptmaximum egal und uns Interessiert auch nur das erste Minimum.

Btw. Im Auge limitiert evolutorisch die Öffnung des Auges in Kombination mit der Linse und nicht die Netzhaut. Die Netzhaut hat sich den Gegebenheiten angepasst, da eine höhere Komplexität mangels Nutzen nicht nötig war.

Deswegen dürfte das kein Grund gegen eine höhere Pixeldichte und damit der Effekt hier zu vernachlässigen sein, weil er natürlich ist. Es ist ebenso natürlich, das Lichtwellen miteinander interferieren.
Also du sagst grade „Wir können zwar nicht mehr sehen, da die natürlichen Gegebenheiten dafür sorgen. Aber genau deshalb machen wir etwas das uns unwesentlich mehr bringt [deine Meinung; ich sage es bring nicht und hab das Physikalisch begründet] auf kosten von objektiven Vorteilen die wir sonst hätten“?
 
Zuletzt bearbeitet:
SB94 schrieb:
Also du sagst grade „Wir können zwar nicht mehr sehen, da die natürlichen Gegebenheiten dafür sorgen. Aber genau deshalb machen wir etwas das uns unwesentlich mehr bringt [deine Meinung; ich sage es bring nicht und hab das Physikalisch begründet] auf kosten von objektiven Vorteilen die wir sonst hätten“?

Nein, das sag ich nicht. Es geht mir um die komplette Bildwiedergabe und nicht darum, ob ich mehr Details sehe. Du sagst ungefähr: "FullHD auf 5" ist das Maximale, was unser Auge auflösen kann - mehr bringt nichts." Ok, klingt plausibel, das kauf ich Dir ab, hast es wunderbar physikalisch begründet (danke für die Mühe übrigens). Aber: was weiß ich wieviele Tausende Pixel miteinander interferieren müssen, um den tatsächlich realen Farbwert/Helligkeitswert/... korrekt wiedergeben zu können. Ich stelle mir die Mischung eines erkennbaren Punkts aus mehreren echten Pixeln realer vor als nur einen Pixel für eine berechnete Mischfarbe. Vielleicht ist das ein Trugschluss, vielleicht auch nicht. Das ist alles, was ich sag.

(Wobei Farbe/Helligkeit/... gewissermaßen auch Details sind.)
 
Zuletzt bearbeitet:
Das was du meinst sind Subpixel und werden nicht in die normale Auflösung reingezählt. ;)
 
Jaaaaaaaa neeeeeeeeeeeee. :D
Inzwischen ist wohl klar, dass das Auge anscheinend nicht mehr Details wahrnimmt, wenn man bei 5" auf QHD wechselt. Ich glaube aber trotzdem daran, dass dies der kompletten Bildwiedergabe behilflich ist: wir nehmen dann nämlich das Plus an Interferenzen wahr. Das kann uns keiner nehmen ;)
 
Selbst Full-HD halte ich für "Overkill" bei 5 Zoll und weniger, HD reicht voll aus.
 
HardRockDude schrieb:
Jaaaaaaaa neeeeeeeeeeeee. :D
Inzwischen ist wohl klar, dass das Auge anscheinend nicht mehr Details wahrnimmt, wenn man bei 5" auf QHD wechselt. Ich glaube aber trotzdem daran, dass dies der kompletten Bildwiedergabe behilflich ist: wir nehmen dann nämlich das Plus an Interferenzen wahr. Das kann uns keiner nehmen ;)

Jep, deswegen konnte sich die Tageszeitung mit Ihren ~150dpi auch nie wirklich durchsetzen. ;)
 
HardRockDude schrieb:
Ich glaube aber trotzdem daran, dass dies der kompletten Bildwiedergabe behilflich ist: wir nehmen dann nämlich das Plus an Interferenzen wahr. Das kann uns keiner nehmen ;)
Das geht jetzt schon eher in Richtung Esoterik und weniger Richtung praktische Relevanz (genauso wie deine Meinung über die Relevanz von 30 kHz):
Wenn ich etwas schon nicht wahrnehmen kann, dann weise ich dieser Komponente zumindest einen so starken (nicht nachgewiesenen) Einfluss auf den wahrnehmbaren Bereich zu, damit ich die (angebliche) Relevanz doch noch rechtfertigen kann.
 
Naja, alles hat seine Relevanz. Wer Perfektion verfolgt, muss die "Details" auch beachten.
 
hZti schrieb:
Ich weis nicht ob das iPhone 5c sowas hat, aber es lädt seht schnell mit trotzdem hoher Kapazität d.h. kann die Funktion auch sehr praktisch sein.

1. Hat es keine hohe Kapazität, sondern nur 1.510 mAh. Das ist ein Witz im Vergleich zum G2 (3.000 mAh).
Die eventuellen langen Laufzeiten sind durch das winzige Display zu erklären.

2. Lädt es nicht besonders schnell, sondern hat eben nicht viel zu laden (1500mAh).
3. Spricht der CEO hier von Schnellladeverfahren, die den Akku von 0 auf 100% in 30-60 Sekunden bringen. Das Iphone schafft das vielleicht in 30-60 Minuten, wenn überhaupt...
 
Zurück
Oben