News Keine Vorteile bei Full HD-Displays in Smartphones

Ecki815 schrieb:
Wozu brauch ich den überhaupt ein Bildschirm beim Handy bzw Smarphone der größer als 3,5 Zoll ist?
Ich hab n Handy zum Telefonieren, wenn ich damit bei Facebook schreiben wollte oder im Internet surfen will kauf ich mir n 7" Tablet.

Ich will mein nächstes Smartphone optional als Kompakt-Kamera-Ersatz nutzen können, weshalb ich im Moment ein Auge auf Nokia halte...

Das Pureview 808 ist schön, aber zwei Sachen stören mich:
- ich hätt's lieber auf win 8 Basis
- Etwas mehr als 600x360 Pixel dürfen es schon sein, 720p klingt gut weil dann kann man die Bilder schon gut vorsortieren


Full-HD auf Smartphones brauch ich allerdings auch nicht, da fällt mir wichtigeres ein.
Wer war es nochmal, der zu einer Revolution der Akku-Technik aufgerufen hat? *Vollunterstützung*
 
Gibt ja auch Leute die das Haar in der Suppe übersehen - Guten Appetit.
Ein Haar hat einfach eine zu hohe Pipi (>229)!

Wie kommt man nur auf 229? Pi hoch 5 div durch Wurzel aus 2?
 
Seiner Meinung nach machen hochauflösende Displays in dieser Baugröße keinen Sinn, da die Retina des menschlichen Auges bei einem üblichen Abstand der Benutzung nicht in der Lage ist, diese feinere Auflösung zu erkennen – spätestens bei 229dpi wäre hier das Ende des Möglichen erreicht, denn dieser Wert stellt die Grenze der wahrnehmbaren Schärfe eines menschlichen Auges dar.

wurde von anderen Wissenschaftlern längst für falsch erklärt. Nämlich als Apple dies damals mit dem "Retina"-Display des iphone 4 behauptet hat. Der "übliche Abstand der Benutzung" ist sowieso völlig beliebig gewählt.

Das HD-Display eines Galaxy Nexus ist wirklich was ganz anderes als die 800x400 eines ähnlich großen SII. Ich würde mir noch höhere Auflösungen wünschen.

Erschreckend wie viele Leute nicht logisch nachdenken können. Es gibt eine physiologische Grenze von dem was das Auge wahrnehmen kann. Du kannst die Auflösung auch ins unendliche schrauben, das wird nichts (!) bringen.

die Grenze ist aber noch lange nicht erreicht.
 
Zuletzt bearbeitet:
welch eine erkenntnis.

natürlich ist fullHD auf 4" quark (guckt sich wirklich jemand hd-filme auf dem handy an?! kauft jemand den kindle fire hd wegen den DOLBY-lautsprechern?!). aber solange sichs verkauft, warum soll mans nicht machen? so kann man auch unsinnige dinge als neuheit verkaufen und hat gleich wieder ein paar "0,1-sone-hörer", "handystrahlungsspürer" und erdstrahlenfetischisten mehr als kunden.

wenn der markt gesättigt ist, muss alles herhalten. solange es richtig dargestellt wird, glaubt der durchschnittlich intelligente kunde das auch und kauft sich eben alle 3 monate ein neues spielzeug, egal ob der vor 2 monaten gekaufte highend-prozzi gegen ein neues, stromsparenderes modell getauscht wird (bei 5W ersparnis hat man die mehrkosten in 5 jahren ja raus!), ein neues auto gekauft wird, weils 2l auf 100 km weniger verbraucht (wieviele km muss ich fahren, damit ich die 20k euro kaufpreis wieder raushabe und anfange zu sparen? 400.000? 4.000.000?) oder die solardachfetischisten, die sich für 20k euro (kreditfinanziert!) photovoltaikanlagen afs dach packen und im jahr dann 500€ sparen was bedeutet, dass sie nach 40 Jahren (ohne zinsberücksichtigung durch den kredit) in die pluszone kommen.

leute sind doof. leute kaufen, weil sie gesagt bekommen, dass sie es müssen/brauchen/wollen. die breite masse hat keinen eigenen willen bzw. setzt der aus, wenn sie sehen, dass andere etwas haben was sie nicht besitzen. oder wenn sie sehen, was sie alles haben könnten. oder wenn sie einfach glauben, was überall propagiert wird ohne ihr bisschen hirn einzuschalten.

niemand (!!) verschenkt was, jeder will verdienen. und ja, dafür werden auch unsinnige oder überflüssige dinge hergestellt und verkauft. dafür gibts ja die werbung. wenn man was wirklich _braucht_ muss es nicht beworben werden. eigentlich ganz einfach, aber die klientel ist schon so eingelullt, dass sie lieber den marketingstrategen ("wir brauchen 4k auf 4"! auf den jetzigen displays kann man ja die einzelnen pixel sehen, wenn man mit ner lupe in 1cm abstand gena hinguckt!!!") alles blind glauben und dümmlich nachplappern, anstatt ihren eigenen rest verstand zu gebrauchen.

davon lebt unsere wirtschaft und somit unsere gesamte gesellschaft.

seien wir also der masse dankbar, dass sie jeden mist glaubt und brav jede "neuheit" kauft ohne nachzudenken - ohne sie ginge es uns nicht so gut und wir könnten uns gar nicht darüber aufregen, dass hier irgendjemand das offensichtliche feststellt :)
 
Bessere Displays sind immer gut. Schließlich sind sie das wichtigste Element eines Smartphones. Aber ähnlich wie im PC-Bereich nähern wir uns langsam dem "gut genug"-Stand.

Nur: Ich frage mich, warum man sich darüber einen Kopf machen muss?! 720p sehen gut aus, 1080p vielleicht besser. Was solls? Laßt die Hersteller doch experimentieren. Sie werden schon die Kombination aus Herstellungskosten und Qualitätsgewinn wählen, die am besten ankommt. Schließlich braucht ja keiner ein Handy mit Top-Display kaufen. Wenn das Display am Ende in der Herstellung nur einen Euro mehr kostet, dann ist mir das die schärferen Schriften wert. Wenn nicht, kaufe ich ein anderes. Ist ja nicht so als gäbs nicht 'zig verschiedene Geräte mit ganz unterschiedlichen Bildschirmgrößen und -auflösungen (iOS mal außen vorgelassen).

Aber 1080p Displays sind allein schon deswegen sinnvoll, weil schon bald alle Apps für diese Auflösung optimiert sein sollten. Schließlich steht mit (vermutet) Android 5, also nächstes Jahr, die hundertmillionenfache native Unterstützung von Mirecast auf dem Programm - und dann wird sich das Smartphone-Nutzungsverhalten extrem ausweiten. Und Tablets gibts ja schließlich auch noch.

Letztendlich ist 1080p halt "so ein Standard", eigentlich sogar aktuell "der Standard" den zu unterstützen viele Dinge drumherum einfacher macht. Ist noch nicht lange her, da hat man alle Websites noch für 800x600 Auflösungen optimiert, das war eben auch "der Standard".

Also Fazit: Sturm im Wasserglas. Aufregen werde ich mich erst, wenn die Qualität der Dinge schlechter wird.
 
Zuletzt bearbeitet:
ich mag CB schrieb:
das ist wieder so eine aussage wie der mensch kann mehr als 24fps nicht verarbeiten:D
Nein, in dem Fall gibt's tatsächlich ein definierbares Ende, das jeder für sich selbst herausfinden kann. Kurzsichtige Menschen können, wenn sie näher rangehen noch mehr DPI wahrnehmen, aber alles über der Pixeldichte des iPhones ist unnötig... Tatsache.

Dawzon schrieb:
Bei diesem Kommentar wird sich die "brauchen wir nicht, ist unnötig, mimimi" Fraktion besonders freuen. :freak:
Siehe oben. Technologischer Fortschritt und Einsatz sind zwei verschiedene Sachen.
Einsatz eines Full-HDs im <4,5"-Handy: nutzlos
Warum ist diese Technik trotzdem nützlich? Display-Brillen um ein Beispiel zu nennen. Beamer um ein anderes zu nennen. Dort braucht man abartig hohe DPI-Zahlen. Entsprechend teuer sind die Geräte.

Pixelmäßig ist man im Smartphone Bereich am Ende angekommen. Jetzt müssten die Dinger sonnenlicht-tauglich werden... das wäre ein viel größerer Fortschritt als Full-HD...

MfG, Thomas
 
Wer Red Dead Redemption gespielt hat, weiß,dass auch propagiert wurde: "Rauchen ist gesund!"

Da Spiele und auch deren Doktoren immer recht haben, wissen wir, dass das nahtlos auf die Realität übertragbar ist und es halt nun mal so ist, wie es ist.

Anders sieht es bei größeren Geräten, wie zum Beispiel Computer-Monitoren aus: Bei dieser Display-Größe und dem dazugehörigen Abstand kann eine höhere Auflösung durchaus auch optische Vorteile mit sich bringen, zudem hierbei eine größere Anzahl von Elementen auf dem Bildschirm platziert werden kann.

No s**t Sherlock. Dafür hat er bestimmt den Doktor-Titel bekommen.

Ich wünschte, der Mann hätte recht und etwas ähnliches könnte man auf UltraHD bei Fernsehern übertragen. Stellt euch das mal vor. Das menschliche Maximum erreicht, zu unseren Lebzeiten! Was wäre denn bitte die nächste Abstraktionsebene bei Displays (bei CPUs mehr Kerne)? 3D extravagant-Version als Ultra3D?

Nach den hier geposteten Vergleichen bei unterschiedlicher ppi und diversen Schriftzeichen, kann man schon sagen, ganz Sinnfrei ist der Fortschritt nicht, aber die Frage ist durchaus berechtigt: sehen nicht vlt auch schon 300 oder 400ppi aus wie 500? Sollte das wirklich mal komplett kippen, das mehr ppi nicht lohnen, kommen wir ja in die von mir erträumte Phase der Ressourcen Verschiebung. Was kommt danach?

Wäre schön wenn CB mehr aus der "Was kommt als nächstes" Ecke bringt, hab z.B. bei WinFuture (!) mal ein Video über alternativen zu 3D gesehen vom MIT, wo sie mehrere Screens gestapelt haben. Sah schon nach was aus.
 
also ich habe noch ein S2 mit 800x480 . aber mit rgb-amoled was dann die auflösung wieder relativiert.
kommt auch auf die technologie bzw. anordnung von pixeln(sub) an. das S2 ist ein gutes beispiel das man es nicht unbedingt braucht.

ist aber alles wieder subjektives empfinden, und schön ist`s wenn man eins hat ala`Note2 oder IP5 .
oder ?

man sagte mal - 3 diagonale = abstand

4,x zoll jenseits von 300 ppi ...


das note2 display ist schon eine wucht, wobei die wucht nicht durch pixel/inch kommt.
 
Zuletzt bearbeitet:
DarkDragN schrieb:
Ich wünschte, der Mann hätte recht und etwas ähnliches könnte man auf UltraHD bei Fernsehern übertragen. Stellt euch das mal vor. Das menschliche Maximum erreicht, zu unseren Lebzeiten!

Dafür braucht es nicht einmal 4k, das kann man meistens schon über FullHD sagen ;)
Siehe auch den UltraHD-Thread.

Zum weiteren nachlesen:
http://reviews.cnet.com/8301-33199_7-57366319-221/why-4k-tvs-are-stupid/
http://reviews.cnet.com/8301-33199_7-57491766-221/why-4k-tvs-are-stupid-still/

Aber nur weil es nicht sinnvoll ist, werden die Ressourcen wie von dir erträumt nicht verschoben. Nach 4k wird 8k kommen, so sicher wie das Amen in der Kirchen. Und wieder werden es Leute kaufen.
 
paul1508 schrieb:
Solche Aussagen werden meistens ohne Rücksicht auf asiatische Schriftzeichen getroffen.
Hier ein Beispiel zu asiatischen Schriftzeichen:

http://techcrunch.com/2011/10/20/toshiba-shows-mobile-lcd-with-2560-×-1600-resolution-and-498ppi/

Bei dem Vergleich ist aber bei 244 ppi gründlich was schiefgelaufen (evtl. durch Skalierung?). Schau dir nur mal das letzte Zeichen an. Die vertikalen Striche müssten gleich dick sein und eine Linie bilden, das tun sie bei 498ppi und bei 132ppi aber nicht bei 244ppi, da stimmt was nicht. 244ppi sieht dort viel schlechter aus, als es in Realität wäre.
 
Four schrieb:
Und was ist für ihn der übliche Abstand? 30cm, 40cm?
Wenn ich im Bett liege habe ich das Display manchmal auch 15cm vor mir und da dürfte es schon einen wahrnehmbaren unterschied geben.
Also 15cm ist kein normaler Betrachtungsabstand. Ein zur Zeit übliches Display in der (Smartphone) HighEnd Klasse ist aktuell ca. 4.6 - 4.7" groß. Ich habe es eben ausprobiert, aus 15cm kann man den Bildschirm nicht mehr als ganzes wahrnehmen und muss mit den Augen pendeln. Weiterhin habe ich selbst bei diesem geringen Abstand kein einzelnes Pixel wahrnehmen können, ich bin kein Brillenträger und habe 130% Sehkraft, jedenfalls laut Optiker. Mein Testgerät ist ein OneX.

Ich sage es schon seit jeher das derart hohe Auflösungen völlig überflüssig sind, diese News bestätigt mich. Es verbraucht nur unnötig viel Energie ohne wirklichen Mehrwert. Aber gut wenn es sonst an Innovationen Mangelt muss man eben die Zahlen auf dem Papier erhöhen, es finden sich ja auch genug (Idioten) denen das offensichtlich so wichtig ist.

Es gibt klare Vorschriften für Bildschirmarbeitsplätze und Faustformeln für den optimalen Betrachtungsabstand, die Werte die dabei errechnet oder vorgegeben werden könnte man wohl als optimal bezeichnen.
 
dgschrei schrieb:
@ich mag CB
In diesem Falle nein. Während die Menge an Bildern pro Sekunde die das menschliche Auge verarbeiten kann ein schwer zu messender weil ja nur durch Menschenversuch erarbeitbarer Wert ist, gibt es über die maximal durch das Auge wahrnembaren Details durchaus messbare Werte.
das ist mal gleich doppelt falsch:
1. die signalverarbeitungsgeschwindigkeit läßt sich direkt messen.
2. die detailauflösung dessen was der mensch wahrnimmt läßt sich nicht so genau messen wie du dir das vorstellst.

Die Grenze liegt dort im Zweifelsfall bei der Anzahl der im Auge vorhandenen Sinnezellen. Und die ist erschreckend niedrig. Eine richtig hohe Dichte dieser Sinnezellen liegt dann auch noch nur im sogenannten Gelben Fleck vor. Das ist nur ein ganz kleiner Teil deines Sichtfeldes in dem du maximale Sehschärfe hast.
auch das ist so falsch. an der stelle sind die farbzellendichte besonders hoch. für ein detailreiches sehen sind diese aber nicht so wichtig.

richtig ist, das an dem pfleck generell die hlchste dichte der rezeptoren ist. das es nur einen rel. kleinen teil deines sehfeldes ausmacht ist allerdings völlig irrelevant, da es der teil ist, den du direkt siehst und für den seher relevant ist beim betrachten von dingen.

Die Grenze von 300dpi, die man immer aus dem Druckbereich hört, zielt genau auf diesen Umstand ab.
das ist allerdings richtig. dennoch ist 300 dpi nicht zwangsläufig die grenze des wahrnehmbaren.

wahrnehmber ist nicht gleich die auflösung an der man gerade so nciht mehr pixel unterscheiden kann. genau so wenig sind 30fps die grenze des wahrnehmbaren bei bewegungen obwohl da bereits keine unterscheidung der frames möglich ist.

die unbewußte singalverarbeitung ist viel sensibler als unsere bewußte. wir "spühren" weit mehr unterschiede als wir sie direkt bewußt konkretisieren können. und das ist wiederum gar nciht so gut meßbar.
Ergänzung ()

Dr. MaRV schrieb:
Es gibt klare Vorschriften für Bildschirmarbeitsplätze und Faustformeln für den optimalen Betrachtungsabstand, die Werte die dabei errechnet oder vorgegeben werden könnte man wohl als optimal bezeichnen.

wenn es nach diesen "vorschriften" geganen wäre, dann hätte ich bei 100hz CRT Monitoren kein flimmern mehr hätte wahrnehmen dürfen. drei mal darfst du raten, wie zutreffend das war.
Ergänzung ()

HighTech-Freak schrieb:
Nein, in dem Fall gibt's tatsächlich ein definierbares Ende, das jeder für sich selbst herausfinden kann. Kurzsichtige Menschen können, wenn sie näher rangehen noch mehr DPI wahrnehmen, aber alles über der Pixeldichte des iPhones ist unnötig... Tatsache.
das gibt es für beides. und das ende ist subjektive im allgemeinen weit unter dem was wir biologisch tatsächlich wahrnehmen könnten.

davon abgesehen, wie ich oben schon schrieb, ging es NIEMALS um die behauptung der mensch könnte nicht mehr 24fps wahrnehmen, sondern dass ab 24fps es für den menschen als eine fließende bewegung wahrgenommen wird.

das wird nur gerne oft völlig falsch in solchen foren wiedergegeben. wie das meißte "wissen" hier.
 
Four schrieb:
Und was ist für ihn der übliche Abstand? 30cm, 40cm?
Wenn ich im Bett liege habe ich das Display manchmal auch 15cm vor mir und da dürfte es schon einen wahrnehmbaren unterschied geben.

@über mir
sehe ich genauso!
Sobald es über ca. 320ppi geht, kannst du keine Pixel mehr erkennen - egal wie nah. Da kannst du deine Nase aufs Display drücken.
Kann man an einem S3 / iP auch sehr schön ausprobieren, selbst wenn man so nah ran geht, dass das Auge nur noch so gerade scharf stellen kann ist es wie perfekt gedruckt.

@Topic:
Wie schön das mehr Leute zu dieser Einsicht kommen!
 
Zuletzt bearbeitet:
b3nn1 schrieb:
Ich sage immer: Ab 24FPS nimmt man keine Diashow mehr wahr, sondern einen Film (-> Animation aus einem Guss). Heißt noch lange nicht, dass wir nicht mehr als 24FPS sehen können.

korrekt. allerdings gibt es heir eine obere schranke. es gibt ein limit, ab dem wir keinen unterschied mehr sehen. dieses limit wird durch mehrere faktoren definiert, teilweise (wie die meisten dinge) sind diese leicht unterschiedlich von mensch zu mensch.
 
b3nn1 schrieb:
Hast du dazu vielleicht eine Quelle?

Mir ist zwar bewusst, dass das Auge sehr allergisch gegenüber Asynchronitäten reagiert, aber würde nicht sagen, dass der Mensch nur 24fps wahrnehmen kann. Beispielsweise laufen analoge Filme rein mechanisch (über einen Projektor) auf die Kinoleinwand. 24FPS~ und dennoch ist es ganz weit weg von flüssig. Bewegungsunschärfe macht es dann erträglich und ist für uns typisches Kinofeeling.

Ich sage immer: Ab 24FPS nimmt man keine Diashow mehr wahr, sondern einen Film (-> Animation aus einem Guss). Heißt noch lange nicht, dass wir nicht mehr als 24FPS sehen können.

Du kannst auch sagen 1440FPM (Frames Per Minute) und diese Teilen sich wie folgt ein:
59 Sekunden Standbild und 1 Sekunde mit 1440 Bildern. Na ruckelt es?

Die 24FPS sind zu ungenau.
Besser wäre: Wenn die Differenz zwischen zwei Bildern größer als 40 Millisekunden sind, wird es als Ruckeln interpretiert.

Daher auch die "Miniruckler" bei Verwendung von 2 Grafikkarten obwohl man in Summe weit über 30 FPS ist. Beide GraKa brauchen zum Berechnen 25 Millisekunden und geben es dann um 1er Millisekunde versetzt aus. Es wird angezeigt, das man 40 FPS hat und trotzdem ruckelt es, da es "in wirklichkeit" nur 20 FPS sind.

Mit dem Programm "FRAPS", kannst du die Zeit messen, in welchen Abständen die Bilder ausgegeben werden. Wenn du ein Spiel hast, welches mit 30 FPS ruckelt, kannst das mal mit FRAPS prüfen. Wette da sind einige Bilder über den 40 Millisekunden.
 
Dese schrieb:
wenn es nach diesen "vorschriften" geganen wäre, dann hätte ich bei 100hz CRT Monitoren kein flimmern mehr hätte wahrnehmen dürfen. drei mal darfst du raten, wie zutreffend das war.
Hast dabei frontal drauf gesehen oder daran vorbei geschielt. Das Flimmern bei 60 Hz war auch nur wirklich bewusst wahrnehmbar wenn man am Monitor vorbei gesehen hat. Mit Betrachten unter normalen Bedingungen hatte das aber nichts mehr zu tun. Außerdem war nicht jeder Bildschirm wirklich für 100HZ ausgelegt, das war immer abhängig von der dabei verwendeten Auflösung. Hat man nahe dem Monitorlimit operiert war es auch kein Wunder wenn es flimmerte.
 
Teiby1 schrieb:
Wenn die Differenz zwischen zwei Bildern größer als 40 Millisekunden sind, wird es als Ruckeln interpretiert.

Da gebe ich natürlich vollkommen recht. Fraps gibt auch immer min, max und avg aus - min gibt schon einen Tipp darauf, ob es Ruckler gab.

Wobei ich dennoch sagen würde, dass "60 konstante FPS" flüssiger sind als "24 konstante FPS", bezogen auf die Fähigkeit des Auges.
 
Kann aus dem Stehgreif nichtml sagen wie viel ppi mein Optimus 3D hat, selbst die Auflösung des Gerätes müsste ich erraten. Es reicht für mich alle mal.
 
Teiby1 schrieb:
Die 24FPS sind zu ungenau.
Besser wäre: Wenn die Differenz zwischen zwei Bildern größer als 40 Millisekunden sind, wird es als Ruckeln interpretiert.

Ruckeln ist doch wieder was anderes ;) Außerdem gibts dafür wohl nicht DIE EINE Definition. Ein "Video" kann auch nicht flüssig sein, ohne dass es ruckelt.

b3nn1 schrieb:
Wobei ich dennoch sagen würde, dass "60 konstante FPS" flüssiger sind als "24 konstante FPS", bezogen auf die Fähigkeit des Auges.

Is ja auch so, vor allem bei (schnellen Bewegungen und Schwenks):
http://boallen.com/fps-compare.html

http://frames-per-second.appspot.com/

http://www.dvxuser.com/V6/showthrea...arison-Shot-with-RED-Realtime-Not-slow-motion

Kein Wunder, dass im Kino auch daran gearbeitet wird ENDLICH von den 24P weg zu kommen. Jackson und Cameron drehen aktuell auch in 48P, haben aber gegen heftigen Widerstand zu kämpfen weil das "unflüssige" Bild sich als "Kinolook" etabliert hat. Der Mensch wurde ja auch schon seit zig. Jahren drauf trainert und is ja bekanntlich ein Gewohnheitstier.

@ Topic
Ach was! :p
Jetzt erzählt mir dann auch noch einer, dass mehr als 8MP bei einer Handykamera Blödsinn sind, oder dass Kompaktkameras mit 8-10 MP Sensoren (bei gleicher Größe) bessere Fotos machen würden als die aktuellen Geräte mit 16MP usw. :lol:
Und das alles nur wegen Werbung und Marketing....kann doch gar nicht sein *g*
 
Zuletzt bearbeitet:
@DvP

Sehr schöner Vergleich! Man sieht sogar, dass noch Luft nach oben ist, also machen 120Hz 2D Monitore schon Sinn!
 
Zurück
Oben