News Apple: Große Veränderungen für Kameras unter iOS 10

xenon-seven schrieb:
Raw sind einfach nur die Rohdaten, die die Kamera produziert. Um daraus letztlich ein Bild zu machen, müssen diese Daten entsprechend aufbereitet werden, also in ein Bildformat. Sehe nicht, was hier nun besonderes sein soll. Diese Daten produziert jede Digitalkamera.

!?
Raw ist ein Bild. Genauso wie jpg, gif...
Alle sind nur etwas unterschiedlich.

Ich fotografiere mir meiner DSLR seit Jahren raw, aber ich wandel direkt in jpg um. Nur wenn da etwas nicht stimmt, greife ich auf raw zurück. Und das ist extrem selten.
 
Raw ist kein Bild, es sind die unkomprimierten und absolut unverfälschten Daten des Bildsensors. Wie gesagt produziert jede Kamera logischerweise diese Daten. Allerdings werden diese Daten nach Erstellung des eigentlichen Bildes (meist jpeg oder png, ggf. auch tiff) bei normalen Consumercams allein schon aus Platzgründen wieder gelöscht. Im Profibereich sieht das natürlich anders aus, da man mit eventuell besserer Software aus diesen Daten bessere Bilder produzieren kann, als das vielleicht die Kamera tut. Bei Smartphones ist es eher Platzverschwendung.
 
xenon-seven schrieb:
Raw sind einfach nur die Rohdaten, die die Kamera produziert. Um daraus letztlich ein Bild zu machen, müssen diese Daten entsprechend aufbereitet werden, also in ein Bildformat. Sehe nicht, was hier nun besonderes sein soll. Diese Daten produziert jede Digitalkamera.
Ja, aber lange nicht jede Kamera gibt die Daten in dieser Form an den User weiter, damit der die Aufbereitung nach seinem Gusto vornehmen kann. Die meisten Kameras hauen mit mehr oder weniger guten Jpeg Settings auf die Rohdaten und verlieren einen Teil der Bildinformationen.


timo82 schrieb:
!?
Raw ist ein Bild. Genauso wie jpg, gif...
Alle sind nur etwas unterschiedlich.

Nein. Ein RAW sind tatsächlich nur die Rohdaten, für die Darstellung als Bild müssen sie immer in ein Jpeg o.ä. umgewandelt werden - selbst wenn Photoshop, Lightroom und andere das "on the fly" machen, um dir ein Bild anzeigen zu können. Schließlich ist beim RAW nichtmal der Weißabgleich gesetzt, und das ist eine der Sachen, die passieren müssen, bevor man dir ein Bild auf den Bildschirm packen kann.
 
Unter Videos, ist ja (oft) kein "einzelnes" (stehendes) Bild.:evillol:

Natürlich kommt es dort hin, wo auch andere Bilder gelagert werden.
 
Geistreicher Kommentar paunaro ! Man erkennt sofort dein Alter und welches Handy du benutzt. ;)

Den RAW Modus wird eh kaum jemand brauchen. 2 Linsen wären da wohl doch angebrachter wie die RAW Spielerei.
 
yast schrieb:
Ich sehe den Unterschied an Kanten oder Rundungen mit hohem Kontrast (Zahlen, Buchstaben) eben doch und das sogar noch bei 423ppi. Bei den kleineren iPhones mit 326ppi ist das noch eindeutiger.

edit: gerade noch mal ein Nexus 4 rausgekramt (ca. 320ppi) und der Unterschied ist sofort offensichtlich. Die Kanten der Zahlen von der Uhr auf dem Lockscreen sind einfach unscharf. Genauso kleine Schrift die schlechter lesbar ist, bei gleicher Größe auf dem Bildschrim...

Sorry, du brauchst kein höher auflösendes display sondern einen Psychologen :freak:
Wenn es noch keine Krankheit gibt bei der man glaubt alles unscharf zu sehen was nicht ins eigene Weltbild passt dann könnte sie nach dir benannt werden. Good luck.
 
Welche ppi meinst du noch erkennen zu können und welche nicht mehr?
Eine halbe Bogenminute bei einem halben Meter ergeben 350 ppi.
https://de.wikipedia.org/wiki/Auflösungsvermögen
Bei 30 cm entsprechend mehr ppi. Bei hohem Kontrast, Linien und Gittern schafft das Auge 0,2 Bogenminuten.
Welche ppi meinst du noch erkennen zu können und welche nicht mehr?
 
wahlmeister schrieb:
Sorry, du brauchst kein höher auflösendes display sondern einen Psychologen :freak:
du brauchst wohl eine Leiter der Tellerrand scheint zu hoch für dich.

http://wolfcrow.com/blog/notes-by-dr-optoglass-the-resolution-of-the-human-eye/


Wilhelm14 schrieb:
Welche ppi meinst du noch erkennen zu können und welche nicht mehr?
Eine halbe Bogenminute bei einem halben Meter ergeben 350 ppi.
https://de.wikipedia.org/wiki/Auflösungsvermögen
Bei 30 cm entsprechend mehr ppi. Bei hohem Kontrast, Linien und Gittern schafft das Auge 0,2 Bogenminuten.
Welche ppi meinst du noch erkennen zu können und welche nicht mehr?
Im Alltag ist wohl meine Grenze irgendwo zwischen 400 und 500ppi, wobei auch schon bei 423 bis auf Grenzfälle (kleiner Text) alles sauber erscheint.
Bei den erwähnten Linien mit hohem Kontrast erkenne ich eine 1 Pixel Linie auf einem 423ppi Display noch bei min. 3 Metern (Raum war zu Ende :king:, wobei es schon nahe der Grenze war).
 
yast schrieb:
Im Alltag ist wohl meine Grenze irgendwo zwischen 400 und 500ppi...
Bei den erwähnten Linien mit hohem Kontrast...
Die Frage war eher an wahlmeister gerichtet. Er spricht ab bei einer erklärten Erkennbarkeit einer bestimmten ppi von einer psychischen Krankheit. Ich frage mich, bei welcher ppi er die Grenze zieht.

Zum Kontrast. Ja, da kann man teilweise noch viel mehr Unterschiede erkennen. Vielleicht nicht wirklich die einzelnen Pixel, dafür ändert sich der Gesamteindruck eines Bildes auf dem Display. Es spielt unter anderem nicht nur die ppi, sondern auch die Größe der Pixel und somit deren Abstand untereinander eine Rolle. Am besten wären die Pixel so groß, dass sie sich "berühren" und zwischen ihnen kein Abstand herrscht. Bei manchen Displays macht sich der Bereich zwischen den Pixeln als eine Art Fliegengitter bemerkbar. Sehr ausgeprägt ist es bei Projektoren zu erkennen. Auf einer großen Leinwand sind die ppi natürlich sehr gering und daher ist es gut zu erkennen.
https://www.google.de/search?q=fliegengitter+beamer&tbm=isch

Auch wenn ich bei einem Nexus 4 mit ~350 ppi fast schon nicht mehr die Pixel erkennen kann, sehe ich Probleme nur bei sehr sehr kleiner Schrift. Beispielsweise beim Computerbase-Forum, wenn man es in der Desktop-Version betrachtet und dabei voll raus zoomt. Allerdings ist die Schrift dann (für mich) zu klein um komfortabel lesen zu können. Mir fällt auf, die Pixel erkenne ich auf der CB-Seite, wenn ich die Helligkeit voll aufdrehe und das Hamburger-Menü aufklappe, sodass man fast vollflächig das CB-Blau hat. Weitere Extrembeispiele wären vollflächig Grau, wie in manchen Display Test-Apps.

Vindoriel schrieb:
Don't feed the Troll...
Welche ppi meinst du noch erkennen zu können und welche nicht mehr?
 
Es geht doch nicht darum ob das menschliche Auge noch einen schwarzen Pixel auf einem weissen Hintergrund in 3m Entfernung erkennen kann. Es geht darum ob man einzelne Pixel auf dem Display erkennt bei normaler Schrift, Symbolen und Bildern. Und genau das ist nicht der Fall. Es ist unmöglich.
Ich erkenne auf keinem Retina Display mehr irgendwelche Pixel. Also ab~260ppi. Apple hat diese Auflösung bewusst gewählt.
 
wahlmeister schrieb:
Ich erkenne auf keinem Retina Display mehr irgendwelche Pixel. Also ab~260ppi.
Apple hat mit dem iPhone 4 326 ppi eingeführt und der Computerbase Test selbst sagt dazu:
Mit 326 Pixel je Zoll sind nach Angaben des Unternehmens keine einzelnen Pixel zu erkennen. Aus etwa 40 cm Entfernung und je nach Sehstärke mag das stimmen, bei näherem Hinsehen erkennt man aber sehr wohl, dass es wirklich Pixel sind, die das Bild zu einem Ganzen zusammensetzen.
https://www.computerbase.de/2010-07/test-apple-iphone-4/5/

Beim iPhone 6/6s Plus ist man schon bei 401 ppi angelangt. Du solltest 260 ppi für deine persönliche obere Grenze halten und davon ausgehen, dass es Menschen gibt, die doch besser als du (oder auch ich) gucken können.
 
Da ich das iPhone 6s plus auch hatte kann ich bestätigen dass man die einzelnen Pixel erkennt, besonders bei den Symbolen. Die erkennt man aber nur wenn man dicht rangeht. Jetzt hab ich das Galaxy s7, die höhere Auflösung habe ich sofort gesehen, hier kann man noch so gute Augen haben, Pixel erkennst du keine.
 
Zuletzt bearbeitet:
Zurück
Oben