Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsCardboard Camera für iOS: Virtual-Reality-Panoramen mit dem iPhone aufnehmen
Google hat die für Android schon seit längerem erhältliche App Cardboard Camera auch für iOS veröffentlicht. Cardboard Camera ermöglicht es Nutzern, 360-Grad-Panoramaaufnahmen in 3D zu erstellen und mit Googles Cardboard-Brille als Virtual-Reality-Foto zu betrachten.
Nur, dass man mit der lächerlichen Displayauflösung bei den iphones mehr fliegengitter sieht als Bildinhalt. Ich habe so eine Cardboard-ähnliche Brille mit dem iphone 6 getestet, welches die gleiche auflösung wie 7 hat und bei der PPI kann man nicht wirklich VR Inhalte geniessen.
Deshalb wirds dieses Jahr ein Gerät mit einem OLED Display und einer 1440p Auflösung werden (oder vllt. sogar 4k- kommt drauf an ob Samsung da schon was entwickelt hat).
Sobald Apple ebenfalls ein OLED Display verbaut mit mind. 1440p beim 4.7 zoll Iphone- dann wird wieder zurückgewechselt.
In sachen VR sind die iphones aktuell leider sogut wie unbrauchbar. Zwar sind die displays für die normale benutzung sehr gut, aber bei VR Inhalten ist die heutzutage eher durchshnittliche Auflösung ein riesen "Flaschenhals".
Ich kann mich 8-BaLL nur anschließen: die Auflösung des iPhone ist einfach viel zu gering für VR-Erfahrungen.
Die Kamera mag zwar ganz gut sein, nur sieht man ja selbst bei deutlich mehr Pixeln deutlich ein Fliegengitter, wie wird da erst das iPhone aussehen...?
Irgendwie verstehe ich das nicht. Wie wird den daraus ein 3D-Bild für VR? Wird das simuliert wie es auch 3D Fernseher können. Den ich kann mir nicht vorstellen, dass mit einem Objektiv nur durch die leichte Drehung und dadurch minimal anderen Blickwinkel die Software und Hardware daraus ein wirkliches 3D Bild erstellen können.
Das geht z.B. indem man erst die Bilder "ausrichtet" (rektifiziert) und dann die Disparitäten von jedem Pixel zweier Aufnahmen gegeneinander vergleicht. Gegenstände, die sich nah an der Kamera befinden, werden sich in den zwei Bildern an deutlich anderen Positionen befinden als Gegenstände am Horizont, deren relative Position im Bild sich kaum bis gar nicht verändert. Ist vergleichbar mit dem Blick aus dem Auto- oder Zugfenster: Bäume direkt am Rand der Fahrbahn rasen vorbei, während sich weit entfernte Häuser o.ä. kaum bewegen. Über diese Verschiebung (Disparität), die man aus dem Vergleich zweier Fotos aus leicht unterschiedlichen Perspektiven gewinnt, kann man dann auch umgekehrt die Tiefe des Objekts im Bild (sprich: die Entfernung von der Kamera) bestimmen.
Ein kleiner räumlicher Versatz der Kamera zwischen den Aufnahmen reicht dafür schon aus und das ist mit der Drehung um die eigene Achse mit Kamera in der Hand ja gegeben. Würde man das Telefon wirklich exakt um den Mittelpunkt der Kamera rotieren, würde das nicht funktionieren (glaube ich. Kann's jemand testen? )
Ein anderer Ansatz ist optical flow, was auch in facebooks Surround 360 Projekt verwendet wird. Sieht dann so aus: