Apple iPhone 11 (Pro Max) im Test: Neue Triple- und Dual-Kamera
2/4Wo beim iPhone XR eine einzelne Kamera verbaut war, sind es jetzt zwei. Das iPhone 11 Pro (Max) kommt auf drei statt zwei Linsen. In beiden Fällen ist das neue Objektiv ein Ultraweitwinkel mit 13 mm Kleinbild-Äquivalent. Das Teleobjektiv mit 52 mm Kleinbild-Äquivalent gibt es nur für die beiden Pro-Modelle, das normale Weitwinkelobjektiv mit 26 mm Kleinbild-Äquivalent ist bei allen drei Smartphones baugleich.
Dass sich Apple beim günstigeren iPhone für das Ultraweitwinkelobjektiv als zweite Kamera entschieden hat, war die richtige Wahl. Denn aus gestalterischer Perspektive betrachtet, ergeben sich daraus mehr Optionen als über den zweifachen optischen Zoom. Der ist beim iPhone 11 Pro (Max) zwar weiterhin gelegentlich praktisch, das Ultraweitwinkelobjektiv sorgt aber für spektakulärere Motive und ist insbesondere dann hilfreich, wenn sich der Anwender nicht weiter vom Motiv entfernen kann, etwa in geschlossenen Räumen mit eingeschränktem Bewegungsradius.
Apples Kamera-App sieht mehr
Für das iPhone 11 und das iPhone 11 Pro hat der Hersteller die Kamera-App überarbeitet, um in gewissen Szenen sofort erkennbar zu machen, dass ein Ultraweitwinkelobjektiv zur Verfügung steht. Sobald die Kamera erkennt, dass es sich nicht um eine Nahaufnahme handelt, wird das Kamera-UI links und rechts des Suchers halb transparent dargestellt, um neben dem vom Weitwinkelobjektiv erfassten Bereich den des Ultraweitwinkelobjektivs anzuzeigen. Das funktioniert sowohl in der horizontalen als auch in der vertikalen Ansicht.
In den Einstellungen der Kamera, nicht aber in der Kamera-App selbst lässt sich zudem festlegen, ob bei Fotos und/oder Videos der Bereich außerhalb des dargestellten Rahmens aufgenommen werden soll. Ist das der Fall, speichert das iPhone neben dem Foto des Weitwinkels zusätzlich die Informationen des Ultraweitwinkels und behält diese für 30 Tage, bevor sie bei Nichtnutzung etwa für Bildkorrekturen gelöscht werden.
In der Fotos-App erscheinen nicht zwei separate Fotos, sondern nur eines, das in der Bildbearbeitung weitere Bildbereiche zum Vorschein bringt. Das ist vor allem dann praktisch, wenn Korrekturen am Foto vorgenommen werden müssen, etwa bei der Ausrichtung, der wichtige Details zum Opfer fallen würden. Soll zum Beispiel ein Foto horizontal ausgerichtet werden und würde dadurch am Rand eine Person abgeschnitten werden, kann dieser Bildbereich durch die Informationen des Ultraweitwinkels wieder in das Foto geholt werden. Das gleiche Prinzip lässt sich auf Videos anwenden.
Vermeintlich verhunzte Bilder retten
Was mit dem Ultraweitwinkel in Sachen Nachbearbeitung alles möglich ist, kommt am besten bei der Nutzung der Live-Photos-Funktion zum Vorschein, die vor und nach dem eigentlichen Foto 1,5 Sekunden Bewegtbild einfängt. Ist dann bei einem Bild etwas nicht wie geplant gelaufen und lässt sich dieses nicht einfach erneut schießen, kann unter Umständen die Auswahl eines neuen Schlüsselfotos im Live Photo mit anschließender Anpassung des Framings helfen. Die damit möglichen Anpassungen verdeutlicht ein Tweet des Nutzers Parker Gibbons. Als Anwender muss dafür nicht mehr gemacht werden, als wie bisher ein vermeintlich einzelnes Foto zu schießen.
Apple macht es dem Anwender durch solche Optionen vergleichsweise einfach, mehr aus den eigenen Fotos zu holen und ein vermeintlich verpatztes Bild zu retten. Rein auf die Kamera-Hardware bezogen, liefert Apple beim iPhone 11 und iPhone 11 Pro nämlich keine wirklichen Neuerungen ab, die Android-Nutzer nicht schon seit längerer Zeit kennen. Dort sind Triple-Kameras in der Mittelklasse angekommen und keine große Besonderheit mehr. Dass nun auch Apple solche Kameras anbietet, war überfällig.
iPhone 11 schießt stets die schöneren Fotos
Apples neue Dual- und Triple-Kamera liefern durch die Bank bessere Ergebnisse als das iPhone XS oder iPhone XR. Dass die Fotos der neuen Modelle der breiten Masse zu gefallen scheinen, hat sich zuletzt im Foto-Blindtest gezeigt, an dem auch die Modelle Samsung Galaxy S10 (Test), iPhone XS Max (Test), OnePlus 7T (Test), Huawei P30 Pro (Test) und Google Pixel 3 (Test) teilgenommen haben. Mit drei ersten, vier zweiten und zwei dritten Plätzen holte das iPhone 11 Pro Max knapp vor dem Galaxy S10 den Sieg. Das ein Jahr alte iPhone XS Max kam im Direktvergleich nur auf den letzten Platz.
Der Foto-Blindtest bezog sich einzig auf die Hauptkamera des Smartphones. Hier liefert Apple eine gut gelungene Symbiose aus Schärfe, korrekten Farben, Detailgrad und Belichtung. Auch mit unterschiedlichen Lichtbedingungen innerhalb einer Szene kommt das Smartphone gut zurecht, denn beide Bereiche erscheinen weder zu dunkel noch zu hell. Wird in einem vergleichsweise dunklen Raum Richtung Fenster fotografiert, hellt das iPhone 11 Pro Max die Szene nicht mehr so stark auf wie zu iPhone-XS-Zeiten. Das sorgt zwar dafür, dass im Innenbereich etwas weniger Details erkennbar sind, dafür aber im Außenbereich deutlich mehr. Beim iPhone XS war maximale Helligkeit hingegen die oberste Priorität. Die Geräte der Konkurrenz legen den Fokus in solchen Szenen vollständig auf den Außenbereich (sichtbar ab Bild 85 in der Galerie).
Im Direktvergleich mit Samsung sticht die natürlichere Darstellung von Apple hervor. Hier sind Wiesen nicht quietschgrün und der Himmel nicht wie mit blauem Filzstift gemalt. Dass äußerst kräftige Farben aber durchaus gut ankommen, hat der Foto-Blindtest ebenfalls gezeigt. Wer das von seinem Smartphone verlangt, ist bei Apple am falschen Ort. Auch beim Kontrast sind Geräte wie Googles Pixel 3 dominanter, hier wählt Apple ebenfalls einen etwas weniger dramatischen Look. Dadurch gehen manchmal etwas Plastizität und dreidimensionaler Effekt verloren, der sich durch die Nachbearbeitung aber nachträglich hinzufügen lässt.
Nachtmodus gibt Kontrolle an Apple ab
Sobald es dunkel wird, kommt Apples neuer Nachtmodus zum Einsatz. Anders als bei Google, Huawei oder Samsung handelt es sich nicht um einen eigenständigen Modus, auf den der Anwender jederzeit Zugriff hat. Der Nachtmodus wird automatisch aktiviert, sobald das Smartphone Lichtverhältnisse unterhalb von 10 Lux registriert. Dann wird er im oberen Bereich des Suchers als optionales Feature angeboten, das aktiviert werden kann, aber nicht muss. Erst wenn es noch dunkler ist, aktiviert sich der Nachtmodus automatisch. Wie lange eine Szene belichtet wird, hängt davon ab, wie dunkel es ist und wie still das Smartphone gehalten wird. Genau genommen führt Apple auch keine Belichtung entsprechend der in der Kamera-App angezeigten Zahl in Sekunden durch, sondern nur einen Effekt, der dieser Belichtungszeit entsprechen soll. Üblicherweise sind aus der Hand geschossen nicht mehr als 3 Sekunden möglich. An einen Gegenstand angelehnt, lassen sich dem iPhone manchmal bis zu 5 Sekunden entlocken. Mit Stativ und absoluter Finsternis sind bis zu 30 Sekunden möglich.
Bei Nacht schlägt das iPhone 11 (Pro) seinen direkten Vorgänger in jedem Vergleich. Das iPhone XS Max ohne Nachtmodus ist nicht nur gegen das neue iPhone chancenlos, sondern auch gegen alle aktuellen Modelle der Konkurrenz. In diesem Punkt hat sich Apple viel zu viel Zeit für das Upgrade gelassen. Die Ergebnisse fallen dafür durch die Bank gut aus. Ärgerlich ist an dieser Stelle, dass Apple den Nachtmodus vom A13 Bionic abhängig macht und somit nicht als Update für ältere Smartphones anbieten wird.
Ultraweitwinkel ist spektakulär, aber matschig
Das neue Ultraweitwinkelobjektiv ist bei beiden neuen iPhone-Modellen zu finden, das Teleobjektiv hingegen nur bei den Pro-Varianten. Apples Ultraweitwinkel lässt ebenso wie bei der Konkurrenz den OIS vermissen, was bei 13 mm Kleinbild-Äquivalent aber zu verschmerzen ist, da sich kleinere Wackler kaum auf das finale Foto auswirken. Apples Ultraweitwinkel deckt nach dem Galaxy S10 das zweitgrößte Sichtfeld ab, gefolgt vom Huawei P30 Pro und OnePlus 7T mit dem sichtbar kleinsten.
Rein aus qualitativer Sicht liefert das Ultraweitwinkelobjektiv die schlechtesten Ergebnisse, denn Schärfe und Details hinken sichtbar den anderen beiden Linsen im iPhone hinterher. Auch im Vergleich zur Konkurrenz erzielt Apple eher eine ernüchternde Qualität. Vor allem Samsung bietet mehr Schärfe, Details und eine ausgewogenere Belichtung, hat dafür jedoch mit einem Blaustich zu kämpfen. Ohne Zweifel lassen sich über das Ultraweitwinkelobjektiv aber auch bei Apple Fotos mit bisher nicht möglicher Perspektive knipsen. Trotz der sichtbar abfallenden Qualität ist die neue Linse ein gelungener, wenngleich später Zugewinn für das iPhone.
Beim Teleobjektiv bleibt Huawei der Maßstab
Auf das Teleobjektiv bezogen gibt es mit dem Huawei P30 Pro einen klaren Sieger, denn mit seinem fünffachen optischen Zoom lässt das Smartphone der Konkurrenz keine Chance. Mit Blick auf den zweifachen Zoom schneiden Apple und Samsung derweil am besten ab. Hier stimmen Schärfe und Farben am ehesten mit der Realität überein, während das OnePlus 7T alles sehr weichgezeichnet darstellt und das Pixel 3 mit digitalem Zoom oftmals zu dunkel ist. Wer häufig auf ein Teleobjektiv im Smartphone angewiesen ist, sollte aber zu Huawei statt Apple greifen.
4K60-Video mit erweitertem Dynamikumfang
Keine Chance lässt Apple der Konkurrenz bei Videoaufnahmen. Die bereits sehr gute Basis von iPhone XS und iPhone XR wird beim iPhone 11 (Pro) weiter ausgebaut, indem Videos nochmals besser stabilisiert werden und erstmals bei 4K-Auflösung mit 60 FPS den erweiterten Dynamikumfang bieten, der bislang auf 4K mit 30 FPS beschränkt war. Das nachfolgende Video zeigt das iPhone 11 Pro Max im Direktvergleich mit dem iPhone XS Max. Beide Videoaufnahmen wurden gleichzeitig aufgenommen. Der von ComputerBase genutzte Player ist auf 1080p mit 60 FPS beschränkt, unterhalb des Videos gibt es einen Download-Link für 4K mit 60 FPS im MP4-Container mit HEVC.
Apples erweiterter Dynamikumfang hat allerdings nichts mit HDR10(+) oder Dolby Vision zu tun. Nach wie vor wird im SDR-Farbraum BT.709 aufgenommen, wie die Metadaten der Videos zeigen. Bei 4K mit 60 FPS kommt HEVC mit rund 50 Mbit/s zum Einsatz, was mit Stereoton in rund 360 MB pro Minute resultiert. Hier werden 64 GB im Basismodell schnell knapp. Samsung bleibt neben Sony einer der wenigen Anbieter, die HDR-Aufnahmen unterstützen. Das Display des iPhone 11 Pro (Max) unterstützt hingegen die Wiedergabe von Dolby Vision und HDR10 etwa über Amazon und Netflix.
Deep Fusion kommt als iOS-Update
Mit einem der kommenden iOS-13-Updates, wahrscheinlich iOS 13.2, will Apple die neue Bildverarbeitung Deep Fusion anbieten. Sie wird „Smart HDR“ nicht ersetzen, sondern ist für andere Lichtbedingungen ausgelegt und soll dort für bessere Fotos sorgen. „Deep Fusion“ funktioniert ausschließlich auf dem neuen iPhone 11 und iPhone 11 Pro (Max) mit Apples A13-Bionic-Prozessor. Ältere Smartphones sind außen vor.
Pixel für Pixel zum finalen Foto
Die neue Bildverarbeitung funktioniert folgendermaßen: Die iPhone-Kamera schießt mit „Deep Fusion“ zunächst ein Foto mit negativem Lichtwert (EV, „Exposure Value“), um aus diesem schnellen Frame insbesondere viel Schärfe zu extrahieren. Auf diesen Frame folgen drei Aufnahmen mit normalem Lichtwert sowie eine Langzeitaufnahme. Der unterbelichtete Frame und die Kombination der vier weiteren Frames werden zu jeweils einem 12-Megapixel-Foto kombiniert, sodass insgesamt 24 Megapixel an Bildinformationen vorliegen.
Das Endresultat wiederum ist ein aus den insgesamt 24 Megapixeln generiertes 12-Megapixel-Foto, dessen Bildinformationen zuvor Pixel für Pixel vier unterschiedliche neuronale Netzwerke von Apple durchlaufen haben, um Optimierungen in Bereichen wie Himmel, Hauttönen, Kleidung oder Blattwerk vorzunehmen. Apple verspricht sich durch diese Maßnahme bessere Übergänge bei unterschiedlichen Hauttönen, mehr Details in Kleidung und einen höheren Detailgrad an den Kanten sich bewegender Objekte.
Deep Fusion arbeitet automatisch
„Deep Fusion“ ist kein neuer Fotomodus und kann durch den Anwender weder aktiviert noch deaktiviert werden. Der gesamte Vorgang geschieht automatisch im Hintergrund. Apple will Anwendern den Vorgang des Schießens eines bestmöglichen Fotos so weit wie möglich abnehmen und das Smartphone die Entscheidungen vornehmen lassen.
Smart HDR, Deep Fusion und Nachtmodus
„Deep Fusion“ soll sich auf der Hauptkamera mit Weitwinkelobjektiv automatisch im Bereich ab 10 Lux aktivieren, also oberhalb dessen, wo automatisch der Nachtmodus aktiv wird. Für helle bis mittelhelle Szenen bleibt hingegen das bekannte „Smart HDR“ die automatische Bildverarbeitung der Wahl. Auf dem Teleobjektiv wird hauptsächlich „Deep Fusion“ zum Einsatz kommen, „Smart HDR“ nur bei sehr heller Szenerie. Und auf dem Ultraweitwinkel wird ausschließlich „Smart HDR“ verwendet, da hier keine Unterstützung für „Deep Fusion“ oder den neuen Nachtmodus vorliegt.