Der Autofokus hat in 9/10 Fällen falsch gearbeitet, sodass die schärfste Stelle im Bild immer vor den Augen der abgebildeten Personen war, obwohl die Personen korrekt erkannt wurden (gelber Rahmen ums Gesicht). Die Augen waren dann eben nur zu 90% scharf. Fällt vielen nicht auf, schon gar nicht wenn man nicht zoomt, daher dürfte die Dunkelziffer riesig sein.
Muss jetzt nach zwei Tagen aber leider sagen, dass ich auch nach dem Tausch der Kameraeinheit nicht annähernd so zuverlässig gute Bilder rausbekomme wie mit meinem 13 Pro. Es ist durch den Tausch besser geworden und ich habe beim Abholen des Handys auf Anhieb das mit meinem 15 Pro produzierte schärfste Portrait ever vom Apple Store Mitarbeiter gemacht, aber jetzt am Wochenende waren doch wieder einige unschöne Ergebnisse dabei.
Ich kann mir nicht erklären, was hier genau falsch läuft aber meine Theorie ist, dass dass der Messmechanismus des AF nicht mit dem durch den größeren Sensor bedingten kleineren Schärfebereich klar kommt. Gefühlt können hier +/- 2cm Bewegung des Objekts nach vorne oder hinten NACH dem Scharfstellen schon den Unterschied machen, ob die Augen scharf sind oder nicht.
Gleiches Verhalten habe ich ja auch, wenn ich mit einer richtigen Kamera Portraits schieße. Wenn meine Blende zu weit offen ist, schaffe ich es uU nicht einmal, beide Augen des Objekts scharf zu bekommen, nur weil eins 1cm weiter von der Linse weg ist. In der richtigen Fotografie ist sowas natürlich gewünscht und wird auch als Stilmittel benutzt, aber bei einer Handykamera mit fester Blendenöffnung darf sowas halt nicht passieren, weil damit die komplette point and shoot Erfahrung kaputtgeht, die ich an iPhones eben so schätze.