Pixel 6 und Pixel 6 Pro im Test: Kamera, Bewegungsmodus, Magischer Radierer und Videos
3/4Der rückseitige Kamerabalken von Pixel 6 und Pixel 6 Pro prägt nicht nur das Design, sondern ist auch vollgestopft mit neuer Hardware, die beim Pixel 6 in zwei und beim Pixel 6 Pro in drei Kameras resultiert. Beiden Smartphones gemein ist eine neue Hauptkamera mit 50-Megapixel-Sensor, bei dem es sich um den GN1 von Samsung handelt. Der 1/1,31" große Sensor weist 1,2 μm große Pixel auf, die Google stets im 4-zu-1-Binning-Verfahren verwendet, sodass die Bildausgabe mit 12,5 Megapixeln erfolgt. Nach drei Jahren mit dem Sony IMX363, der bei Google erstmals im Pixel 3 zum Einsatz kam, zieht ein neuer Sensor für die Hauptkamera ein. Alle seitdem vorgestellten Verbesserungen liefen bei Google ausschließlich über die Software.
Neue Hauptkamera gibt 12,5 Megapixel aus
Anders als bei den Smartphones etwa von Samsung selbst oder Xiaomi besteht keine Möglichkeit, das Binning zu deaktivieren. Google spricht deshalb teils auch von 2,4 μm großen Pixeln. Auch im RAW-Modus bleibt das Pixel-Binning aktiv und die Auflösung liegt bei 4.080 × 3.072 Pixeln. Die Hauptkamera ist mit einem optischen Bildstabilisator (OIS) und laut Spezifikationen mit Blende f/1.85 mit einem Erfassungswinkel von 82 Grad ausgestattet. Android 12 und Windows 10 geben die Blende den EXIF-Daten zufolge gerundet mit f/1.9 aus.
Ultraweitwinkelkamera mit 114 Grad
Die zweite Kamera, die beide Smartphones gemein haben, ist für Ultraweitwinkelaufnahmen mit einem Erfassungswinkel von 114 Grad zuständig. Bei dieser Kamera verbaut Google einen kleineren Sensor mit 12 Megapixeln und einer Pixelgröße von 1,25 μm. Bei Fotos wird eine automatische Objektivkorrektur durchgeführt, sodass es im Randbereich nicht zu den üblichen Verzerrungen aufgrund des Ultraweitwinkelobjektivs kommt.
Pixel 6 Pro erhält Tele mit Periskop-Zoom
Die dritte Kamera hat das Pixel 6 Pro exklusiv. Dabei handelt es sich um ein Tele mit 4-facher optischer Vergrößerung im Vergleich zur Hauptkamera. Der Sensor mit 48 Megapixeln weist eine Größe von 1/2" auf und die Pixelgröße liegt bei 0,8 μm. Auch bei dieser Kamera führt Google stets ein Pixel-Binning durch, sodass im Gespräch vorab mit dem Hersteller auch von 1,6 μm großen Pixeln die Rede war. Die Bildausgabe dieser Kamera erfolgt dementsprechend mit 12 Megapixeln. Die dritte Kamera arbeitet mit f/3.5, hat einen Erfassungswinkel von 23,5 Grad und wird ebenfalls von einem OIS unterstützt. Inklusive Googles KI-gestütztem Super-Resolution-Zoom sind mit dem Tele Aufnahmen mit bis zu 20-facher Vergrößerung möglich. Das kleinere Pixel 6 bietet über die Hauptkamera einen bis zu 7-fachen Super-Resolution-Zoom.
HDR ist Googles Paradedisziplin
Googles große Stärke ist auch mit dieser Pixel-Generation die überragende HDR-Automatik, die nochmals besser als beim Pixel 5 (Test) ausfällt und auch eindeutig gegenüber Smart HDR 4 des iPhone 13 Pro Max (Test) überlegen ist, das in diesem Punkt ja auch schon einen Sprung gegenüber Smart HDR 3 beim iPhone 12 gemacht hat. Im Direktvergleich sieht man dann aber doch, wie gut respektive wie viel besser die Algorithmen von Google arbeiten und noch einmal deutlich mehr Details aus jeder Aufnahme holen. Das Pixel 6 (Pro) hat keinerlei Probleme damit, das gesamte Spektrum von sehr hellen bis dunklen Bereichen abzubilden und damit möglichst viele Details zum Vorschein zu bringen. Dabei punktet Google auch mit einer guten Schärfe, kräftigen Farben und einer insgesamt einfach stimmungsvollen Abbildung, die schlichtweg schöner anzusehen ist als bei Apple.
Das ist vielleicht auch ein Kritikpunkt, den man Google vorhalten kann, denn das Pixel 6 (Pro) schießt zwar sehr schöne Fotos, aber nicht immer möglichst realistische Aufnahmen, die exakt dem entsprechen, was man vor Ort gesehen hat. Das wiederum gelingt dem iPhone 13 Pro Max etwas besser, sichtbar etwa anhand der Outdoor-Aufnahmen des Autos, wo selbst bei starkem Gegenlicht noch Details abgebildet werden, die das iPhone 13 Pro Max im Schatten belässt. Googles HDR-Automatik hat immer zum Ziel, möglichst viele Details abzubilden. Wenn dem Pixel 6 (Pro) eines gelingt, dann ist es eine stimmungsvolle Abbildung des „goldenen Herbst“.
Die Ultraweitwinkelkamera liefert ebenfalls die besseren Ergebnisse bei Belichtung, Farben und Schärfe gegenüber dem iPhone 13 Pro Max. Man vergleiche zum Beispiel die Aufnahme am Skate-Pool in der vorherigen Galerie, um die Vorteile für Google auf Anhieb zu erkennen. Google schießt auch bei den Fotos rund um die Museumsinsel die überzeugenderen Aufnahmen als das aktuelle iPhone. Apple liefert für sich alleine betrachtet durchaus gute Fotos, doch erst der Direktvergleich mit dem Pixel 6 offenbart die Schwächen. Auf Apples Habenseite steht jedoch mit 13 mm Brennweite das größere Sichtfeld, während Google etwas weniger sichtbar macht. Bei Google wiederum deckt bereits die Hauptkamera ein etwas größeres Sichtfeld ab und die Ultraweitwinkelkamera geht von dort ausgemessen nur noch auf 0,7x statt 0,5x zurück.
Tele mit Super-Resolution-Zoom
Das Tele hat das Pixel 6 Pro exklusiv und bietet damit eine vierfache optische Vergrößerung mittels Periskop-Zoom oder „folded optics“, wie Google es nennt. Die Funktionsweise ist einfach erklärt: Anstatt die Linsen klassisch mit Ausrichtung zur Rückseite des Smartphone zu stapeln, was beim Tele unweigerlich zu einer noch größeren Bautiefe als ohnehin schon führen würde, werden die Linse auf die Seite gelegt im Smartphone verbaut und das eintreffende Licht über ein Prisma umgelenkt. Die Ergebnisse können sich sehen lassen, etwa ab Bild 10 der Galerie beim Blick in den Foodtruck. Google kommt nicht nur näher dran als Apple, sondern liefert auch besseres HDR, bessere Farben, bessere Schärfe, bessere Hauttöne und abermals einfach das viel bessere Foto.
Das Pixel 6 Pro ermöglicht eine bis zu 20-fache Vergrößerung über Googles KI-gestützten Super-Resolution-Zoom, der über die TPU des Tensor-SoCs abgewickelt wird. Diese Art Zoom kommt in den Stufen oberhalb der vierfachen Vergrößerung zum Einsatz, allerdings nur dann, wenn schon während der Aufnahme im Sucher in diesen Bereich gezoomt wird. Das nachträgliche Zoomen respektive Zuschneiden und Upscaling in der Fotos-App ist nicht mit demselben Detailgrad möglich. Der gewünschte Ausschnitt sollte stets zuerst im Sucher festgelegt werden. Wie gut der Super-Resolution-Zoom arbeitet, verdeutlicht der Blick auf die List der Zusatzstoffe und Allergene eines anderen Foodtrucks. Aus derselben Entfernung geschossen produziert das Pixel 6 Pro eine klar leserliche Liste, das iPhone 13 Pro Max hingegen zum Großteil Pixelmatsch und das Pixel 5 mangels Tele überhaupt nichts erkennbares mehr.
Stimmungsvolle Nachtaufnahmen
Googles Stärke der letzten Jahre waren stets auch immer Aufnahmen bei Nacht. Und diesen Trend setzt die Pixel-6-Serie unbeeindruckt von aufkommender Konkurrenz fort, wenngleich wie bei den Fotos bei Tageslicht gilt, dass besonders schöne Fotos nicht unbedingt besonders originalgetreue Fotos bedeuten. Google schafft es wie kein anderer Hersteller, die Stimmung der Nacht einzufangen. Das Leuchten der Stadt an einem regnerischen Abend wird von den Pixel-Smartphones durchweg bestens wiedergegeben. Apple schaltet zumindest dieses Jahr den Nachtmodus seltener hinzu und belässt dunkle Bereiche so dunkel, wie sie zu sehen waren. Google sagt sich stattdessen: Die Nacht darf als solche erkennbar bleiben, mehr Details bedeuten aber bessere, weil stimmungsvolle Fotos. Und in einem Blindvergleich der Aufnahmen würden die des Pixel 6 (Pro) sicherlich jedes Mal die von Apple schlagen.
Der Bewegungsmodus als neue Stilmittel
Klassische Fotoaufnahmen sind aber nur ein Bereich von vielen beim Pixel 6 (Pro). Neu hinzugekommen ist der Bewegungsmodus, der sich wiederum in zwei unterschiedliche Arten von Aufnahmen unterteilt: Action-Foto mit Schwenkeffekt und Langzeitbelichtung. Beim Action-Foto wird ein sich bewegendes Motiv fokussiert und dem Hintergrund ein „kreativer Unschärfeeffekt“ hinzugefügt. Der Effekt lässt sich sowohl mit ruhig gehaltenem Smartphone als auch mit dem Motive folgendem Smartphone erreichen. Die Langzeitbelichtung führt zum entgegengesetzten Ergebnis: Dem sich bewegenden Element im Bild wird ein Unschärfeeffekt hinzugefügt, während der Hintergrund scharf bleibt. Beide Effekte sind derzeit noch als Beta auf dem Pixel 6 markiert und werden über die TPU des Tensor-SoCs berechnet.
Die Ergebnisse sind deutlich beeindruckender, als im Vorfeld des Tests zur Präsentation der Smartphones erwartet wurde. Beide Effekte haben sich über die letzten Tage ein wenig zum Lieblingsspielzeug in der Kamera-App entwickelt, weil damit völlig neue Motive möglich sind. Die nachfolgende Galerie zeigt stets das Foto mit Effekt sowie das Original ohne Effekt. Die Kamera-App speichert beide Aufnahmen, die als Paar in der Galerie angeordnet werden. Will man eines der Fotos löschen, fragt die Fotos-App, ob nur das eine ausgewählte Bild oder das Paar gelöscht werden soll.
Das Action-Foto eignet sich perfekt für allerlei Fortbewegungsmittel von Auto über Fahrrad und Schiff bis zur Bahn. Außerdem richtet diese Art von Aufnahmen den Fokus des Betrachters exakt auf das sich bewegende Element im Bild, weil der Rest verschwommen abgebildet wird. Die Langzeitbelichtung dreht den Spieß um, zeigt den Trubel, der sich durch das statische Stadtbild zieht und sorgt damit für ein ganz eigenes interessantes Stilmittel. Mit beiden Varianten des Bewegungsmodus liefert Google spaßige und überaus gelungene Werkzeuge exklusiv für die Pixel-6-Serie.
Googles Magischer Radierer
Die Fähigkeiten der TPU spielen auch beim nachträglichen Bearbeiten von Fotos eine Rolle. Ebenfalls exklusiv für die Pixel-6-Serie ist der „Magische Radierer“ innerhalb der Fotos-App, mit dem sich unerwünschte Objekte „magisch“ aus dem Bild entfernen lassen – etwa Personen, Gegenstände oder Dinge wie Autos. Wechselt man in der Fotos-App in die Bearbeitung und dort zu „Anpassen“, steht nur auf dem Pixel 6 (Pro) der „Magische Radierer“ zur Auswahl, der automatisch Objekte vorschlägt, die potenziell entfernt werden sollen. Diese können mit einem Fingertipp aus dem Bild entfernt werden, alternativ lassen sich Objektiv händisch markieren und anschließend entfernen. Google erklärt, dass der Modus am besten funktioniert, wenn störende Elemente im Hintergrund entfernen werden, und in Szenerien wie Stränden oder Parks.
Schatten bleiben erkennbar
Im Praxistest in Berlin und München wurde der Radierer vor allem mit Personen im Bild herausgefordert. Angesichts der teils schieren Massen an Personen, etwa direkt im ersten Bild sichtbar, ist es schon beeindruckend, wie zielsicher die TPU potenziell unerwünschte Objekte erkennt und nach wenigen Sekunde Wartezeit selbst im fernen Hintergrund entfernt. Probleme hat Google allerdings mit den zugehörigen Schatten der Personen, die überhaupt nicht beachtet werden und dementsprechend im Bild verbleiben. Außerdem werden selbst geradlinige Strukturen wie die Holzbalken an der Kaffeebar oder die Säulen und das Geländer am Museum, die zuvor hinter entfernten Objekten verliefen, anschließend nicht perfekt rekonstruiert. Zudem hinterlassen entferne Personen stets einen tendenziell weicher gezeichneten Bereich, in dem Googles KI Pixel aus dem Nichts hinzufügen muss.
Manchmal sind die Ergebnisse einfach nur kurios, etwa das Foto vor dem Berliner Dom, wo vor der automatischen Bearbeitung davon ausgegangen wurde, dass die Barriere im Vordergrund entfernt werden würde, Google sich jedoch für alle bis auf exakt eine Person entschieden hat. In dieser Aufnahme ist gut erkennbar, welchen Pixelbrei der Radierer teils hinterlässt, etwa bei den parkenden Autos im Hintergrund. Dennoch liefert Google ein beeindruckendes Werkzeug ab, das vor allem für kleinere isolierte Objekte gut geeignet ist.
Hübschere Videoaufnahmen in 4K dank HDRnet
Ein weiteres Anwendungsgebiet der TPU sind Videoaufnahmen, bei denen jetzt wie bei Fotos das von Google entwickelte „HDR+“ für einen besonders breiten Dynamikumfang zum Einsatz kommt. HDR+ war bis zum Pixel 3 ein Effekt, der erst im Nachhinein beim abgespeicherten Bild in der Galerie zu erkennen war, aber noch nicht im Sucher. Mit dem Pixel 4 und 4a kam Live HDR+ hinzu, das das Endergebnis einer HDR-Aufnahme bereits live im Sucher darstellen konnte. Dafür vertraute Google auf den Machine-Learning-Algorithmus HDRnet, der eine approximierte Echtzeitansicht des Endergebnisses live für den Sucher erzeugen konnte.
Beim Pixel 6 (Pro) arbeitet HDRnet nicht mehr nur im Sucher, sondern zieht als fester Bestandteil in den Videomodus ein und wird dort für einen erweiterten Dynamikumfang, lebendigere und genauere Farben genutzt. Googles normales HDR+ wäre für den Videomodus zu langsam, also lässt Google HDRnet über die TPU laufen, das dabei bis zu 4K60 inklusive Videostabilisierung unterstützt. Das bedeutet, dass rund 500 Millionen Bildpunkte pro Sekunde über die TPU verarbeitet werden, um bei einem 4K60-Video alle 16,667 ms einen Frame mit erweitertem Dynamikumfang zu produzieren. In 4K30 reduziert sich die Datenmenge dementsprechend auf knapp 250 Millionen Bildpunkte und HDRnet hat für jeden Frame 33,333 ms Zeit.
Der typische Pixel-Look jetzt auch für Videos
Googles Ziel war es, den typischen Pixel-Look von Fotos auch in Videos anzubieten. Und das ist dem Hersteller durchaus gelungen, denn Videoaufnahmen fallen im Vergleich zum Pixel 5 deutlich besser aus. Der Dynamikumfang fällt deutlich breiter aus, Farben leuchten, die Schärfe stimmt und die Videostabilisierung arbeitet zuverlässig. In der Tat gibt es jetzt Googles HDR-Look der Fotos auch für Videoaufnahmen.
HDRnet ist nicht 10-Bit HDR
So gut der neue Videomodus auch ist, es handelt sich nicht um echtes 10-Bit HDR. Während der Präsentation des Pixel 6 machte Google im Abschnitt der Kamera zwar keine widersprüchlichen, aber zumindest leicht in die Irre führende Aussagen zum neuen Videomodus. Wenn erklärt wird, dass HDRnet in bis zu 4K60 auf dem Tensor-SoC ausgeführt werden könne, klingt das ein wenig so, als würden die neuen Smartphones jetzt echte HDR-Videoaufnahmen beherrschen.
Schaut man sich aber die Metadaten einer vom Pixel 6 Pro produzierten Videodatei an, ist in diesen weiterhin der für SDR typische Farbraum BT.709 vermerkt. Ein iPhone 13 Pro Max hingegen, aber auch die ältere iPhone-12-Serie nimmt echtes 10-Bit HDR mit Hybrid Log Gamma auf, was in den Metadaten anhand von HLG respektive BT.2020 erkennbar ist. Das wiederum führt dazu, dass auf entsprechenden Ausgabegeräten mit HDR-fähigem Display die entsprechende Darstellung getriggert wird. Auf dem iPhone 13 Pro Max oder iPad Pro mit Mini-LED-Display schaltet das Panel in den HDR-Modus, der zum Beispiel Highlights deutlich prominenter hervorhebt. Dort werden dann Peak-Helligkeitswerte von 1.200 cd/m² respektive 1.600 cd/m² erreicht.
Die Videos eines Pixel 6 (Pro) sind für ein abspielendes Gerät aber weiterhin normales SDR-Material, nur eben mit erweitertem Dynamikumfang und schöneren Farben, spezielle HDR-Modi eines Panels lassen sich damit aber nicht triggern. Die neuen Videoaufnahmen stellen dennoch eine deutliche Verbesserung dar, nur soll man nicht mit falschen Erwartungen von echtem HDR-Video ausgehen.