Test Auflösung Foto-Blindtest: Welche Smartphone-Kamera ist laut Lesern die beste?

Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: EmViO, Bänki0815, Kalsarikännit und 4 andere
tic-tac-toe-x-o schrieb:
Interessant ist ja vor allem das Ergebnis zwischen dem iPhone 11 Pro Max und iPhone XS Max. Eine Generation, und doch so gravierende Unterschiede. Warum eigentlich?


Öhm nein, pick dir aus dem Vergleich doch mal die iPhone Bilder raus und vergleich sie. Die Unterschiede sind extrem gering und vor allem in jedem Fall um Welten geringer, als die Unterschiede zur Konkurrenz. Man muss schon mit der Lupe suchen, um zu erkennen, dass das bei den iPhone Aufnahmen unterschiedliche Kameras bzw. zwei Generationen sind.
Die Nachbearbeitung ist bei beiden iPhones praktisch identisch. (Nightmode mal ausgenommen)

Dass hier so deutlich unterschiedliche Bewertungen zustande kommen halte ich für Willkür und User, die sich einfach zu wenig Zeit bei der Bewertung nehmen. Da bekommen sie zwei mal das nahezu gleiche Foto angezeigt und bewerten dann komplett unterschiedlich. Das ist logisch nicht zu erklären, außer dass viele einfach pauschal nach Bauchgefühl "irgendwas" was ihnen zusagt angeklickt haben...

Oft reicht es ja schon, wenn der Winkel der Aufnahme um ein paar Grad verdreht ist und schon macht die Nachbearbeitung irgend was anders, was dann eben mal das Foto des iPhone XS und mal das des iPhone 11 subjektiv besser aussehen lässt. (Die Arbeit, die Fotos herunterzuladen und bei 100% zoom die Details zu vergleichen wird sich eh fast keiner gemacht haben).


Grundsätzlich will ich den Test durchaus kritisieren. Auch wenn ich davon überzeugt war und bin, dass das iPhone die natürlichsten Aufnahmen macht und auch wenn der Ausgang des Tests somit meinen persönlichen Vorstellungen/Erwartungen entspricht so finde ich die Art und Weise wie das Ergebnis zustande gekommen ist trotzdem seltsam und einfach inkonsistent.
Denn wenn sich zwei Kameras so extrem ähneln, und die User die Bilder des iphone 11 am besten finden, dann hätte das XS einfach auf Platz zwei sein müssen.
Die Fotos des XS sind von allen getesteten Kameras nunmal am nähesten am Gewinner. Wie kann es dann auf dem letzten Platz landen?


EDIT:
Vielleicht ist die Ursache für das Problem die Möglichkeit nur ein Foto auszuwählen.
Vielleicht wäre das Ergebnis weniger verfälscht, wenn jeder User für jedes Motiv sein eigenes Ranking erstellen könnte.

Der Punkt wird eben sein, dass viele denen die iPhone Aufnahmen gefallen haben, das iPhone 11 immer nen kleinens bisschen bevorzugt haben und somit das XS nie angewählt haben, obwohl sie es vielleicht auf Platz zwei gerankt hätten. Jenen leuten, denen die iPhone Aufnahmen grundsätzlich nicht gefallen haben, haben dann weder iPhone 11 noch iPhone XS gewählt. Dadurch könnte das iPhone XS extrem benachteiligt worden sein, obwohl es zumindest am Tag nahezu die gleichen Fotos wie das iPhone 11 macht.

Meiner Meinung nach wurden hier im Fazit völlig falsche Schlüsse gezogen. Das Bewertungskonzept sollte überarbeitet werden. Gut möglich, dass auch andere Smartphones, deren Fotos sich stark ähneln benachteiligt worden sind.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KlaasKersting, Messala, Lars_SHG und 4 andere
reobase schrieb:
Ja es gibt immer öfters Triplekameras. Dann hat man genau 3 Brennweiten zur Auswahl.

Ja mit drei Brennweiten kann ich aber schon deutlich mehr machen als mit einer. Dass damit nicht so viel geht wie mit einer ausgewachsenen Systemkamera, ist ja klar. Aber mit einem Smartphone hab ich heute schon einiges an Spielraum wenn es ums Fotografieren geht.
 
Etwas Kritik an der Ergebnis-Präsentation: Dass die Handys nach jedem Bild an einer neuen Position sind, ist sehr verwirrend. Entweder man belässt sie an einer Stelle, sodass man Bild mit Bild vergleichen kann, oder man sortiert sie nach Größe, sodass es Einheitlich ist, und man direkt erkennt wer gewonnen hat. (Mir ist bewusst, dass sie nach Bildern sortiert sind, trotzdem)

Außerdem wäre eine Gesamtübersicht aller Smartphones cool gewesen, dass man auch die Abstände erkennen kann. Beispiel:
2019-10-04_17h48_58.png
 
  • Gefällt mir
Reaktionen: Tobi47, lhinny, matti87 und 2 andere
@nlr danke für den interessanten Test/Umfrage! Was finde ich allerdings fehlt ist eine Beschreibung wie die Bewertung der Rangliste stattfand. Man könnte bspw. 1.Platz gibt 3 Punkte, 2ter 2 Punkte etc. oder aber den Durchschnitt der Prozentwerte nehmen. Zweiteres wäre genauer bei Nahe beieinander liegenden Ergebnissen bzw Kopf an Kopf rennen.

edit: ehm ja genau das was mein vorredner @Bright0001 erstellt hat. Danke! Man sieht, dass hier das OP7T weit nach vorne rutscht.
 
  • Gefällt mir
Reaktionen: Bright0001 und Pulsar77
ShaleX schrieb:
Danke. Interessant... aber ich bleibe für "echte" Reviews lieber beim professionellerem DXOmark... die nehmen immer Laborbedingungen und exakt gleiche Vergleiche.

wo hat DXOmark denn quantitativ verlässliche Ergebnisse zu Handykameras?
  • Signal-Rauschverhältnis, ISO-Abhängig
  • Quanteneffizienz
  • MTF bzw. Auflösungsvermögen, ortsaufgelöst
  • Vignettierung
  • Das ganze für Bilder out-of-cam sowie RAW
Wenn mir jemand die Kameras zur Verfügung stellen würde bzw. es eine Seite gäb welche wirklich Interesse an ordentlichen, reproduzierbaren Eregebnissen hätte, dann würde ich mich gar unentgeldlich einbringen die Tests durchzuführen und auszuwerten. Sowas gibt's heute aber höchstens noch bei Astronomie-Hobbyisten-Kameras und natürlich bei Highend-Systemen für Wissenschaft und Technik. Alles andere ist nur noch "nach Gefühl", auch bei DXO-Mark. Bei DPReview gibt's zumindest noch reproduzierbare Studio-Testaufnahmen, aber die Auswertung machen sie auch nicht. :-(

Ich lasse mich aber gerne eines besseren Belehren, aber ich kenne keine Seite, die das ordentlich macht.
Wenn sich Leute finden oder CB Spaß dran hätte, meldet euch.

randfee, aka prom. Physiker, Laser, Optik, Datenanalyse.... ist schon ziemlich mein Fachgebiet. :P
 
ShaleX schrieb:
Danke. Interessant... aber ich bleibe für "echte" Reviews lieber beim professionellerem DXOmark... die nehmen immer Laborbedingungen und exakt gleiche Vergleiche.
 
@Bright0001
Wenn es um Nutzer-Ansicht geht, dann löst man das über eine dynamische Oberfläche, welche die 100% oder auch mehr Ansicht eines Ausschnitts von mehreren Bildern gleichzeitig vergleicht.
Ich glaube CB wollte es einfach halten und das ist ok, solange man sich vorstellt, wie die Leute das nutzen. Die wenigsten werden alle Bilder runtergeladen und sich das ganzheitlich wie auch im 100% Vergleich angeschaut haben. Ich hatte Spaß daran und allein deshalb sind die Ergebnisse sicherlich sehr gestreut.

ich habe CB bereits angeschrieben ob sie mir den Datensatz zur Verfügung stellen würden. So könnte man sicherlich die Korrelationen von Position usw. gut rausrechnen und schauen ob dies was ausmacht. Wenn sie sogar Daten über Device bzw. Auflösung der Nutzer hätten, oder gar ob das Original heruntergeladen wurde oder nicht, dann ging edas noch weiter. Aber die Daten sind nun mal jetzt da. Klar kann man nen besseren Test machen, sowohl was die Bilder selber als auch die Präsentation angeht, aber ich finde es schon cool, dass sie überhaupt einen machten.

@Hylou
eben... das ist nicht wirklich unbiased. Gute quantitative Ergebnisse finde ich auch da nicht, die Koeffizienten für die finale Bewertung geben sie auch nicht her. Lachhaft. Wenn DXOMark wirklich was auf ihre Verfahren geben würden, dann wären die 1:1 nachlesbar um sie reproduzierbar zu machen... ohne das: Unwissenschaftlich halt.

Daher:
Ich würde immer zwei Arten von "Test" machen.
  1. So wie ihn CB hier durchgeführt hat, mit möglichst großem Nutzerkreis, aber vielleicht breiterer Motiv-Auswahl, sowie besserem User-Interface für den Vergleich (toggle switches, 100% zoom-windows mit synchronisiertem panning).
  2. "wissenschaftlich" vergleichbar aufgenommene Testbilder samt Analysen hinsichtlich
    1. Noise
    2. Kompression/Artefakt
    3. Dynamik-Range
    4. ISE-Response
    5. Schärfe
    6. Lichtempfindlichkeit/Gesamt-Quanten-Effizienz
    7. evtl. Shutter lag (maybe)
    8. evtl. Fokus-Lag (das ist ein spaßiger Aufbau)
das coole ist, die Tests gehen, einmal ausgedacht + Auswertung dafür geschrieben, super leicht von der Hand. Bilder knipsen, script ausführen was gleich die Graphen mit ausspuckt, fertig. Macht aber wie gesagt niemand mehr im Netz. :-/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anakin Solo
Was nicht zu weit ginge, wäre die Methodik leicht zu verbessern.
  • Eine kleine Apparatur im 3D-Druck basteln, die zwei Smartphones aufnimmt und zeitgleich auslösen kann.
  • Immer nur zwei Bilder/Kameras pro Motiv gegenüber stellen.
  • Dafür lieber mehr Motive mit immer wieder unterschiedlichen Kamerakonstellationen.

Hat den Vorteil, dass die Bilder nahezu identisch sind. Für die User ist es wesentlich einfacher das bessere von zwei Bildern auszuwählen als von 6 Bildern.
 
  • Gefällt mir
Reaktionen: def_ und tidus1979
Sehr interessanter Test!

Auch die Ergebnisse sind interessant.

Da gibts Fotos, da kriegt das iPhone 40% und das Galaxy nur 10% und bei einem anderen Foto ist es genau umgekehrt.
 
Die größte Überraschung ist für mich eigentlich, dass es eigentlich gar kein eindeutiges Ergebnis gibt. Jede Kamera hat offensichtlich ihre Stärken und Schwächen, minimale Unterschiede beim Aufnehmen der Bilder machen dann wohl den Rest.
 
Bei mir war es witzig, wie ausgeglichen es am Ende war.

Fast alle waren bei mir 3 mal das beste Bild.

Fazit für mich: Die beste Foto-Kamera gibt es nicht. Jede hat ihre Stärken und Schwächen.
 
Problem ist doch, die Referenz hat nur der Fotograf im Kopf. Es ist halt ein subjektiver Test und keine objektiver Hard Facts test.
 
Freue mich jetzt umso mehr auf mein iPhone 11 Pro, damit gehts dann nach Bali.
 
interessant wäre der vergleich mit einigen mittelklasse smartphones in der kategorie um 300€ und nicht nur den teueren flagships...
 
  • Gefällt mir
Reaktionen: Red Sun und new Account()
Eigentlich müsste man noch einmal testen, sobald Deep Fusion auf dem iPhone 11 aktiviert wird :rolleyes:
Die Funktion hat Apple schließlich dick beworben, nur war sie leider in der Releasefassung von iOS 13 noch nicht dabei.

Edit: Erste Vergleichsbilder aus der Beta sind schon mal vielversprechend. Gerade die Bildschärfe steigt anscheinend sehr deutlich.
 
Zuletzt bearbeitet:
Der Test zeigt ganz gut. Das Smartphonekameras alle mehr oder weniger gleich gut oder halt auch schlecht sind. Weder bei Nacht oder bei Tag. Details und Bildschärfe können die einfach nicht.
Portraits erst recht nicht. Und diese klebt man sich am ehestens ins Album und holt sie auch Jahre später wieder hervor. Irgendwelche Landschaften oder Gebäude nicht.
Deshalb mein Fazit. Mittelklassesmartphone für alle Fälle. Sonst DSLR mit ner ordentlichen Festbrennweite. 👍 Grüße
 
ReIex schrieb:
EDIT:
Vielleicht ist die Ursache für das Problem die Möglichkeit nur ein Foto auszuwählen.
Vielleicht wäre das Ergebnis weniger verfälscht, wenn jeder User für jedes Motiv sein eigenes Ranking erstellen könnte.
Das habe ich hier auch schon gesagt, zumindest eine Top 3 hätte es sein sollen.
Denn nur weil nur 10% der Leute Bild A als "das beste" betrachtet haben, bedeutet das nicht zwingend, dass es schlechter bewertet wurde als Bild B, welches von 20% der Leute als "das beste" betrachtet wurde.

Es kann auch, ganz extrem gesehen, sein, dass die restlichen 70%, die keins der beiden Bilder als "das beste" betrachtet haben, Bild A als zweit- oder drittbestes Bild sehen und Bild B als schlechtestes.

ReIex schrieb:
Auch wenn ich davon überzeugt war und bin, dass das iPhone die natürlichsten Aufnahmen macht
Für mich wirkten die Bilder irgendwie sehr oft zu gelblich, aber es gab schließlich auch keinen DSLR Vergleich, damit man man weiß wie das ganze "wirklich" aussah.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ReIex
Skywalker1992 schrieb:
Sehr interessanter Test!

Auch die Ergebnisse sind interessant.

Da gibts Fotos, da kriegt das iPhone 40% und das Galaxy nur 10% und bei einem anderen Foto ist es genau umgekehrt.

Vor allem ist interessant wie verschieden die Geschmäcker doch sind. Schon beim Abstimmen habe ich mich gewundert, warum immer das Smartphone mit den unnatürlichsten (weil viel zu übertrieben dargestellten) Farben so gut ankommt. Jetzt weiß ich, dass es das Galaxy S10 war und es hat sogar den 2. Platz gemacht :freak:
 
  • Gefällt mir
Reaktionen: b0ne und hardcoreCHENGO
Zurück
Oben