News Auflösung Blindtest: Welches Smartphone-Foto ist das beste?

Es gewinnen die Smartphones bei diesen Test deren Ergebnisse auf der Mehrheit der Consumer Monitore gut ausschauen. Ziel erreicht würde ich sagen ;)

Es erinnert mich immer wieder an Diskussionen der Pixelpeeper die sich als "Pro Fotografen" bezeichnen ;). Ein wirklich guter Fotograf benötigt keine 30.000€ Ausrüstung sondern macht selbst mit einer Wegwerfkamera Bilder dessen Motive sonst eben niemand so einfangen kann. Das unterscheidet dann auch die Fotografen die wirklich gutes Geld verdienen mit denjenigen die lieber Pixel in Foren durchzählen oder Sensor Benchmarks Vergleichen ;)
 
GTR schrieb:
Es gewinnen die Smartphones bei diesen Test deren Ergebnisse auf der Mehrheit der Consumer Monitore gut ausschauen. Ziel erreicht würde ich sagen ;)

Es erinnert mich immer wieder an Diskussionen der Pixelpeeper die sich als "Pro Fotografen" bezeichnen ;). Ein wirklich guter Fotograf benötigt keine 30.000€ Ausrüstung sondern macht selbst mit einer Wegwerfkamera Bilder dessen Motive sonst eben niemand so einfangen kann. Das unterscheidet dann auch die Fotografen die wirklich gutes Geld verdienen mit denjenigen die lieber Pixel in Foren durchzählen oder Sensor Benchmarks Vergleichen ;)

Wenn du Fotograf als Künstler verstehst dann vielleicht. Wenn du aber wüsstest was bei professionellen Shootings (Ich rede hier von Photoshootings für die Werbeindustrie, an denen teilweise über 100 Leute beteiligt sind) bei uns an Pixelpeeping von Statten geht, da sind die DSLR-Forum Mitglieder nichts im Vergleich.
 
386 schrieb:
Weißabgleich: Auch hier erkenne ich auf beiden Monitoren, dass Motiv 3, Bild 3 deutlich kälter abgestimmt ist als Bild 3. Ganz ohne Kalibrierung - kein Mensch hat seinen Monitor auf einem derartigen falschen Weißabgleich / Farbtemperatur eingestellt, dass weiß eher ins bläuchliche oder gelbliche geht.
Hier sind teilweise schon extreme Profis unterwegs. Da erkennen einige sogar Unterschiede zwischen den selben Bildern.
 
e-Funktion schrieb:
Man kann auch Bilder vermessen. Genau so wie man Audio vermessen kann.

Du kannst Linienpaare und Farbtreue von einem Programm erfassen lassen, wirst aber nie eine verläßliche Vorhersage zum Gefallen treffen können, weil zehn verschiedenen Menschen zehn unterschiedliche Bilder gefallen.

-----

Auch an dich die Frage: Was könnte dir besser vermitteln, ob dir ein Bild von Mobiltelephonkamera X auf deinem persönlichen Monitor besser gefallen wird, als ein solcher Test? Was nützt es dir, wenn auf professionellen Geräten eine Wiedergabetreue von 99,9 % erreicht wird, es auf deinem Tablet/Monitor/Mobiltelephon aber häßlich aussieht und/oder dir nicht gefällt?
 
Wie man am Ergebnis sieht, stehen die meisten Leute (am hell leuchtenden Monitor) auf unterbelichtete Bilder.
Und wundern sich dann, wenn sie ausgedruckt keinen Glanz mehr haben und scheiße aussehen.
 
4/3/4/3/4
 
DeusoftheWired schrieb:
Auch an dich die Frage: Was könnte dir besser vermitteln, ob dir ein Bild von Mobiltelephonkamera X auf deinem persönlichen Monitor besser gefallen wird, als ein solcher Test?

-Mehr Motive
-Selbe Position
-Selbe Einstellungen (Blende, Zoom, Weißabgleich, ISO, etc.)

So wie das aussieht hat einfach jemand mit den Automatikeinstellungen ungefähr hingehalten und abgedrückt. Und das dann mit 5 Motiven, von denen man eine Nachtaufnahme hat, und die alle aus derselben Umgebung sind (leeres Industriegebiet, Farben: Grau und braun, keine Nah- oder Fernaufnahmen, insgesamt keine Diversität).
Mir ist durchaus bewusst, dass Inhomogenitäten und gewisse Fehler auch mit einem 17" TN-Display sichtbar sind, so wie ich eins besitze. Allerdings ist die Methodik hier so fehlerhaft und nicht einmal transparent gemacht, dass eine letztendliche aussagekräftige Beurteilung nicht funktioniert.
Was ist denn hier die Blindkomponente?
-Der Modellname? Siehe oben für die entsprechenden Probleme
-Oder doch welche Kameraeinstellungen wo besser ankommen? Dann erschließt sich mir der Test mit mehreren Geräten nicht. Und nachwievor nicht die mangelnde Methodik bzw. fehlende Transparenz aller anderen nicht blinden Variablen.

Der Sinn eines Tests, und hier eines Blindtests, ist doch, dass bis auf die Blindkomponente alle anderen Gegebenheiten gleich sind. Das ist einfach nicht der Fall.
Wenn jetzt alle sagen, dass die Bilder von Kamera Nr. 2 besser seien würden, hat man jetzt nur festgestellt, dass zufällig bei zwei Motiven eine Automatikeinstellung einer Kamera die "bessere" wäre. Wie die Bilder letztenendes aufgenommen worden sind, und ob zwei Motive repräsentativ für die Gesamtfunktionalität der Kamera sind (sind sie nicht), interessiert CB scheinbar nicht.
So gut die Grundidee auch evtl. sein mag (mir erschließt sich schon der Sinn des Blindtestes nicht, wenn man Modell bzw. Marken blindstellen lassen will - Normalerweise reicht ein gut fundierter Bericht doch aus um die bessere Kamera zu beurteilen, so wie das auch z.B. bei Monitoren geht - und welches Problem dieser Versuchsaufbau darstellen soll? Der Leser ist auch nach einem vernünftigen Test zu voreingenommen? Dann hat CB halt schlecht getestet, oder man kann dem Leser eh nicht mehr helfen.), ist der Test aufgrund methodischer Fehler pure Zeitverschwendung.

Mein Gefühl, basierend auf dem Niedergang der sprachlichen und journalistischen Qualität auf CB:
Hier wird ein schlechter Test durch einen noch (absichtlich) schlechteren Blind-Test vorbeworben, eine Art des Clickbaitings wenn man so sagen kann. Hier wird einfach mal die Trommel gerührt, und siehe da, Leute zanken sich. Was dafür spricht, ist auch die auf einmal fehlende Moderation. So wie ich das als Mitleser beurteilen konnte, wird doch normalerweise bei solcher Entartung gelöscht oder sogar geschlossen bis zum gehtnichtmehr.
 
Zuletzt bearbeitet:
tidus1979 schrieb:
Wie man am Ergebnis sieht, stehen die meisten Leute (am hell leuchtenden Monitor) auf unterbelichtete Bilder.
Und wundern sich dann, wenn sie ausgedruckt keinen Glanz mehr haben und scheiße aussehen.

Du druckst Bilder die du mit deinem Smartphone gemacht hast aus? Das hier ist ein Praxistest! Eine Knipse ohne Stativ und im Automatikbetrieb wie es die meisten verwenden. So ein Bild kommt ganz selten mal auf einen Monitor, Fernseher oder in einen digitalen Bilderrahmen. Größtenteils werden diese Bilder auf einem Smartphone angeschaut und vorgezeigt.
 
Biedermeyer schrieb:
- Es fehlt das Referenzbild (z.B. Farben / Bild2 hat man die Wahl zwischen Pest und Cholera, rot- od. gruenstichig)
- ohne exakt den gleichen Bildausschnitt - unmoeglich Details miteinander zu vergleichen
- unterschiedliche Lichtverhaeltnisse / Winkel
- schief und krumm
- es wird auf den Trend "gefaellt mir" gesetzt, nicht was besser ist (bspw McDonalds, MP3, Bose, W10 usw.)
Dem stimme ich prinzipiell zu. Hab jetzt versucht das "objektiv" beste Bild zu wählen und nicht notwendigerweise das, was auf den ersten Blick stimmig aussieht (vielleicht sind ja die Farben völlig verfälscht und es gefällt nur, weil da so ein hoher Kontrast mit drin ist?).
Ein Referenzbild, das die natürlichen Farben widerspiegelt, wäre zum Vergleich schön gewesen. Dann hätte man ja entscheiden können, ob die farbliche Interpretation einem gefällt oder obs mans gerne natürlich mag.

Aber ich glaube auch, dass hier eher der persönliche Eindruck statt rein objektiver Metriken entscheiden sollte (daher wohl auch keine Downloads der HQ-Versionen der Bilder).
 
Um es kurz zu machen. Schnappschuss-tauglich mehr auch nicht. Es ist kein Gerät dabei wo man wirklich sagen kann das ist es.
 
Hipvip schrieb:
Es gewinnen immer nur die Smartphones der am meisten verbreiteten Marken: Samsung oder Apple. Alles eine frage des Werbebudgets und nicht der kamera...
Bei anderen Tests magst du recht haben. Aber bei einem Blindvergleich, wie er uns hier präsntiert wird? :rolleyes:
Man kann sich im Detail ja viel über die Methodik streiten und zum Beispiel berechtigterweise ein Stativ fordern. Aber Beeinflussung durch Werbebudget halte ich bei diesem Vergleich mal für ausgeschlossen. Was auch ein riesiger Vorteil dieses Tests ist. Von daher, trotz eventuell vorhandener Einschränkungen: Gute Idee, CB!
 
Kamera A: belichtet grundsätzlich zu hell
Kamera B: eigentlich ganz akzeptabel, am ausgewogensten - belichtet eher knapp, dadurch saufen dunkle Bildteile manchmal leicht ab
Kamera C: extreme Unschärfe in den Ecken und Farbverschiebungen
Kamera D: wäre wohl ganz ok, mich nervt die extreme Nachschärfung, das Bild wirkt total unnatürlich

Das ist in fast allen Beispielen nachvollziehbar, süss wie CB versucht durch Änderung der Reihenfolge die Herkunft zu verschleiern ;)
 
Objektiv ist dieser Test nicht wirklich, da die Fotos nicht alle zu gleichen Tageszeit und im gleichen "Blickwinkel" gemacht wurden. Studio Aufnamen die alle unter den gleichen Bedingungen gemacht werden zeigen die Unterschiede besser.
 
Anhand von eigenen gemachten Erfahrungen sehen wir hier im 4er Battle:
Samsung Galaxy S7(Edge) vs. iPhone 7(Plus) vs. Sony Xperia XZ vs. XYZ...die vierte Kamera im Testfeld kann ich nicht einschätzen, vermutlich ein Google Pixel oder ein HTC 10 oder doch ein Lumia 950....man weiß es nicht.

Ich weiß nur das mir meine S7 Edge Kamera gefällt, macht bei Tageslicht sehr gute Fotos die man sich auch problemlos an meinem 34" Monitor anschauen kann.
 
DeusoftheWired schrieb:
Im Gegensatz zum Gefallen eines Bildes kann man die Lautstärke in dB messen. Sicher hat man bei Mobiltelephonkameras Werte wie Pixel, Sensor, Brennweite und andere, die man messen und objektiv bewerten kann, aber das ist trotzdem kein Garant dafür, daß einem die Bilder der Kamera gefallen, die die höchsten Werte in allen Kategorien hat.
Man kann die vereinheitlichende Grundlage für diesen Blindtest noch deutlich maximieren. Niemand spricht davon, ob man "Gefallen" messen kann. Gerade dafür wurde diese Umfrage doch gestartet.
Wenn für alle Handys die weitestgehend gleichen Bedingungen herrschen, kann man immer noch - und sogar besser - eine subjektive Empfindung der Ästhetik abgeben.
 
Zurück
Oben