eazen schrieb:
Denn: nur weil es dir am besten gefällt, heißt es nicht das es am besten ist (sieht es wie echt aus, oder nicht?).
Und warum sollte das dem besten Foto entsprechen?
So aussehen wie in echt muss es doch nur, wenn es um Wissenschaft oder Gutachten o.Ä. geht. Ansonsten muss ein Foto doch einfach nur gefallen. Sonst würde es ja z.B. auch keine schwarzweiß-Fotos geben.
jabberwalky schrieb:
Und genau da schwingt für mich irgendwie der Apple-Samsung Krieg wieder mit. Man kann es immer so wenden das Apple ganz vorne steht. Warum wird hier direkt auf Samsung im Platz4 eingegangen, wenn es auch noch Platz 2 oder 3 gibt. Sind die nichts wert?
Ich habe das Gefühl, bei dir schwingt da irgendwas mit.
Samsung ist gesamt gesehen erster und fällt dann eben auf den 4. zurück, deshalb werden sie erwähnt.
Tobias123 schrieb:
Die Testen u.a. das RAW-Potential und zeigen was möglich ist. Nicht was die Standard-App in der Standardeinstellung erzeugt. Daher halte ich von DXOMark deutlich mehr als von so einem schnellen Bildtest hier.
Das sind doch einfach zwei komplett unterschiedliche Ansätze, die beide ihre Berechtigung und ihre Vorteile haben. DXOMark ist theoretischer und dieser Blindtest eben (für die Mehrheit) Praxisnäher.
BAR86 schrieb:
Kinder, Tiere - oder leute die abends ausgehen, auf Parties Schnapp(s)schüsse machen etc.
Das Problem dabei ist, dass es schwierig wird dort die gleichen Motive zu erwischen... nach dem fünften Purzelbaum mag das Kind dann vielleicht nicht mehr.
h3@d1355_h0r53 schrieb:
Der Test ist einfach zu random so.
Die Alternative wäre, vielleicht beim nächsten Vergleich vor Ort Leute wählen zu lassen. Also mal 50 Leute an EINEM astrein kalibrierten Monitor die Auswahl treffen lassen
Oder zumindest in der Redaktion mal ein paar Leute den Test mehrfach machen lassen auf verschiedenen Monitoren und Smartphones. Da wird nämlich immer was anderes rauskommen
Ich habe das Gefühl, dass Du vollkommen falsche Erwartungen hast.
Hier geht es um einen einfach Leser-Blindtest. Das bedeutet, dass genau diese Randomness erwünscht ist: was gefällt den Lesern im Schnitt.
Wenn Du ein Foto machst und es deiner Familie schickst, schauen sie es vielleicht auf drei unterschiedlichen Gerätearten mit drei unterschiedlichen Display-Typen und -Größen an. Was spielt es da für eine Rolle, wie das Foto auf einem kalibrierten Bildschirm aussehen würde.
h3@d1355_h0r53 schrieb:
Und als Referenz für jedes Bild dann ggf. eine Aufnahme mit Profikamera samt Belichtungsmesser und Farbtafel, damit man ein so "echtes" Bild wie nur möglich hat als Referenz. Denn wenn die Smartphones ihre Verbesserungen reinpumpen, schaut es vielleicht gut aus, nur halt nicht so wie es tatsächlich aussah.
Und das bringt was? Wenn es gerade bewölkt ist, ist es doch ganz schön, wenn der Algorithmus dafür sorgt, dass das Foto deines Kindes etwas mehr gesättigt ist, als es die Realität in diesem Moment war.
Phoenixxl schrieb:
Ergänzung:
Wahrscheinlich ist ein nicht unerheblicher Teil der Abweichungen darauf zurückzuführen, dass sich jeder die Bilder auf einem anderen Bildschirm anguckt.
Die wenigsten werden einen vollständig kalibrierten Monitor verwenden....
Also genau so, wie Leute sich in echt die Bilder anschauen.
Tobias123 schrieb:
Der Titel des Artikels ist "xyz...haben die besten Smartphone-Kameras". Das ist auf meiner Sicht irreführend und schlicht falsch.
Der Titel ist "Leser-Blindtest 2024:...". In meinen Augen trifft der Titel also genau zu. Da steht nirgendwo, dass sie objektiv gesehen die Besten sein.
Ich verstehe nicht, warum es vielen so schwer fällt, zu verstehen, was die Idee hinter so einem Blindtest ist. Es geht einfach darum, herauszufinden, welche Fotos den Leuten gefallen. Dafür muss das Foto keine perfekte Abbildung der Realität sein und es geht auch nicht darum, was der Sensor theoretisch leisten könnte.
Es geht einfach darum, was für Fotos kommen raus, wenn man einfach den Auslöser drückt.