demer83 schrieb:
Nur weil die eigenen Lieblingsmodelle dort nicht gut abschneiden, kommt man mit so einem Schwurbler Satz daher: "Das Urteil gekauft ist...." hast du seriöse Quelle die diese These bestätigen?
Naja normalerweise werden zur selben Zeit mehrere Testgeräte an verschiedene Redaktionen verschickt, sodass zu einem ähnlichen Zeitpunkt mehrere Tests auf verschiedenen Platformen verfügbar sind.
Das Magic5 Pro konnte/durfte bisher ausschließlich von DXOMark getestet werden und ausgerechnet da erreicht es in beiden durchegführten Tests die Spitzenposition?
Hinzukommt, dass verschiedene Seiten gemeint haben, dass sie noch keine Tests zu dem Gerät veröffentlichten durften. Ob ihnen das jetzt tatsächlich untersagt wurde oder nicht, aber es hat schon einen etwas komischen Beigeschmack.
Das einzig verfügbare Review ist als von DXOMark, wo in den Tests teilweise absolut nicht nachvollziehbar ist, nach welchen objektiven Maßstäben die Punkte vergeben werden..
Beispiel Display Test: Die Response Time ist der einzig halbwegs objektiv gemessene veröffentlichte Wert im Bereich Touch. Das S23 Ultra erreicht 70ms, das iPhone 14 Pro 62ms, das Magic5 Pro 70ms.
Man würde jetzt erwarten, dass Samsung und Honor damit ähnlich abschneiden und das iPhone leicht in Führung liegt. Schauen wir uns die erzielten Punkte an erhält das Honor 156, das iPhone 142 und das Samsung 139. Die Begründung ist ein Schwammiges: "Es fühlt sich in der Galerie-App und beim Browsen sehr flüssig an."
Es ist interessant, dass man bei der Vergabe der Punkte (die ja ein objektives Ergebnis suggerieren sollen) offensichtlich mehr Wert auf subjektiv empfundene Eigenschaften der Probanden legt und diese Ergebnisse dann noch nicht mal veröffentlicht. Weder beim Test vom Samsung noch beim iPhone wurde auf die Flüssigkeit beim browsen oder in der Galerie eingegangen.
Tut mir leid, aber da finde ja ich die Tests von Chip noch aussagekräftiger.
Und gerade bei den Kamera Tests ist das eher das Standardvorgehen, wie Punkte vergeben werden. Es ist alles extrem undurchsichtig, suggeriert aber durch die Punktvergabe eine Objektivität, die nicht nachvollziehbar ist.
Is ja schön, dass das Gerät in einem Bild weniger rauscht als das andere. Ist das in jedem Bild so, oder ist das gerade einfach ein Ausrutscher? Gibt's da irgendeine statistische Evidenz oder hat man einfach die Bilder rangezogen, die die eigene Aussage untermauern.
Und wenn man dann sogar mal Werte ermittelt hat, die man noch dazu veröffentlicht, dann fließen diese offensichtlich nicht maßgeblich in die Bewertung ein. Beispiel Exposure. Die hier in manchen Tests veröffentlichte Average Entropy lässt zB den Schluss zu, dass das Mate 50 durch die Bank besser abschneidet, als das Magic5. Auch im Text wird das so dargestellt. Das S23 liegt zb hier auch permanent über dem iPhone. schlägt sich das in den Punkten irgendwie nieder? Nein Mate50 und Magic5 sind angeblich gleich gut mit 117 Punkten das S23, das bis auf einen Messpunkt von acht sogar besser als das Magic5 abschneidet und durch die Bank besser als das iPhone, landet bei 105 Punkten und das iPhone bei 111.
Man misst zwar etwas, entscheidet dann aber anscheinend nicht nach dem was man gemessen hat, sondern nach dem gefühlten Ergebnis. Was man dann in vermeintlich objektive Punkte umwandelt.
Kann ja sein, dass sie auch andere Messungen gemacht haben, die ihre Punkte-Ergebnisse untermauern. Aber warum werden die dann nicht veröffentlicht?
Wenn man ein Ranking mit Punkten macht, dann sollte man halt auch nachvollziehbar erklären können, wie diese Punkte zustande kommen, damit eine Vergleichbarkeit sichergestellt ist. Und dann schaut man sich den Test vom iPhone 14 an und sieht, dass hier einfach außer der Endwertung quasi gar nichts veröffentlicht wurde. Man zeigt ein paar Diagramme mit Messungen zwischen iPhone14 Pro Max und iPhone 14 Pro, die interessanterweise teils deutlich voneinander abweichen, obwohl die selbe Kamera verbaut ist, was vermuten lässt, dass die Test-Ergebnisse noch nicht mal konsistent gegenüber der Serienstreuung der Geräte sind.