Hm naja, dann ist das eben so, imho...nicht umsonst sollen das doch Anwendungstests sein. Das Ziel sollte nicht sein den Benutzern zu zeigen, was die rein theoretisch maximale Performance ist, sondern die im Alltag zu erwartende. Einerseits bedingt das ein installiertes und laufendes OS (da die SSD wohl vorwiegend auch als OS-Laufwerk benutzt wird) und zweitens wenn möglich alltagskonforme Bedingungen. Wenn die GC/PRF so unterschiedliche Ergebnisse liefern, dann werden sie das auch im Alltag tun.
Natürlich muss noch eine gewisse Vergleichbarkeit bestehen, doch ich finde man kann sich auf eine Testabfolge festlegen (Image draufklatschen, synthetische Tests, HDDErase & Image draufklatschen (oder auch nicht), praktische Tests mit gleicher Reihenfolge) und damit hat sich's. Wenn dann GC/PRF findet sie müsse in der Zeit nicht arbeiten, dann ist das Pech und sowas wird den User auch im Alltag erwarten.
Meiner Meinung nach sollte es als Tester nicht die Pflicht sein zu zeigen, was die SSD rein theoretisch leisten kann (das macht man ja bei synthetischen Benches), sondern was sie im Alltag leistet, wenn schon Praxistests herangezogen werden. Denn ein Image auf einer leeren Partition zu entpacken ist, imho, nicht so das Anwendungsbeispiel einer SSD. Von den Indilinx weiss ich zumindest, dass sie massiv an Performance einbüssen, wenn das OS drauf läuft bzw. sie nicht komplett "jungfräulich" ist (das kann dir wohl auch Snoopy bestätigen). Bei der Intel ist das definitiv nicht so, bei der Samsung weiss ich's nicht. Aber das sind alles Faktoren, welche die Werte extrem verändern können - sowas muss beachtet werden, wenn mit "Anwendungsbeispielen" hantiert wird. Alles andere liegt für mich fast schon im synthetischen, denn die Bedingungen sind alles andere als praxisnah.
Ist meine Meinung