MichaG schrieb:
Also technisch wäre das alles kein großes Problem denke ich.
Das es möglich ist, schrieb ich ja. Aber es ist trotzdem ein großer Aufwand. Mit den meisten Controllern am Markt funktioniert das nicht.
Aber wie du auch schon sagst, die Nachfrage ist gering. Und dafür wird man dann nicht so einen Aufwand betreiben.
Die 4TB sind ja auch erstmal eine Hausnummer.
Unser Testparcours ist eben mehr auf die ganz normale Alltagsnutzung ausgelegt. Wenn ich bei anderen Publikationen lese, dass in deren Tests SSD1 doppelt so schnell wie SSD2 abschneidet, dann wäre ich als Normalnutzer sehr enttäuscht, wenn ich dann im Alltag keinen so großen Unterschied spüre. Ohne solche Tests mit leichtem Workload gäbe es die Erkenntis der geringen Unterschiede im Alltagseinsatz ja gar nicht.
Das kann ich in einem Test pro Jahr zeigen und muss das nicht bei jedem Modell von neuem tun. Das ist einfach nutzlos. Ihr testet auch keine CPU indem ihr ein Spiel in max Setting testet und dann fast alle ins GPU-Limit von 50 fps rennen und kommt zu dem Schluss alle CPU sind gleich. Nein, ihr fordert die CPUs bis zum äußersten und zeigt klar die Performance auf. In anderen Tests zeigt ihr dann zwischendurch was für CPUs für gewisse Spiele benötigt werden, oder was für CPUs man bei welchen Grafikkarten haben sollte.
Wenn ich einen Test lese, möchte ich wissen welche SSD die schnellste ist und nicht ob beim Browser öffnen alle SSDs gleich schnell sind.
Wie sich eine Mainstream-SSD bei einem extremen Workload unter Server-Bedingungen oder anderer Dauerlast schlägt, ist sicher technisch interessant, aber für die meisten überhaupt nicht relevant. Trotzdem haben wir ja mit dem PCMark 8 Consistency Test und Iometer (4k random write, bei QD 32) auch solche "Profi-workloads" im Angebot.
Es geht nicht nur um Enterprisebedingungen, sondern einfach um verschiedene Workloads und gleichzeitige Zugriffe.
Dauerlast und Transferraten bei QD32 ist somit das uninteressanteste was man testen kann, denn das interessiert den Consumer wirklich kaum. Klar ist das auch schön zu wissen, aber da gibt es wichtigeres.
Aber die Kritik ist angekommen und wir sammeln im Hintergrund schon fleißig Anregungen und auch eigene Ideen für einen neuen Testparcours. Persönlich würde ich mir dabei aber mehr Praxistests als (Trace-)Benchmarks wünschen.
Praxisnah ist immer gut, aber Tracebenches, wenn sinnvoll angelegt sind schon ganz gut und auch nicht all zu praxisfern. Andere Benchmarks sind aber auch gut als Ergänzung. Sind ja auch schnell gemacht und solange man nicht nur sinnlos zig Tools durchlaufen lässt die alle das gleiche aussagen kann das ja auch wertvoll sein.
Ihr hattet ja schon mal einen Thread für Ideen eröffnet. Aber davon ist irgendwie so gut wie nichts in den aktuellen Parcour geflossen.
Ich sage nicht, dass der Test hier besonders schlecht ist. Es gibt viele Seiten, da sind die SSD Reviews deutlich schlechter. Aber der Test hier tut auch nichts um sich stark von der Masse abzuheben. Es gibt nur sehr wenige Seiten die wirklich gute SSD-Tests durchführen, aber die sind deutlich aussagekräftiger als dieser Test hier.
JMP $FCE2 schrieb:
Schreibzyklen, Datensicherheit bei langer Lagerung ? Nach dem "Reinfall" mit der 840 Evo bevorzuge ich 2-Bit-MLC, solange der Preisunterschied sich in Grenzen hält.
Aha und da soll planarer MLC-NAND besser sein als 3D-TLC? Woran machst du das fest?
Und vor allem dann noch die MX200 mit ihren performancebugs. Da würde ich lieber ne BX100 nehmen, auch wenn die nominell drunter angesiedelt ist.