PcDepp, erstmal willkommen im Forum.
PcDepp schrieb:
Ist die SSD also nun wirklich schon im Eimer, nach nur einem Jahr oder ist es vielleicht eine Fehl-Analyse?
Viele S.M.A.R.T. Werte sind offenbar falsch und auf 0 zurückgesetzt, der Controller hat offenbar die korrekten Werte schon nicht mehr aus dem NAND auslesen können. Der Wert 1 bei E7 bedeutet, dass alle Reserveblöcke verbraucht sind, das NAND ist also platt und das passt auch zu den zurückgesetzten S.M.A.R.T. Werten, wie denen zu den gelesenen und geschriebene Datenvolumen. Immerhin kann man noch auslesen, dass die SSD 6678GB in die NANDs geschrieben hat, was bei 128GB dann grob 52 mal die Kapazität ist. Aber keiner kann sagen wie verlässlich die Werte sind, zumal es eigentlich nicht sein kann, dass alle Reserveblöcke verbraucht wurden, wenn es gerade einen unkorrigierbaren Fehler, eine Wiederzuweisungsereignisse, Programm- oder Löschfehler gab.
Das Teil ist ein Garantiefall und die Ersatz-SSD würde ich verkaufen aber nicht selbst behalten, denn Corsair ist einer der Hersteller ohne eigene NAND Fertigung und da wird eben gerade mal auch NAND minderwertiger Qualitäten verbaut. Zusammen mit der Kapazität von 128GB, die beim Sandforce 2281 nur durch Verziicht auf die RAISE Fehlerkorrektur, die ist sowas wie ein internes RAID 5 über NAND Blöcke hinweg und kann den Ausfall einzelner Blöcke kompensieren, ergibt das mit etwas Peche eine SSD die nicht sehr lange durchhällt. Von denen habe ich immer abgeraten und kann Dir nur empfehlen eine Samsung 850 Evo oder Crucial BX100 zu nehmen, die sind besser und beides Hersteller mit eigenes NAND Fertigung!
ghostwriter2 schrieb:
mit h2testw getestet, mit einer Fehlermeldung "Datenträger schneller als erwartet voll".
Das ist normal, da die Metadateien des Filesystem bei großen Volumen schneller wachsen als heise es erwartet hat. NTFS speicher seine Metadaten (also Verwaltungsdaten) in Dateien, die sieht man auch normal nie, deren Namen fangen alle mit einem $ an. h2testw ist recht alt und wurde zum Test von USB Stick und Speicherkarten entwicklet, die sind meist mit FAT formatiert, wo die Verwaltungsdaten einen festen Bereich haben und daher ist auch die Anzahl der Dateien bei FAT limiert, dafür ändert sich die Größe der Metadaten nicht und man kann alle Bytes die nach dem Formatieren zur Verfügung stehen auch wirklich beschreiben. Entwickler von h2testw haben schon bei NTFS Partitionen vorgesehen, dass die Metadateien wachsen und das Tool schlägt ja von selbst auch vor weniger zu testen als zur Verfügung steht, nur haben sie damals eben unterschätzt wie große diese Metadateien bei großen Volumen werden und daher der Fehler am Ende weil der Platz ausging. Das hat also nichts mit der HW zu tun.
Den Fehler kann man dann aber getrost ignorieren und trotzdem die Daten prüfen lassen, was dann auch ohne Fehler passieren sollte.
Guten Rutsch!