News SSD-Langzeittest: Nach 1 Jahr und 9,1 Petabyte starb das letzte Exemplar

Gute Erklärung - ich persönlich kaufe ausserdem halt von Firmen, bei denen ich artifizielle "Hardware-Lebensdauerbegrenzungen" vermute, nicht mehr.
Das sind inzwischen etliche und auch nahmhafte, durch die Marktkonzentration wird's allerdings langsam schwierig.
Ich hab meine privaten Samsung Spinpoint F3R 1TB damals noch für je ~40 Euro vor der Krise gekauft, die laufen jetzt bis es knallt und danach kommen wohl keine HDs mehr rein.
 
meint ihr, ich sollte meine beiden SSDs mal defragmentieren? 1 mal schadet bestimmt nicht, ich bin nur neugierig, wie sich das auswirkt auf den benchmark.:)
 
Brauch man nicht und es wird sich genau 0,0 auswirken sondern einfach nur schaden.
 
Base_Dussel, Moment bitte, hast du W7, dann bitte "auf keinen Fall nicht" :) defragmentieren. Hier kontrollieren, ob die automatische Defragmentierung nur für die SSD abgeschaltet ist. Falls sie nach Holt überhaupt in der Defrag-Liste der Laufwerke erscheint.

Hast du ab W8, dann bitte regelmäßig "defragmentieren", nur heißt es hier dann optimieren. Hier bitte die automatische "Defragmentierung" nicht abschalten. Hier wird nur der Trim-Befehl abgesetzt.
 
ist überall komplett abgeschaltet...die HDDs defragmentiere ich alle 6 monate manuell
 
MichaG schrieb:
Nach einem Jahr ist die letzte SSD aus dem Langzeitschreibtest der c't ausgestiegen. Satte 9,1 Petabyte (9.100 Terabyte) hat die Samsung 850 Pro überstanden. Dass auch günstige SSDs ihre spezifizierte Haltbarkeit weit übertreffen können, zeigten die Resultate der Einstiegsklasse.

Zur News: SSD-Langzeittest: Nach 1 Jahr und 9,1 Petabyte starb das letzte Exemplar
Guter und wichtiger Test, danke für die Mühen, der Crucial C300 Poweruser erster Stunde winkt dir mit dem Zaunpfahl Micha :)
 
Cool Master schrieb:
Brauch man nicht und es wird sich genau 0,0 auswirken sondern einfach nur schaden.
Das ist so pauschal nicht richtig, es hängt davon ab wie stark die Dateisysteme fragmentiert sind und da vor allem wie groß die freien Bereiche sind in denen das Testfile des Benchmarks landet. Wenn das in vielen kleinen Fragmenten statt als eine zusammenhängende Datei gespeichert wird, dann ist der Unterschied je nach SSDs schon recht groß, vor allem beim Schreiben. Vergiss nicht, dass selbst die 4K QD32 (CDM) bzw. 4k_64 (AS-SSD) schon wegen des größeren Overheads bei kurzen Zugriffen, nie die seq. Werte erreichen.

Schaden tut das Defragmentieren auch nicht wirklich, es kostet halt Schreibzugriffe, denn Defragmentieren ist eben für eine Platte nichts weiter als Lese- und Schreibvorgänge. Für das Dateisystem bewirkt es, dass die Dateien danach möglichst komplett in aufeinanderfolgenden Clustern stehen und somit auch mit Zugriffen der maximal möglichen Länge gelesen werden können. Außerdem und dies macht sich eben bei Benchmarks auf Filesystemebene wie AS-SSD oder CDM bemerkbar, bewirkt es das sich die freien Bereiche ebenfalls über viele aufeinanderfolgende Cluster erstrecken und neue Dateien somit ebenfalls möglicht am Stück geschrieben und nicht sofort in viele Fragmente verteilt werden. Gab es aber vorher schon einen ausreichend freien Bereich in den die Testdatei am Stück passte, so kann man natürlich keinen Unterschied erbenchen, ebenso wird der im Rahmen der Messgenauigkeit liegen, wenn die Fragmente wenigstens im MB Bereich liegen, nur wenn die nur wenige kB groß sind, wird man den Unterschied im Benchmark sehen, brauchen doch moderne SATA SSDs schon so 256k bis 512k lange Zugriffe um ihre maximalen Transferraten zu erreichen, schnelle PCIe SSDs sogar noch längere.
 
@Holt

Du hast natürlich recht. Daher kaufe ich auch eher Marken HDDs und SSD. Man sieht aber zb bei Externen das oft dann eben Marken zu sehr günstigen Preisen drin sind. Ok OEM aber dennoch. Der Preis ist da echt kaum ein Kriterium. Das ist ja auch bei Lebensmittel bekannt. Also das bei Lebensmittel dann dieselben Hersteller drin stecken.

Ich versuche immer danach zu gehen wie viel Erfahrung bzw Kompetenz eine Firma in Bereichen hat. Also die Firma. Zb Samsung baut selber auch Speicherchips. Die haben eine gewisse Tradition in bestimmten Bereichen. WD hat nun Sandisk gekauft. Dürften die WD SSD auch nicht schlecht sein. Weil eben eine Firma gekauft wurde viel Erfahrung in dem Bereich Speicher.
 
Gerade bei HDDs gibt es nur noch 4 Hersteller, HGST (gehört zu WD), Seagate (verkauft noch einige 2.5" HDDs unter dem Label Samsung, da sie Samsungs HDD Sparte übernommen haben), Toshiba und eben WD. Andere Marken wie i.Norys oder WL Medimax sind keine echten Hersteller, sondern verkaufen "aufbereitete" Gebrauchtplatten, die oft als Neuware angeboten werden. Wie der Thread Neue HDDs vom Händler – wirklich unbenutzt? zeigt, kann man aber auch unter dem Label der echten Hersteller gebrauchte HDDs mit zurückgesetzten S.M.A.R.T. Werten im Handel finden, also Finger weg von älteren Modellen, vor allem der Enterpriseklasse, die angeblich länger unbenutzt irgendwo rumgelegen haben sollen.
 
Mit welchem Programm kann man das auslesen, wie viel schon auf die SSD geschrieben wurde?
 
Okay danke, tut es :)
Meine zwei Jahre alte Samsung 830, 12,4TB Host-Schreibvorgänge.
6474 mal Eingeschaltet :eek:
 
Bei den Samsung SATA SSDs muss man auf das Attribut B1 achten, dort steht im Rohwert wie viele P/E Zyklen die NANDs runter haben und der aktuelle Wert zeigt an, wie viele Prozent (abgerundet durch Abschneiden der Nachkommastellen) der spezifizierten P/E Zyklen noch übrig sind.
 
Der Test liefert schonmal interessante Information.

Jetzt fehlt es noch an einem anderen Langzeittest, den Computerbase schon in Ansetzen praktiziert: die Haltbarkeit der Daten.

Samsung hatte mit der Einführung der Tristate-Technik schon das Problem, daß die Leseleistung gesunken ist. Ich habe zumindest den Verdacht, daß meine OCS Vector 180 Daten, die etwas länger liegen korrumpiert werden, die Prüfsummen haben sowas aber offenbar nicht abgefangen.

Ich verwende fast täglich ein VM-Ware-Image. Die zugrundeliege Basis ist schon viele Jahre alt, es kommt nur ab und zu ein Snapshot hinzu. Eines Tages gab es nur noch einen Bluescreen beim Booten. Der Binärvergleich mit dem Backup ergab, daß sich das *vmdk-File einfach so verändert hat, von einem Tag auf den anderen, ohne Update vom Zeitstempel.

Meine Vermutung ist, daß die eingebrachte elektrostatische Ladung im Gate nicht zuverlässig erhalten bleibt. Vor 20 Jahren sprach man von 20 Jahren, aber bei der aktuellen Miniaturisierung bei gleichzeitig erhöhter Transostorzahl, könnte öfter mal eine Zelle versagen. Die Tristate haben meinem Verständnis ja auch noch einen weiteren Zwischenwert, der sich vermutlich noch schlechter flashen läßt und auch problematischer beim Auslesen ist. Die sinkende Leseleistung der Samsung EVOs deutet darauf hin. Daß der Spannungslevel sinkt, könnte die Ursache sein, weshalb beim FW-Update bei Samsung alle Daten umkopiert wurden. Womöglich wird das nun auch im Hintergrund im Rahmen des Garbagde-Collection gemacht, daß auch alte Zellen umkopiert werden, ganz ohe Zutun des Anwenders.

Hier wäre auch interessant, ob sich das bei den SMART-Werten bemerkbar macht oder diese nur die Daten anzeigen, welche von außen durch den Controller wandern.
 
Wenn Du meinst die Daten werden korrupt, dann poste doch mal die Screenshot von CrystalDiskInfo für die SSD und die Backupplatte, ziehe aber bitte das Fenster soweit auf, dass alle Attribute und auch die Rohwerte vollständig sichtbar sind.

Außerdem würde ich einen RAM Test mit Memtest86 (oder Memtest86+) empfehlen, denn korrupte Dateien und sind mehr noch als Abstürze typische Zeichen für RAM Fehler. Teste alle Riegel so wie sie eingebaut sind, ändere da nichts und lass auch die BIOS Einstellungen so wie sie unter Windows betrieben werden, genau so müssen sie ja auch fehlerfrei laufen. Wenn es keine Fehler gibt, warte 6 PASS ob es so bleibt und wenn es Fehler gibt, teste zuerst mit den Standardeinstellungen neu, sollte übertaktet worden sein und danach teste die Riegel einzeln um zu sehen ob einer defekt ist oder ggf. eine andere Ursache vorliegt warum die möglicherweise auch fehlerfreien Riegel nicht fehlerfrei zusammenarbeiten wollen.
 
Das System selber gibt es nicht mehr, die SSD gibt es noch:
CDI OCZ Vector 180.png
Das seltsame war, daß die Datei, auf der Datenpartition, sich seit Jahren nicht geändert hat. Dann abends ausgeschaltet und früh hat die VM schon nicht mehr gestartet. Mit dem zurückgespielten Backup hat es wieder funktioniert (nur die vmdk-Datei zurückgeholt.
Mit Beyond-Compare hat es nur angezeigt, daß es Unterschiede gab, leider nicht wieviel und welche.

Es kann natürlich auch sein, daß ein anderes Schreibkommando eine falsche Adresse erwischt hat, da war doch mal was, daß Adressdaten bei SATA nicht CRC-geschützt sind.

Was war denn nun die Ursache für die Probleme mit den Samsung-SSDs? Gab es da ein offizielles Statement?
 

Ähnliche Themen

Antworten
2
Aufrufe
5.070
J
Zurück
Oben