News SSD-Langzeittest: Nach 1 Jahr und 9,1 Petabyte starb das letzte Exemplar

Ist ja gar nichts :D
Screenshot 2017-06-26 13.19.44.png
 
Respekt an die Hersteller, dass sie die TBW-Werte tatsächlich so konservativ angeben. Hatte zwar mal eine Sandisk die nach einem halben Jahr den Geist aufgegeben hat (es ging gar nix mehr, nicht mal erkannt wurde sie), aber solche Montagsgeräte gibts immer.
Bei Samsung bisher (5 Jahre?) alles gut *Klopf auf Holz*
 
Die TBW ist ja auch letztlich einfach nur eine Einschränkung der Garantie. Die TBW soll ja nicht angeben ab wann die SSD kaputt geht sondern nur ab wann der Nutzer keine Garantieansprüche mehr hat.

Je geringe die TBW Angabe ist desto geringer die Kosten für Garantiefälle.
 
Das heißt meine alte Samsung SSD 830 256GB mit 2D-MLC sollte sehr viel länger halten, als meine Q300 960GB mit TLC. Wobei die Samsung eigentlich schon ein bisschen kaputt ist. Der Kunststoff von ihrer SATA-Strombuchse steckt im Stecker vom Netzteil. :D

Aber die Differenz zwischen MLC und TLC ist schon gigantisch.
 
Bin mit meinen aktuellen SSDs bis jetzt recht zufrieden, pro PC eine Samsung 840EVO mit 250GB, bisle eng für System und paar Anwendungen, die nächste wird halt 480+GB :p

System 1 ist eine Lenovo Office Kiste mit Dual Core Sandy Bridge Pentium G640, 8GB Ram. System 2 "Spiele" Pc mit Sandy Bridge i7 2600, 16GB Ram, gtx750ti, reicht für Minecraft, WoW und andere Blizzard Spiele.

Beide System laufen mit den SSds nun 3 bzw 2 Jahre, fast durchgehend :rolleyes:

ssds.png

Was mir beim vergleichen der Platten noch aufgefallen ist das die Platte im Office Rechner noch eine alte Firmware hat, auf dem Spiele PC hab ich "Samsung Magician" drauf der das updaten ziemlich einfach macht.

Hab diese mit dem Gedanken gekauft das ich sie eh ersetze nach dem MHD aber noch sind sie genießbar, meine erste SSD Kingston SSDNow 64GB staubt hier irgendwo noch rum und wartet drauf in ein Notebook gepflanzt zu werden, was für SMART Daten die hat kann ich grad nicht sagen.
 
konkretor schrieb:
Reicht wenn dir die Sicherung fliegt aus irgendwelchen Gründen
Ja, ich habe schon Fälle gesehen wo nach eine Spannungsausfall trotz einsetzender USV, redundantem Netzteil etc. alle Blades eine Bladecenters hin waren, während die Blades in den anderen Bladecentern einfach weiterliefen. Das hat den Serviceanbieter sein ganzes Ersatzteillager dieser Art von Blades gekostet. :D
firexs schrieb:
Und wie lange hält die SSD, wenn man noch realistisches Ein- und Ausschalten hinzunimmt...
Sofern man den Rechner korrekt runterfährt, sollte das Ein- und vor allem Ausschalten kein Problem sein.

Axxid schrieb:
Und meine alte OCZ Agility 3 macht langsam Probleme. Könnte auch ein Treiberproblem sein. Wobei ich nachsehen müsste was da an Daten durch gegangen ist..
Wenn die SSD langsam Probleme machen, sind die NANDs schuld, die bei der Agility verbauten sind sicher nicht die besten. Auch scheint die im Idle eine hohe WA zu produzieren, also die Daten oft zu refreshen. Vergleiche mal die Rohwerte der Attribute E9 und EA, der Rohwert von E9 durch den von EA geteilt, ergibt die WA. Meine Agility3 ist schon bei über 3,3, die läuft im Rechner immer mit, aber es werden kaum mal die Daten gelesen und praktisch nie was geschrieben.

user2357 schrieb:
Na weil ein Großteil der M.2 Module SATA sind, deren Steckplätze über die Southbridge angebunden werden.
Ein Großteil mag heute noch stimmen, aber PCIe wird SATA als Schnittstelle für SSDs eher früher als später ablösen. M.2 SATA SSDs dürften dann verschwinden und auch M.2 Slot die eine (zusätzliche) SATA Anbindung haben, dann seltener werden.

engine schrieb:
Ich frage mich mittlerweile, warum sich um dubiose Tipps kümmern, um eine SSD (meine 850-EVO 250 GB) zu schonen?
Diese Tipps haben ihren Ursprung darin, dass die ganz frühen SSDs beim Schreiben sehr lahm waren, vor allem bei kurzen zufälligen Schreibzugriffen. Ein JM602 Controller konnte sich da schon mal bis zu 2s Bedenkzeit gönnen, da machte es eben Sinn Schreibzugriffe möglichst zu vermeiden. Spätestens mit Intels erste X25 und denn den Indilinx Controllern, was dies aber vorbei und SSDs konnten dank des Caches bei 4k QD1 schneller schreiben als lesen, schalte mal den Schreibcache aus und Du siehst wie lahm die dann werden. Nur hat man diese Tipps dann trotzdem nicht begraben, sondern die Vermeidung der Schreibzugriffe dann mit dem Argument der Schonung der SSD weiterhin empfohlen, offenbar verkauft man sich so besser als Fachmann als wenn man schlicht sagt, dass Windows sein Win7 SSDs unterstützt und schon alles selbst optimal einstellt. :cool_alt:

Das diese Tipps aber spätestens mit Win 7 total überflüssig geworden und eine Schonung der SSD unnötig ist, wird hier im Forum schon sehr Jahren geschrieben.

drago-museweni schrieb:
habe ich eine Vertex 2 die dieses Jahr 7Jahre alt wird und noch im Einsatz ist.
Meine hat keine 1½ Jahre gehalten, dann wurde sie ein Garantiefall und von OCZ durch die Agility 3 ersetzt, die jahrelang ungenutzt im Schrank lag und nun ein paar alte VM beherbergt, die ich aber ewig nicht mehr benutzt habe. Läuft die an dem RYZEN System? An den Intel SATA Ports ab den Haswell Chipsätzen, zumindest an den SATA 6Gb/s, machen die ganze SF-1222 SSDs nämlich Probleme weil der Controller die elektronische SATA Spezifikation nicht korrekt einhält.

N1truX schrieb:
Ich finde den Test von der c't ziemlich nichtssagend. Getestet wurde mit h2bench und damit absolut praxisfern.
Echt jetzt? Also hat heise von SSDs noch immer keine Ahnung oder wollte mit Absicht extrem vorteilhafte Werte produzieren.

Getestet wurden doch diese 6 SSDs:
Wie kommt heise dann dazu diesen Satz im Fazit zu schreiben:
Micron, Samsung, SanDisk und Toshiba sind allesamt NAND Hersteller, man kann also allenfalls bei der BX200 oder 750 Evo von Billig-Modellen reden, aber nicht von Billig-Marken, oder gab es einen zweiten Endurance Test mit anderen Modelle?

Es gab wohl in der Ausgabe 3/2017 einen Test der Drevo X1, Goodram CX200, Kingdian S280, Silicon Power S60 und die Teamgroup L7 evo, aber wurden die auch bis zu Ende beschrieben? Selbst wenn ja, wie kommt heise zu dieser Aussage über die TBW Angaben von Billig Marken, denn bei Drevo finde ich gar keine Aussage zur TBW der X1, bei Goodram keine zur TBW der CX200, bei Kingdian komme ich nicht auf die Homepage einzig newegg nennt 90TB TBW für die KingDian S280 120GB. Silicon Power macht zur S60 keine TBW Angabe und bei Teamgroup muss ich es für die L7 evo wohl auch übersehen haben, oder es fällt unter den Hinweis: "We reserve the right to modify product specifications without prior notice."

N1truX schrieb:
Unter realen Bedingungen dürfte die TBW deutlich kleiner ausfallen. Für gewöhnlich spricht man beim Dynamic Wear Levelling von Faktor 10-25.
10 bis 25 ist wohl eher Worst Case, Anandtech hatte für die 850 Pro mal 11 im Steady State ermittelt und je mehr OP die haben, umso geringer fällt der Wert aus. Bei Heimanwendern würde ich eher so 2 bis 4 als typisch ansehen, sofern die S.M.A.R.T. Werte es erlauben dies zu berechnen. Bei den immer mehr in Mode kommenden SSDs ohne DRAM Cache dürfte der Wert aber höher ausfallen.

beckenrandschwi schrieb:
Naja, meine 120GB V300 ist nach 2TB defekt gegangen...
Das ist auch ein Billig Modelle einer SSD von einem Anbieter ohne eigene NAND Fertigung und genau wegen solcher Fälle habe ich eben meine starken Zweifel an der Aussage von heise, wonach auch SSDs von Billig Marken locker lange genug halten und empfehlen grundsätzlich nur SSDs von NAND Herstellern oder deren Tochterfirmen zu kaufen, eben solche wie heise sie auch nur getestet hat.

1.21Gigawatt schrieb:
Hatte zwar mal eine Sandisk die nach einem halben Jahr den Geist aufgegeben hat (es ging gar nix mehr, nicht mal erkannt wurde sie), aber solche Montagsgeräte gibts immer.
Plötzliche Ausfälle ohne Vorankündigung habe andere Ursachen als verschliessene NANDs, die kündigen sich daher auch nicht an. Wie bei HDDs gibt es nur dann Ankündigungen, wenn das Medium das Problem ist, nicht aber wenn z.B. der Controller plötzlich kaputt geht.
1.21Gigawatt schrieb:
Bei Samsung bisher (5 Jahre?) alles gut *Klopf auf Holz*
Es kann mit jeder SSD passieren und die Teile darin altern auch, es ist ja nicht nur NAND verbaut, schon eine defekte Lötstelle kann die SSD außer Betrieb setzen. Das Ewige Leben haben die restlichen Komponenten einer SSD auch nicht, die dürften vielleicht 5, 10 oder auch 15 oder 20 Jahre halten, Hochrechnungen der Lebensdauer alleine auf Basis des NAND Verschleißes die dann auch Jahrhunderte hinauslaufen, sind daher immer mit dieser Einschränkung zu sehen. Backups schützen übrigens im Zweifel vor Datenverlust, der ja nicht nur durch HW Ausfälle auftreten kann.
 
Weiss jemand was eine Samsung 830 512GB mitmacht?
Hab' schon das halbe Netz durchsucht, aber quasi nichts gefunden.
 
@N1truX:
Falsch, oder nicht? Unter realen Bedingungen fällt die TBW höher aus, da ja nicht immer jeder Sektor beschrieben wird und die stark beanspruchten umgelagert werden.
Wenn dann die erste Zelle bei absolut gleichmäßiger Nutzung ausfällt wäre das ohnehin der worst case gewesen; die erste, instabilste Flashzelle kann nicht mehr beschrieben werden. Wear leveling hätte die Last umverteilt auf bisher weniger oft beschriebene Zellen, und damit länger gehalten.
Imo daher Testmethodik 1A, bildet den absoluten worst case ab.
 
Holt schrieb:
...
Das diese Tipps aber spätestens mit Win 7 total überflüssig geworden und eine Schonung der SSD unnötig ist, wird hier im Forum schon sehr Jahren geschrieben.
...

Ab Windows 10 auf jeden Fall, wenn W10 die SSD korrekt erkennt, sollte aber schon so sein.
Bei Windows 7 würde ich keine SSD betreiben ohne vorher einiges zu kontrollieren.

In ungünstigen Fällen wird dann doch defragmentiert, was wirklich völlig unnötig ist bei einer SSD.

Nachtrag:
ich wollte dir damit nicht widersprechen, sondern eher zustimmen, aber bei W7 doch zur Vorsichtig raten. Hatte mal so einen Fall. War aber keine Neuinstallation.
Hier gehts dann ausführlicher weiter:
https://answers.microsoft.com/de-de...imierung/cf3bb519-28e0-439d-b06e-f3e793b32501
 
Zuletzt bearbeitet:
@Holt

Manchmal scheinst du schon arg voreingenommen.
Das die c't die Laufwerke vollständig löscht und beschreibt ist einfach eine der möglichen Methoden um die Ausdauer zu testen. Das damit einige Effekte der Selbstverwaltung der SSDs ausgeblendet werden ist bekannt und steht glaub sogar in den käuflichen Artikeln. Die Aussage die bei einem solchem Test herauskommt ist eben über den Daumen, dass man die SSDs bzw. Flashzellen anscheinend X-Mal beschreiben kann und das die SSDs etwaige Fehler anscheinend ganz gut abfangen. Andere Methoden erlauben andere Aussagen und sind damit in der Regel genauso berechtigt wie diese Methode.

Der Text den du in Bezug auf die "billigen" SSDs von heise zitiert enthält im Original sogar einen Link auf den Artikel mit den getesteten SSDs von "billigen Marken". Wobei die zum Erscheindatum des Artikels so billig nicht waren, da die Preise für Flashmedien zu diesem Zeitpunkt enorm angezogen hatten. Der Artikel enthält sogar eine Betrachtung zu den Beschaffungswegen von Flash für die Marken ohne eigen Fertigung von Flashspeicher und wieso deshalb die Testwerte auch nur eine Momentaufnahme darstellen können.
 
Ist doch eine gute Nachricht: Endlich keine Mogelpackung (Obsoleszenz) bei Hardware.
 
Schaltet so eine Festplatte eigentlich auf Read-Only, oder ist der Datenträger dann disfunktional?
 
Ich habe SSD's fast seit sie raus kamen und hatte nie irgendwelche Probleme mit dem Speicher, dafür hatte ich aber schon 2 Stk., die nicht mehr erkannt wurden, von etlichen Petabyte war ich da weit weg.
Ist wahrscheinlich wie bei LED Lampen, die LEDs halten ewig, aber dafür die Treiber nicht.
 
Zuletzt bearbeitet von einem Moderator:
taxishop schrieb:
Es geht erstens um die Geschwindigkeit, die bis 4x mehr ist und um die Möglichkeit, ein Notebook oder ein Mini/NUC System aufzubauen, der 10x10cm groß ist. M2 wird über PCI verbunden, hat einen anderen controlller, etc. Vielleicht sind nur die TLC Bausteine die gleichen, sonst nichts, wie kommst du darauf, dass Sata SSD = M2?
m.2ist nicht m.2

Es gibt in 2 Spielarten:

-SATA auch als ngff bezeichnet (nutzt eine SATA / AHCI Anbindung via PCIe): zum Beispiel die 850 evo welche auch als m.2 angeboten wird oder auch die MX300 von crucial/micron.

m.2 S-ATA entspricht dem mSATA Standard der anstelle m.2 Anschluss mit dem älteren miniPCIe gearbeitet hat.


m.2 NVME ist PCIe basierend und weicht im controlerdesign deutlich von m.2 S-ATA Modellen ab (diese haben oft nur einen Bridge-Chip).

tmkoeln
 
Nebula123 schrieb:
Weiss jemand was eine Samsung 830 512GB mitmacht?
Bei xtremesystems.org war damals eine 830 64GB etwa 400TB und knapp 15.500 P/E Zyklen (also Faktor 5 mehr als die spezifizierten 3000) gekommen,. Aber dort sind die Testbedingungen härter, es wurde mit Anvils Benchmark getestet und dabei eine gab es einen bestimmten Anteil statischer Daten auf der SSD, die WA war also sicher höher als bei heise, so knapp bei 2,5. Mit 8 mal so viel NAND sollte die 830 512GB also auch etwa 8 mal so viel schaffen.

Merle schrieb:
Unter realen Bedingungen fällt die TBW höher aus, da ja nicht immer jeder Sektor beschrieben wird und die stark beanspruchten umgelagert werden.
Aber deswegen fällt die erreichbar TBW niedriger aus, was höher ausfällt ist die WA (Write Amplification).
Merle schrieb:
Imo daher Testmethodik 1A, bildet den absoluten worst case ab.
Meinst Du die Methode bei heise? Nein, ist bildet den Best Case ab, Worst Case ist eine volle SSD nur mit 4k random Writes zu beschreiben, also das glatte Gegenteil von dem sequentiellen Überschreiben welches heise offenbar durchgeführt hat.

engine schrieb:
Bei Windows 7 würde ich keine SSD betreiben ohne vorher einiges zu kontrollieren.

In ungünstigen Fällen wird dann doch defragmentiert, was wirklich völlig unnötig ist bei einer SSD.
Das ist Quatsch, denn der Scheduler des Defragmentierdienstes wirft SSDs nach dem Klonen sofort raus, habe ich selbst mal ausprobiert und man kann sie auch nicht von Hand dort eintragen! Man kann sie allenfalls manuell defragmentieren lassen, aber eben dann bewusst und so ganz unnötig ist dies auch bei SSD zuweilen nicht, da auch die bei kurzen zufälligen Zugriffen langsamer als bei langen sequentiellen Zugriffen (ATA erlaubt mit einem Befehl einen LBA und bis zu 2^16 darauf folgende Sektoren zu adressieren, also bis zu 32MiB bei 512 Byte/LBA) sind, aber wenn Dateien fragmentiert sind, was ja eine Sache des Filesystems ist, dann werden eben auf langen sequentiellen Zugriffe wie sie auf Dateien möglich sind die in einem Fragment vorliegen, viel kurze auf die einzelnen Fragmente. Obendrein bedeutet das mehr Verwaltungsaufwand für das OS.

Im übrigens defragmentiert der SSD Optimierer von Win 8 und höher auch SSDs, aber nur ganz leicht und nur wenn die Fragmentierung einzelner Dateien extrem wird.

Piktogramm schrieb:
Das die c't die Laufwerke vollständig löscht und beschreibt ist einfach eine der möglichen Methoden um die Ausdauer zu testen.
Anvils Benchmark bietet auch eine Möglichkeit dafür und selbst mit deren Methode hätte man vermutlich auch einfach einen Teil statischer Daten auf den SSDs lassen und nur den (größten Teil vom) Rest überschreiben können.
Piktogramm schrieb:
Andere Methoden erlauben andere Aussagen und sind damit in der Regel genauso berechtigt wie diese Methode.
Nur sollte man dann weniger die PB in den Vordergrund stellen, sondern die erreichen P/E Zyklen, da die letztlich entscheidend sind, wobei die aber von der Betriebstemperatur abhängen (je wärmer umso mehr) und dann zusammen mit der real erzielten WA das maximale Datenvolumen ergeben.

Piktogramm schrieb:
Der Text den du in Bezug auf die "billigen" SSDs von heise zitiert enthält im Original sogar einen Link auf den Artikel mit den getesteten SSDs von "billigen Marken".
Aber wurde auch die Haltbarkeit bei denen getestet? Das ist doch der springenden Punkt, da die Aussage ja ist, dass auch Billig Marken die TBW konservativ angeben, diese Werte also in der Praxis überschritten werden dürften. Nur fehlen bei den Billigmarken die TBW Angaben oft vollständig und der Test bei heise ist mit dem komplett sequentiell überschreiben auch der Best Case, real werden solche SSDs recht stark gefüllt sein und auch mit vielen zufälligen Schreibzugriffen beschrieben werden.

Wenn heise nur einen einfachen Review dieser Billig Marken SSDs gemacht hat diese ebenfalls bis zum Ende kaputt zu schreiben, dann wäre die Aussage wonach auch Billig Marken die TBW konservativ angeben, komplett aus der Luft gegriffen, was sie sowieso wegen der oft fehlenden Angaben der TBW ist. Ich halte diese Aussage für unseriös und wenn man die Rezessionen z.B. bei Amazon USA über die Drevo liest, so sind dort eine ganze Menge nach kurzer Zeit ausgefallen oder waren schon DoA, was typischerweise auf eine so geringe Data Retention Time hindeutet, dass die NANDs sogar die FW der SSD "vergessen" haben. Die aus der ersten Lieferung waren wohl noch besser als die aus nachfolgenden Lieferungen.
 
@Holt
Du stellst Mutmaßungen in den Raum und das offensichtlich ohne die Artikel zu kennen, geschweige denn den frei zugänglichen Anreißer davon. Gönn dir den Artikel für 1,49€, dann können wir über Inhalte Diskutieren anstand über Hirngespinste.
 
Hmm da ist wohl meine 840 pro 256gb mit
17tb host-schreibvorgänge
2432 mal eingeschaltet
17583 Arbeitsstunden

Noch recht jung:rolleyes:
 
Also kann man diese "Top 10 SSD Optimierungstipps, welche man zuhauf im Internet findet und welche die Deaktivierung von bestimmten Programmen und Diensten empfehlen, stellenweise getrost ignorieren. So z.B. den Tipp, die Auslagerungsdatei nicht auf eine SSD schreiben zu lassen oder Indexing abzuschalten.
Meine 250GB 850 Evo SSD von Samsung hat gerade mal 19,36 TB geschrieben und ist damit weit, weit von kritischen Werten entfernt. Und die SSD wird seit zwei Jahren eingesetzt.

Langfristig sind SSDs die besseren Speichermedien, auch wenn der Preis pro GB noch vergleichsweise hoch ist. Neue Technologien machen sie aber immer größer, schneller und günstiger, während die traditionellen HDDs langsam an das Ende ihrer Möglichkeiten kommen. Und diese können aus mechanischen Gründen viel früher verschleißen und Daten verlieren, während SSDs bis zum Schluss (fast) normal arbeiten und dann einfach den Dienst quittieren. Das ziehe ich ehrlich gesagt gegenüber einem schleichenden Tod vor, während die HDD langsam Daten vernichtet.
 

Ähnliche Themen

Antworten
2
Aufrufe
5.070
J
Zurück
Oben