Langlebige NVMe SSDs?

Stannis schrieb:
In allen Tests lese ich immer nur von Geschwindigkeit und Preis
was du vermutlich suchst ist die Zuverlässigkeit (MTBF) , Samsung gibt für die 990 Pro 1,5 Millionen Stunden Ausfallsicherheit an!
 
Rickmer schrieb:
Da es sowieso meistens der Controller ist - sofern man eine SSD nicht völlig zweckentfremdet / falsch demensioniert - sehe ich da keinen Vorteil.

Hä? Wir reden hier auch nicht über individuelle Use Cases, sondern darüber, dass MLC einfach faktisch hochwertiger ist als TLC, da er höhere Geschwindigkeit bietet und weniger anfällig für Ladungsverlust ist.
 
  • Gefällt mir
Reaktionen: madmax2010
BmwM3Michi schrieb:
Zuverlässigkeit (MTBF)

BmwM3Michi schrieb:
1,5 Millionen Stunden Ausfallsicherheit
Das sind total unnütze Angaben der Hersteller.
Damit kann man sich den Popo sauber machen.
In dem Beispiel wären das 171 Jahre bei 24/7-Betrieb.

Eine SSD / HDD kann 20 Jahre halten oder schon nach zwei Wochen kaputt gehen.
 
  • Gefällt mir
Reaktionen: Ja_Ge, qiller und madmax2010
Banned schrieb:
sondern darüber, dass MLC einfach faktisch hochwertiger ist als TLC, da er höhere Geschwindigkeit bietet und weniger anfällig für Ladungsverlust ist.
das ist ja auch absolut korrekt, nur sind moderne TLC Chips meist weniger Schuld am Tod der SSD als der Controller
Rickmer schrieb:
Wenn extrem viele Writes benötigt werden, gab es oben schon einen besseren Vorschlag:
thx. habe auch mal den bösen typo korrigiert..

DHC schrieb:
Das sind total unnütze Angaben der Hersteller.
yep. Das war schon bei HDDs schwachsinn
 
Rickmer schrieb:
Auf 'die eine unkaputtbare SSD' setzen ist Irrsinn
Genauso wie auf "die eine unkaputtbare HDD". Auch wenn es bei der HDD wohl eher mechanisches Versagen ist und man tatsächlich noch realistische Chancen hat, auf die Daten zuzugreifen.
Im Endeffekt ist es ja egal, welches Speichermedium. Ist es nur eines, ist die Backup-Strategie schon fehlerhaft.
 
  • Gefällt mir
Reaktionen: Ja_Ge, Bully49, qiller und 2 andere
Banned schrieb:
Nein, da kein MLC-NAND. Für mich hat die Sparte auch mit PRO nichts mehr zutun, seit sie da auf MLC-NAND verzichten, aber ist nur meine Meinung. Leider ist MLC-NAND mittlerweile schon fast ausgestorben.
Danke für die Information. Wieder was gelernt ...

Tja, das Lernen nimmt kein Ende.
 
MTBF ist eine statistische Angabe, entsprechend ergibt sie auch nur bei statistisch relevanten Stückzahlen Sinn. Ungefähr wie Krebsraten...
 
Rickmer schrieb:
Da die schwerwiegensten Aufälle die sind wo der Controller statt dem DRAM stirbt ...
Rickmer schrieb:
Da es sowieso meistens der Controller ist...
madmax2010 schrieb:
...nur sind moderne TLC Chips meist weniger Schuld am Tod der SSD als der Controller ...
Auch wenn das für die Betroffenen keinen Unterschied macht, da wenn ausgefallen die Ursache fast egal ist, der eigentliche Controller auf einer SSD geht quasi nie kaputt. Den bekommt man nur kaputt durch falsches Handling und daraus folgenden mechanischen oder ESD-Schäden. Der ist genauso ein solider Siliziumblock, der quasi nicht altert wie eine CPU, die auch nicht kaputt geht bei normaler Benutzung.

Die meisten Probleme, wenn Leute über Controllerprobleme reden, sind FW-Probleme. Das ist die SW, nicht die Hardware. Consumer SSDs sind z.B. echt nicht gut was das Powerfail Verhalten angeht. Und jeder Powerfail birgt Gefahren von inkonsistenten Daten und dazu gehört auch die FW und deren Verwaltungsdaten. Es gibt natürlich "richtige" FW-Bugs die für Probleme sorgen. Aber in nicht wenigen Fällen ist die FW auch nur Opfer von anderen Problemen. Hatte schon öfter Fälle gesehen, wo Leute sich über ausgefallene SSDs beschwert haben und im Gespräch kam dann raus, dass es eine Vorgeschichte gibt, wie z.B. Übertaktungsversuche mit Systemabstürzen und irgendwann waren die Daten der FW dann halt auch mal inkonsistent. Das soll die Schuld keinesfalls auf die User abwälzen, aber oft wird sowas nicht genau genug betrachtet, wenn man auf Ursachenforschung geht.

Banned schrieb:
... dass MLC einfach faktisch hochwertiger ist als TLC...
Nein, ob nun SLC, MLC, TLC oder QLC hat nichts mit hochwertig oder nicht zu tun. Eine TLC Zelle als pSLC konfiguriert, hält auch die 100k P/E-Zyklen die eine klassische SLC Zelle schafft und ist genauso schnell. Der eigentliche Flash ist genauso hochwertig, wird nur anders genutzt.

Es gibt durchaus hochwertigen und minderwertigen Flash. Das wird aber hauptsächlich dadurch bestimmt, ob es im Produktionsprozess Probleme gab bei der Wafer Produktion oder nicht. Es gibt genauso gut schlechten MLC wie es guten MLC Flash gibt.
 
  • Gefällt mir
Reaktionen: Rickmer und Baal Netbeck
Chuuei schrieb:
Nein, ob nun SLC, MLC, TLC oder QLC hat nichts mit hochwertig oder nicht zu tun. Eine TLC Zelle als pSLC konfiguriert, hält auch die 100k P/E-Zyklen die eine klassische SLC Zelle schafft und ist genauso schnell. Der eigentliche Flash ist genauso hochwertig, wird nur anders genutzt.

Damit fast du völlig recht. Das war blöd bzw. falsch ausgedrückt von mir - ich bezog mich eigentlich auf die Belegung bzw. Konfiguration.


Chuuei schrieb:
Den bekommt man nur kaputt durch falsches Handling und daraus folgenden mechanischen oder ESD-Schäden.

Was bei ner SSD (da keine freiliegende Platine oder Mechanik) noch mal deutlich schwieriger ist als bei ner HDD.


Chuuei schrieb:
Consumer SSDs sind z.B. echt nicht gut was das Powerfail Verhalten angeht. Und jeder Powerfail birgt Gefahren von inkonsistenten Daten und dazu gehört auch die FW und deren Verwaltungsdaten.

Naja, auf Dateisystemebene hat man eben die Schutzmechanismen des jeweiligen Dateisystems (oder auch nicht), z.B. Journaling. Der FW hingegen kann ein plötzlicher Stromverlust doch eigentlich ziemlich egal sein, solange sie nicht gerade geflasht wird. Die eigentliche FW kommt einmal (bzw. beim jeweiligen Update) auf die SSD und wird dann nur noch lesend verwendet. Mit Verwaltungsdaten meinst du dann Metadaten, welche die FW anlegt und verwaltet oder wie? Die Datenstruktur an sich wird ja nicht von der FW verwaltet und ist auch nicht dort hinterlegt. Ist mir jetzt nicht klar, wie über die Metadaten der FW ein irreparabler Schaden durch Stromausfall entstehen soll. Hättest du da ein Beispiel?


Chuuei schrieb:
wie z.B. Übertaktungsversuche mit Systemabstürzen und irgendwann waren die Daten der FW dann halt auch mal inkonsistent.

Wie soll die FW dadurch inkonsistent werden? Sie wird im normalen Betrieb (also wenn sie nicht gerade geupdatet bzw. aufgespielt wird) nie verändert; es finden keine Schreibvorgänge statt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck und madmax2010
Der Flashbereich in dem die FW liegt, ist genau den gleichen Regeln unterworfen wie der normale Flashbereich. Auch dort müssen aufgrund von z.B. Read Disturb die eigentlichen Daten der FW von Zeit zu Zeit umkopiert werden. Die FW liegt nicht statisch immer an der gleichen Stelle für alle Ewigkeiten. Auch der Flash kann von sich aus schlecht sein von Anfang an.

Dazu gibt es Daten die essentiell sind für die Arbeit der FW wie z.B. die Informationen über Bad Blocks. Ein ganz typischer Fehlermodus ist z.B. folgender. Wenn ein Schreibvorgang unterbrochen wird durch Stromprobleme, geht die FW davon aus, dass der Schreibvorgang nicht erfolgreich war. Nicht erfolgreiche Schreibvorgänge auf Pages können dazu führen, dass der ganze Block als Bad Block markiert werden und ein Reserveblock dafür herhalten muss. Mach das ein paar mal und plötzlich ist die SSD in Read Only Mode weil mutmaßlich alle Reserveblöcke aufgebraucht wurden - verursacht durch instabile Stromversorgung und nicht dem Flash.

Ein weitere ganz typischer Fehler sind Inkonsistenzen in den Mappingdaten zwischen physischen Flash und logischer LBA, speziell bei SSDs mit DRAM. Dort werden nämlich diese Daten gecached zum schnelleren Zugriff und bei Änderungen daran und direkt darauf folgender Stromunterbrechung sind diese geänderten Daten plötzlich futsch bevor diese in den Flash zurückgeschrieben werden konnten. Das kann die wildesten Auswirkungen haben. Alte Daten tauschen wieder auf, Dateisystem ganz kaputt bis SSD startet mutmaßlich nicht mehr. Es gibt einen Reparaturmechanismus der den gesamten Flash durchforstet und die Mappingdaten rekonstruiert. Das dauert aber je nach Kapazität sehr lange und in der Zeit meldet sich die SSD nicht am System an und wirkt erstmal für den User wie tot. Ein typischer Trick war den Rechner zu starten und im Bios z.B. eine halbe Stunde stehen zu lassen ohne was zu machen, nur um die SSD zu bestromen, so dass diese ihre Daten rekonstruieren kann. Die Crucial M4 war berüchtigt für genau dieses Problem. Und oft hilft das heutzutage noch, nur dass man bedenken muss, dass SSDs mit Kapazitäten in den hohen TB Bereich natürlich bedeutend länger brauchen für den Vorgang.

Banned schrieb:
Was bei ner SSD (da keine freiliegende Platine oder Mechanik) noch mal deutlich schwieriger ist als bei ner HDD.
Ich denke bei Consumer SSDs in erster Linie an M.2 SSDs und da fasst man direkt aufs PCB bei der Installation. Selbst wenn Leute darauf achten, nicht direkt am Konnektor zu greifen, hat man seitlich das ganze Vogelfutter in Form von Kapazitäten und Widerständen die man fast zwangsläufig berührt und auch am hinteren Ende ist man nicht sicher. Bei M.2 SSDs ist die Gefahr von ESD-Schäden meiner Meinung nach wesentlich größer als bei HDDs.
 
  • Gefällt mir
Reaktionen: Salierfähig, Banned und Baal Netbeck
In Punkto Controller könnte man argumentieren, dass der Controller einer MLC SSD weniger tun muss, als der einer TLC oder QLC SSD (es müssen weniger Ladezustände unterschieden werden). Das könnte Langlebigkeit begünstigen. Leider habe ich keine Belege, ob das in der Praxis so einen Unterschied macht.
Auch stellt sich die Frage, inwiefern moderne Controller fortgeschrittener sind als der von älteren MLC SSDs wie 970 Pro (liegt ja jetzt schon ein paar Jahre zurück, das gute Stück).
 
Ich besitze grob 16 SSDs wenn ich richtig gezählt habe und mir ist noch keine einzige gestorben.

Kann Glück sein, aber ich lese auch sonst extrem selten von kaputten SSDs.

Von ca 50 HDDs sind aber grob 20 kaputt. Ja das sind im Schnitt viel ältere Exemplare, aber das ist trotzdem eine klare Statistik für meinen Fall.

Dabei habe ich glaube ich nur 2 komplett defekte HDDs, die nicht mehr erkannt werden...die meisten die ich als kaputt bezeichne, haben fehlerhafte Sektoren, die sich auch nicht durch eine Formatierung wieder beheben ließen. Wenn man Daten drauf schreibt, gibt es irgendwann Fehlermeldungen oder einzelne Daten können nicht mehr richtig gelesen werden.
Vor allem lange liegen lassen, ohne sie zu benutzen, ist anscheinend ein Problem.

Bei SSDs habe ich zwei Samsung 840, die unter extremem Leistungsverlust leiden.
Daten die lange gespeichert waren, werden nur noch im Schneckentempo geladen, was z.B. Windowsstarts und andere Vorgänge ausbremst. Auch das Firmwareupgrade, das das eigentlich beheben sollte, hat es nicht gelöst.
Daten verloren habe ich aber nicht.

USB Sticks sind mir hingegen reihweise gestorben. Einige halten schon viele viele Jahre und andere sind nach wenigen Jahren defekt....ob benutzt oder nicht ist dabei egal.
 
  • Gefällt mir
Reaktionen: qiller
Jop, kaputte HDDs kann ich nicht mehr zählen, waren bestimmt weit über 200 Stk. in meiner IT Laufbahn und ja auch sehr viele mit Teildefekten. SSDs hatte ich tatsächlich genau 2 Stk. in ca 16 Jahren, mit denen ich mit SSDs zu tun habe. Meine erste war eine Intel Postville G2 mit kaputter Firmware nach nur 3 Wochen Nutzung - wurde anstandslos getauscht und die Daten der Austausch SSD hatte ich ja hier schon gepostet. Die 2. war mal irgendeine Billig-SSD vor 5 Jahren aus nem Kunden-PC. Musste auch getauscht werden, die machte kein Mucks mehr.

Baal Netbeck schrieb:
Bei SSDs habe ich zwei Samsung 840, die unter extremem Leistungsverlust leiden.
Jop, kenn ich, muss man ab und an mal Rewriten bzw. Vollschreiben und wieder leeren.

Baal Netbeck schrieb:
USB Sticks sind mir hingegen reihweise gestorben. Einige halten schon viele viele Jahre und andere sind nach wenigen Jahren defekt....ob benutzt oder nicht ist dabei egal.
Kann ich auch nur bestätigen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Salierfähig schrieb:
In Punkto Controller könnte man argumentieren, dass der Controller einer MLC SSD weniger tun muss, als der einer TLC oder QLC SSD (es müssen weniger Ladezustände unterschieden werden).
Ja, er muss weniger tun, wegen der geringen Anzahl von Ladezuständen, aber anders als du es wahrscheinlich hier meinst. Die ganze Ausleseelektronik ist im Flash, der Controller muss sich darum nicht kümmern und bekommt immer direkt die ausgelesenen Daten. Diese wiederum enthalten bei mehr Ladezuständen aber natürlich mehr Auslesefehler und daher hat dann der Controller mehr mit der Fehlerkorrektur zu tun.

Salierfähig schrieb:
Auch stellt sich die Frage, inwiefern moderne Controller fortgeschrittener sind als der von älteren MLC SSDs.
Die oben genannte Fehlerkorrektur, speziell in Zusammenhang mit den steigenden Bandbreiten, beschert uns heute wesentlich leistungsfähigere Controller als früher. Früher waren es nur einfache BCH oder Reed-Solomon basierte ECCs und bei den modernen Flashes brauch es LDPC bzw. RAID basierte ECCs. Vieles davon wird natürlich in dedizierten Hardwareeinheiten gemacht um möglichst effizient zu sein, dennnoch brauch auch es auch für die restliche Verwaltungsarbeit ordentlich Rechenleistung und selbst die einfach Controller im Consumerbereich sind mittlerweile mindestens Zwei-Kerner.
 
DHC schrieb:
Das sind total unnütze Angaben der Hersteller.
Damit kann man sich den Popo sauber machen.
In dem Beispiel wären das 171 Jahre bei 24/7-Betrieb.

Eine SSD / HDD kann 20 Jahre halten oder schon nach zwei Wochen kaputt gehen.
Das ist aber eine falsche Interpretation der MTBF. Die Millionen Betriebsstunden und der mögliche Ausfall betreffen nämlich nicht eine Platte, sondern aufsummiert alle produzierten Platten der Baureihe.. Und wenn statistisch gesehen alle 1,5 Mio Betriebsstunden eine Platte ausfällt, dann habe ich diese 1,5 Mio nach 100 Stunden beisammen, wenn 10.000 Platten laufen. Alles klar? So funktioniert Statistik.
;)

Wie man solche Angaben aber auch dreht und wendet, für die persönliche Situation sagt es sowieso nichts aus. Weil es mir eben nicht weiterhilft, wenn ich genau diese eine habe die dann ausfällt. Da kann der Rest dann so zuverlässig sein, wie er will. Die Sicherheit, dass meine auch so lange hält, werde ich niemals haben.
 
Zuletzt bearbeitet:
NobodysFool schrieb:
Alles klar? So funktioniert Statistik.
Ist mir längst klar, wie das Ganze funktioniert.
Das war ein überspitztes Beispiel.

Dennoch taugen die Angaben nichts.
 
  • Gefällt mir
Reaktionen: wuselsurfer
Zurück
Oben