Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsDauerschreibtest: Sechs NVMe-SSDs schaffen 1,5 Petabyte
Man sollte schon Gedanken über Haltbarkeit machen. Reine Schreibzyklen ist eine Sache und Leistungsverlust durch abgenutzte Flash-NAND-Zellen was ganz anderes. Auch diese Tests mit einzelnen Exemplaren von verschiedenen Modellen sind nicht so repräsentativ, Qualität von Chips mit gleichen Model von Exemplar zu Exemplar kann erheblich abweichen.
mal unabhängig davon das sie noch gehen, hat sich das Experiment gelohnt? das du im falle eines defektes auch alle Laufwerke ersetzten könntest und trotzdem im plus bist?
zum thema selbst , hab auch noch keine ssd sterben sehen... meine allerste samsung ssd 830 pro glaube läuft heute noch als win systemplatte wie am ersten tag. die is auch schon arg betagt
Klasse Idee wirklich mal wieder interessant. Danke für eure Arbeit 👍 deckt sich mit meinen Erfahrungen als "PC Fachmann für Freunde und Bekannte" die einzige ssd die hier abgeraucht ist war eine OCZ Vertex 2 und das nach ziemlich genau 5 Jahren. War 2011? meine erste SSD nach der HDD WD Veciloraptor mit 300gb die noch immer lebt und schon über 40k Stunden aufm Buckel hat 😯
SSD war/ist die ganz große Nummer in der Hardwarewelt. Vorher man seine 2 Jahre alte Hardware getauscht und außer in Spielen hat man einfach kaum-nichts an Geschwindigkeits Zuwachs bemerkt. Errinere mich noch dran wie die kumpels nach dem aufrüsten des PCs gefragt hatten warum Windows denn nicht schneller hochfährt 🙃
Bin selbst mittlerweile komplett auf ssd umgestiegen. Selbst als datengrab geht hdd nicht mehr für mich. Vorallem auch weil die Dinger einfach so Laut sind... Mein PC muss flüstertleise sein! Beim zocken darf man ihn etwas wahrnehmen
Und nochmal danke an das Team!
Cb ist Einfach DIE Seite wenn es um Hardware geht. Schön wie ihr euch über die Jahre immer mehr vom Luxx etc. abgesetzt habt. Deren tests nehme ich persönlich kaum wahr. Bei euch sind die einfach auf einem höheren, professionellen Niveau. Macht bitte so weiter! Lieblingsseite nach Pornhub🤣
Ich kann mal meine Langzeiterfahrung mit knapp 60 Samsung 950 Pro 256GB im 24/7 Dauerbetrieb teilen. Die SSD sind seit über 6 Jahren in Remotedesktopservern ( ja da sollten man eigentlich Enterprise SSD nehmen, aber die waren sündhaft teuer...) verbaut, Ausfallrate lag bei ca 10%, wobei in den meisten Fällen der Controller defekt war. Die SSD funktionieren auch nach etlichen TB Schreiblast als Systemplatte mit vielen kleinen Dateien noch ohne Probleme.
Ich glaube, dass das eine Fehlinterpretation der DWPD ist. Für die Drive Writes Per Day werden die maximal möglichen Schreibzugriffe auf die Kapazität und Laufzeit (hier 5 Jahre) "aufgeteilt". Deswegen werden die DWPD erstmal immer kleiner, je größer das Laufwerk wird.
Deswegen sehe ich durch den Umstand, dass beim 2TB-Laufwerk es überhaupt gar keinen Unterschied zu machen scheint, ob man random 16K, 8K oder 4K random schreibt, erstmal auch meine These gestützt.
Dass sie sich dann nicht vollkommen linear verhalten - wie das bei dem 8TB-Laufwerk aussieht - dürfte daran liegen, dass in der Lebensdauer eben nicht nur das finale Schreiben ins Flash steckt, sondern auch Lebensdauer von Puffer-RAM und Controller etwa.
Die DWPD ist primär eine Rechengröße, die die allgemeinen Annahmen über die Lebensdauer und Schreibleistung, in verschiedene Nutzungsszenarien übersetzt - und eben keine Aussage darüber zulässt, ob random 4K-Writes mehr Alterung zur Folge haben als sequential 128K-Writes.
Ergänzung ()
Tanzmusikus schrieb:
Interessant. 😉 Meine 1. SSD sieht mittlerweile so aus:
Hatte die während der Win7-Zeit gekauft & genutzt.
Win7 ist immer noch drauf für Legacy-Anwendungen.
Die Samsungs sind ziemlich robuste Laufwerke, auch bei mir.
Ich habe insgesamt so 40 oder 50 SSDs in unterschiedlichen Bauformen in unregelmäßigem Betrieb. Die meisten sind eher wenig gelaufen und haben oft stromlos herumgelegen. Die ältesten sind von 2012. Samsung habe ich mindestens 12, wahrscheinlich ein paar mehr.
Vielleicht fünf (von allen) hatten mal Schluckauf und wollten dann neu partitioniert werden. Darunter im Übrigen auch eine Samsung, was besonders ärgerlich war, weil's in Sao Paolo im Hotel passiert ist - aber ich reise nie mit weniger als zwei Notebooks und einem USB-Stick mit Windows-Image...
Ein oder zweimal hatte ich DOAs bei billigen mSATA-Drives, einmal war eine nagelneue Samsung-NVME sehr widerborstig und lief nur in genau einem Board und zwar dem falschen.
Aber abgesehen von den DOAs habe ich bis heute keine SSD, die wirklich kaputt gegangen ist, so dass ich die dann dem E-Schrott-Container anvertraut hätte.
Andererseits habe ich mindestens genauso viele Platten, viele WD Enterprise oder WD Red, aber auch eine Menge anderer Fabrikate. Die gehen auch nicht kaputt...
dass random und sequential writes sich unterschiedlich verhalten liegt einfach daran, dass flashspeicher blockweise neu beschrieben wird. ein block ist typischerweise zwischen 256KB und 4MB gross. das bedeutet, wenn man random 2 byte irgendwo ändert werden im worst-case 2x 4MB neu geschrieben. schreibe ich 4MB sequentiell, können die optimalerweise in einem block abgelegt werden und das verhältnis von zu schreibenden daten zu tatsächlich geschriebenen daten ist wesentlich besser.
Jep, der MLC sollte noch gut lange halten.
Hatte längere Zeit ein Kompatiblitätsprobleme zw. AMD SATA Controller & Samsung SSD Controller/Treiber.
Es gab dann vermehrt CRC-Fehler und für wenige bis mehrererere Sekunden Hänger bei Belastung der SSD.
Durch Zurücksetzen auf den SATA-Treiber von Microsoft lief es dann besser, aber auch nicht 100%ig rund.
Vielleicht liegt auch ein Teil an Windows selbst. Für Vista/Win7 wurden die Funktionen von SSDs nachgerüstet. Bei Win10 wurden sie dann nativ und in verbesserter Form implementiert.
Das Thema "Controller" ist damit bei der Haltbarkeit & Zuverlässigkeit von SSDs ein weiterer Schwerpunkt.
Boandlgramer schrieb:
Andererseits habe ich mindestens genauso viele Platten, viele WD Enterprise oder WD Red, aber auch eine Menge anderer Fabrikate. Die gehen auch nicht kaputt...
Mir ging mal eine WD HDD als Datenplatte im laufenden System kaputt (Headcrash).
Datensicherung hatte ich damals nicht wirklich umgesetzt, nur vereinzelte zufällige Reste auf Stick oder DVD.
Da waren viele Dokumente für wichtige Vorgänge dabei (z.B. Gericht). Davon war ich dann befreit.
Ob herkömmliche 1-TB-HDDs auch 3000 TB Schreiblast schaffen, wäre für CB vermutlich zu langwierig.
Durchschnittlich ~150 MB/s ist schon arg (20-fach) langsamer als ~3000 MB/s.
Solch ein CB-Projekt ist dann wohl eher für einen mehrjährigen (Lockdown-)Zeitraum geeignet. 🤭
@0x8100
Genau.
Damit spart CB sehr viel Zeit beim kompletten Befüllen ein, aber Controller+NAND werden nicht so stark belastet.
Kleine Korrektur: NAND-Flash wird pageweise beschrieben. Pages sind wesentlich kleiner als Blöcke. Ein Block ist die kleinste Einheit die gelöscht werden kann. Da aber Flash gelöscht sein muss bevor man ihn beschreibt, stimmt deine weitere Ausführung, auch wenn Pages und Blöcke durcheinandergebracht wurden
RenoV schrieb:
Die TBW sind nur einen Ausrede der Hersteller zur Garantie-Ablehnung...
Nicht wirklich. Im Prinzip ist das ne Abschätzung bis zu der beim typischen Verhalten der FW und der zu erwartenden Art von Daten die spezifizierten PE-Zyklen des Flashes nicht überschritten werden. Weil nur bis dahin garantieren die Flash Hersteller die Funktionalität der Zellen. Daher geben die SSD Hersteller eigentlich mehr oder weniger nur die Beschränkungen der Controller FW und Flashhaltbarkeit weiter. Aber, Flash wird natürlich nicht künstlich abgeschaltet, daher kann es durchaus sein, dass der wesentlich länger hält. SLC Flash wird z.B. oft mit 100k PE Cycles spezifiziert aber in der Praxis schaffen die oft auch 1000k.
@Chuuei du hast recht, nand wird page-weise beschrieben. werden daten geändert, werden pages als "invalid" markiert und eine ungenutzte page wird genutzt. wenn es aber keine freien pages mehr gibt, müssen "invalid" pages genutzt und vorher gelöscht werden - das geht dann wiederrum nur blockweise
Was mich interessieren würde ist, wie lange eine SSD die Daten behält, nachdem sie "Stromlos" gemacht wird.
Praktisch, kann ich auf einer SSD etwas speichern (Bilder, Texte, Intallationsdateien von alten Spielen, Mods), sie 15 Jahre in den Schrank packen und es danach problemlos alles wieder laden?
Die JEDEC (Joint Electron Device Engineering Council) der Solid State Technology Association (sowas wie DIN für SSD) schreibt bei der Data Retention mindestens 12 Monate vor am Ende der Lebenszeit eines Laufwerks unter bestimmten Bedingungen (z.B. Temperatur, Luftfeuchtigkeit etc.) Also ein paar Jahre dürften bei normaler Lagerung problemlos möglich sein. Je mehr Bit eine Speicherzelle speichern kann SLC, MLC, TLC, QLC umso schwieriger kann das werden mit dem Auslesen in der Zukunft Für das alles gibt es Formeln und Parameter.
1-2 Jahre bei einer MLC/TLC dürften absolute kein Problem sein, es reicht, wenn man das Laufwerk jedes Jahr für ein paar Stunden einschaltet. Vermutlich hält es auch ohne Strom mehrere Jahre.
Hier sind noch weitere Screenshots meiner anderen SSD.
Die Kioxia scheint dabei die mieseste SSD bisher zu sein, praktisch unbenutzt mit 1,3TB Schreibvorgänge
SAMSUNG SSD 830 Series
265GB
TBW ~20 (20.113.052.059 Byte)
Gefühlt seit 10 Jahren im Einsatz, als Download-Puffer für JDL+Torrents und ne Zeitlang Betriebssystemdisk gewesen. Heute nur noch ein Handbrake Zwischenspeicher. Aber flutscht einwandfrei. Erstauntlich wenig TBW.
Deswegen sehe ich durch den Umstand, dass beim 2TB-Laufwerk es überhaupt gar keinen Unterschied zu machen scheint, ob man random 16K, 8K oder 4K random schreibt, erstmal auch meine These gestützt.
Das halte ich derweil für Fehlinterpretation der Daten.
Das wird, wie 0x8100 und Chuuei schon geschrieben haben, an verschieden großen Page-Größen liegen, womit pro Write ensprechend eine Mindestmenge an Daten geschrieben wird - egal ob der Write jetzt nur wenige Bit groß ist oder eben bis hin zur Größe der Page.
Boandlgramer schrieb:
Die DWPD ist primär eine Rechengröße, die die allgemeinen Annahmen über die Lebensdauer und Schreibleistung, in verschiedene Nutzungsszenarien übersetzt - und eben keine Aussage darüber zulässt, ob random 4K-Writes mehr Alterung zur Folge haben als sequential 128K-Writes.