News Intel stellt „Lyndonville“-SSDs vor

@ mumpel:

Technisch unterscheidet sich das gar nicht. Die Zellen werden ja trotzdem beschrieben. Physisch unterscheidet sich das in der Größe der Schreibvorgänge!

Mal angenommen du installierst ein Spiel auf eine SSD. Dabei gibt es zu 99% nur Sequentielles Schreiben. Sequentiell heißt einfach nur Schreiben am Stück. Ohne Unterbrechungen, und große Dateien in GB-Größe!

So, und dann gibt es Random-Write, dabei unterscheidet man typisches Random-Write, das heißt, zufällige Dateigrößen als auch echtes Random-Write, das heißt, sehr sehr kleine Dateigrößen von der immerselben Größe (z.b. 0,5 KB, also 512 Bytes). Je kleiner diese Random-Writes werden, desto mehr Write-Amplification fällt an.

Write Amplification ist der Speicher, der zusätzlich beschrieben werden muss damit die Datei erfolgreich gespeichert ist. Als Beispiel hast du jetzt eine Textdatei. Die ist 64 KB groß (Word). So, nun änderst du etwas darin, und die SSD muss daraufhin diese Datei erneut abspeichern. Was glaubst du, wieviel sie jetzt abspeichert? 64 KB?

Nein, denn die BLOCKGRößEN der SSD sind ja viel größer, meist 512 KBytes oder mehr, manchmal aber auch nur 256 KB oder etwas kleiner. Aber eine SSD kann die Zellen jeweils immer nur blockweise leeren/löschen. Deshalb müssen in diesem Fall tatsächlich 512 KB gelöscht werden. Aber natürlich sind die schon gelöscht und die SSD nimmt daher einfach eine Blockreihe die keine Daten enthält und verschiebt in diesen 512KB-Block diese 64 KB Daten! Der Rest bleibt ja leer, also wurden effektiv tatsächlich 512 KB geschrieben, obwohl eigentlich 64 KB gereicht hätten. Denn die SSD musste vorher, bevor 64 KB geschrieben werden konnte, einen 512 KB Block freimachen.

Das ganze nennt sich Write-Amplification! In diesem Fall (Word-Datei 64 KB) wäre diese 512 KB - 64 KB = 448 KB, das heißt, 7-mal höher als der Normalwert von ca. 1.1! Hier hätte man also einen ungefähren WA-Wert von 1:7, was ziemlich hoch ist, aber es geht noch weitaus höher.

So, das heißt, wenn man also angenommen jeden Tag Millionen dieser Word-Dateien erzeugen würde (64 KB oder ähnlich klein), dann würde das die SSD unnötig abnutzen und der SSD-Counter-Wert würde massiv beeinträchtigt werden, da man ja die 5 TB Random-Writes so schnell erreichen würde. Der Counter-Wert gibt die ungefähre Restlebensdauer in Prozent (z.b. 99) in den SMART-Daten an.

Rechne es dir doch selbst aus: Angenommen 1 Mio. Dateien am Tag geschrieben, dann die 512 KB (0,5 Megabyte) damit multiplizieren und schon haste 0,5 Mio. MB am Tag. Wieviel ist das? 500.000 MB. Das sind 500 GB am Tag! Wenn du also 5 TB Random-Writes zur Verfügung hättest, wäre die SSD bei dieser Belastung in ca. 10 Tagen bei 5 TB angekommen. Vermutlich würde sie noch ein paar Tage länger halten (da es ja Ersatzzellen gibt), aber sie würde dennoch keine 2 Wochen überleben.

Diesen Einsatz (1 Mio. RW am Tag) nennt man übrigens auch "Enterprise", also Unternehmsbasiert. Denn bei Servern wird sowas täglich gefordert teilweise, deshalb müssen da SSDs im Einsatz sein, bei denen soviele Random-Writes nichts ausmachen.

Noch etwas: "Woher kommt denn die riesige Diskrepanz zwischen 5 TB und 120-190 TB? "

Das kommt daher, wie schon gesagt, Random-Writes erzeugen hohe WA. Du weißt ja jetzt, was WA bedeutet, oder? Und weil Controller nunmal auch nur eine begrenzte Lebensdauer haben, machen die auch irgendwann einen Fehler. Und die Zellen gehen eben auch zunehmends kaputt. Die 120-190 TB geben also den Sequentiellen Schreibwert wieder, den diese SSDs aushalten können. Nämlich 120-190 TB eben. 120 TB minimal, 190 TB maximal! Das heißt, dass diese SSDs schon ordentlich beschrieben werden können. Aber nach ca. 5-10 Jahren Windows-Betrieb werden diese vermutlich trotzdem spätestens kaputtgehen. Grund: Random-Writes aufgebraucht, danach geht es nur noch um die Ersatzzellen.

Genau sagen kann es aber noch keiner, weil noch niemand die neueren 34nm/25nm-SSDs so lange in Betrieb hatte. Gängige Tools, denen man in der Regel vertrauen kann, geben aber meist 10 Jahre (oder sogar weniger) an. Diese Tools messen nichts anderes als den normalen Schreibverbrauch (in TB, bei Written Data-Smart-Wert zu finden) und den Random-Writes-Wert multiplizieren sie einfach so oft, bis sie vorhersagen können, wann der Wert aufgebracht ist. Wenn man also viele Benchmarks am Tag durchführt, dann wird die SSD nicht so alt werden (aufgrund der vielen Random-Writes die dabei die SSD sehr stark abnutzen), als wenn man sie in Ruhe lässt.

Aber alles ist in Wahrheit noch viel komplizierter. Es ist nämlich so, dass in Ruhe gelassene Zellen sich auch in gewissem Maße regenerieren können. Aber das zu erklären würde den Rahmen hier sprengen. Ich denke du verstehst es jetzt soweit oder?
 
Zuletzt bearbeitet:
mumpel schrieb:
Ist mir neu, dass man das unterscheidet. Wie unterscheidet sich denn technisch Random-Writes von normalen Writes? Woher kommt denn die riesige Diskrepanz zwischen 5 TB und 120-190 TB?
Das ist doch ganz einfach. Du hast z.B. NAND mit 4k Pagesize und 512k Blocksize an einem 10 Kanal Controller. Schreibst Du jetzt eine Datein vom 5MB Größe, so kann der Controller diese idealerweise über die 10 Kanäle verteilt jeweils in die Pages eines Blocks schreiben. Überschreibst Du diese Datei (das Überschreiben macht ja erst den Unterschied, nicht das erstmalige Schreiben), so werden nur 10 Blöcke gelöscht (für 5MB, WA=1). Überschreibst Du aber nur immer 4k (also eine Page) und hast nur so 10% Spare Area, was 11 Blöcke in diesem Beispiel wären, so kannst Du die nächsten 128 Pages noch in die Spare Area schreiben, hast also danach in jedem der 10 vorher beschriebenen Blöcke jetzt statistisch 12 bis 13 Pages mit ungültigen Daten aber noch 115 oder 116 mit gültigen Daten, die vor dem löschen des Blocks kopiert und neu geschrieben werden müssen, um eine neue Page zu beschreiben. Das ergäbe in diesem krassen Beispiel eine WA von 115-116! Hast Du 20% Spare Area, so sind es dann statischt schon 25 ungültige Pages in jedem Block und damit nur noch eine WA von 103. Deshalb nimmt die Lebenserwartung auch so stark zu, wenn man mehr Spare Area nimmt.
Ergänzung ()

SmartSirius schrieb:
Write Amplification ist der Speicher, der zusätzlich beschrieben werden muss damit die Datei erfolgreich gespeichert ist.
Richtig, nur woher diese Daten kommen ist Dir nicht ganz klar, wie mir scheint.
SmartSirius schrieb:
Als Beispiel hast du jetzt eine Textdatei. Die ist 64 KB groß (Word). So, nun änderst du etwas darin, und die SSD muss daraufhin diese Datei erneut abspeichern. Was glaubst du, wieviel sie jetzt abspeichert? 64 KB?

Nein, denn die BLOCKGRößEN der SSD sind ja viel größer, meist 512 KBytes oder mehr, manchmal aber auch nur 256 KB oder etwas kleiner.
Die Tendenz geht klar zu größer als 512k, gerade bei den NANDs mit 8k Pagessize. Die Pages solltest Du nicht unter vergessen, denn es wird Pageweise gelesen und geschrieben, nicht Blockweise. Blockweise wird nur gelöscht.

SmartSirius schrieb:
Aber eine SSD kann die Zellen jeweils immer nur blockweise leeren/löschen. Deshalb müssen in diesem Fall tatsächlich 512 KB gelöscht werden. Aber natürlich sind die schon gelöscht und die SSD nimmt daher einfach eine Blockreihe die keine Daten enthält und verschiebt in diesen 512KB-Block diese 64 KB Daten! Der Rest bleibt ja leer, also wurden effektiv tatsächlich 512 KB geschrieben, obwohl eigentlich 64 KB gereicht hätten.
Das stimmt so nicht! Wenn es eine freie Page gibt und darin werden 64k geschrieben, dann ist das alleine noch keine Ursache für eine Writeamplification >1. Dies tritt durch die Daten auf, die vor dem Löschen noch gültig waren und in einem Block stehen, der gelöscht werden soll. Denn noch gültige Daten müssen vor dem Löschen des Block gelesen und entweder woanders oder nach dem Löschen in den Block selbst zurückgeschrieben, also kopiert werden. Das Verhältnis von diesen noch gültigen Daten die kopiert werden und den wirklich geschriebenen Daten ergibt die Writeamplification! Nicht das Verhältnis von geschriebenen Daten zur Blockgrösse.

Damit wird klar, dass die Writeamplification auch davon abhängt, wie voll die SSD ist und ob der Controller durch TRIM erfährt wenn Daten ungültig werden oder erst durch Überschreiben eines LBAs.
 
Zuletzt bearbeitet:
@ Holt: Ist mir schon klar, dass ich das jetzt nicht zu 100% korrekt ausformuliert habe ;) Nur so wie du es geschrieben hast, versteht der Junge doch nix :D
 
Dem Jungen ist das schon ganz klar. Nur ist er von einer durchschnittlichen WA von 1,1-1,2 bei Intel ausgegangen und hat völlig vergessen, dass es ja noch Extreme gibt. Und wenn Intel nur diese Extreme berücksichtigt, dann ist 5 TB Random-Write das Mini-Minimum. Aha.

Mich wundert's nur, weil in der Tabelle "max. Lebensdauer (TBW)", also nichts von Random-Write, steht. Die normale Lebensdauer sollte mehr als 5 TB Write sein. Richtig? Übersetzungsfehler? Anandtech nennt es "Endurance (Max Data Written)". Auch nichts mit Random. Und auf der Intel-Folie steht auch nur "Endurance (Measuremets are performed on 100-percent span of the drive)".

Edit:
Au Mann, das macht mich echt fertig! :freak: Jetzt schreibt auch Golem "Intels Garantie läuft drei Jahre, und während dieser Zeit kann beispielsweise das 100-GByte-Modell jeden Tag mit einem Terabyte beschrieben werden.". Nun sind ja 3 Jahre mal 365 Tage mal 1 TB nach Adam Riese 1095 TB = 1 PB. Ich sehe nirgends auf den Intel-Folien, dass das 100-GB-Modell für knapp 1 PB ausgelegt ist. Da steht doch "100 GB: Up to 500 TB" - bzw. 900 TB bei 20% OP. Aber darum geht's erst im nächsten Absatz!
 
Zuletzt bearbeitet:
mumpel, diese SSDs sind nicht für Heimanwender gedacht, die sich nach dem Ende der garantierten Lebensdauer für jeden weiteren Tag freuen. Die SSDs richten sich an prof. Anwender und da gibt es richtig Stress, wenn ein Ausfall passiert und der Verantwortlich wird diesen um jeden Preis vermeiden wollen. Deshalb wird dann Hardware auch schon mal vorsorglich getauscht, wenn die garantierte Lebensdauer sich dem Ende neigt. Umgekehrt darf es nicht passieren, dass die Hardware vorher kaputt geht. Was würdest Du da also als Hersteller angeben die Haltbarkeit im Worst-Case oder bei leichter Nutzung (von der Du ja nicht ausgehen kannst)?
 
Die Lebenserwartung der SSDs hört sich schon mal richtig gut an, aber die Preise sind für den Normalbürger jenseits von gut und böse...
 
V 2, Normalbürger sind nicht die Zielgruppe für solche SSDs, die kaufen sich eine 320er, 510/520er oder Crucial m4 und werden selbst deren Lebenserwartung kaum aufbrauchen können, wie man im Dauerschreibtest auf xtremesystems.org sieht.
 
=Floi=, kaum eine SSD hat wirklich einen Temperatursensor und deshalb geben sie entweder keine Temperatur an oder einfach einen erfuundenen festen Wert. Da SDD normalerweise aber sowieso bis 70°C Arbeitstemperatur spezifiziert sind und selbst nur wenig Wärme erzeugen, dürfte das sowieso kein Probem sein.
 
Zurück
Oben