S
SmartSirius
Gast
@ mumpel:
Technisch unterscheidet sich das gar nicht. Die Zellen werden ja trotzdem beschrieben. Physisch unterscheidet sich das in der Größe der Schreibvorgänge!
Mal angenommen du installierst ein Spiel auf eine SSD. Dabei gibt es zu 99% nur Sequentielles Schreiben. Sequentiell heißt einfach nur Schreiben am Stück. Ohne Unterbrechungen, und große Dateien in GB-Größe!
So, und dann gibt es Random-Write, dabei unterscheidet man typisches Random-Write, das heißt, zufällige Dateigrößen als auch echtes Random-Write, das heißt, sehr sehr kleine Dateigrößen von der immerselben Größe (z.b. 0,5 KB, also 512 Bytes). Je kleiner diese Random-Writes werden, desto mehr Write-Amplification fällt an.
Write Amplification ist der Speicher, der zusätzlich beschrieben werden muss damit die Datei erfolgreich gespeichert ist. Als Beispiel hast du jetzt eine Textdatei. Die ist 64 KB groß (Word). So, nun änderst du etwas darin, und die SSD muss daraufhin diese Datei erneut abspeichern. Was glaubst du, wieviel sie jetzt abspeichert? 64 KB?
Nein, denn die BLOCKGRößEN der SSD sind ja viel größer, meist 512 KBytes oder mehr, manchmal aber auch nur 256 KB oder etwas kleiner. Aber eine SSD kann die Zellen jeweils immer nur blockweise leeren/löschen. Deshalb müssen in diesem Fall tatsächlich 512 KB gelöscht werden. Aber natürlich sind die schon gelöscht und die SSD nimmt daher einfach eine Blockreihe die keine Daten enthält und verschiebt in diesen 512KB-Block diese 64 KB Daten! Der Rest bleibt ja leer, also wurden effektiv tatsächlich 512 KB geschrieben, obwohl eigentlich 64 KB gereicht hätten. Denn die SSD musste vorher, bevor 64 KB geschrieben werden konnte, einen 512 KB Block freimachen.
Das ganze nennt sich Write-Amplification! In diesem Fall (Word-Datei 64 KB) wäre diese 512 KB - 64 KB = 448 KB, das heißt, 7-mal höher als der Normalwert von ca. 1.1! Hier hätte man also einen ungefähren WA-Wert von 1:7, was ziemlich hoch ist, aber es geht noch weitaus höher.
So, das heißt, wenn man also angenommen jeden Tag Millionen dieser Word-Dateien erzeugen würde (64 KB oder ähnlich klein), dann würde das die SSD unnötig abnutzen und der SSD-Counter-Wert würde massiv beeinträchtigt werden, da man ja die 5 TB Random-Writes so schnell erreichen würde. Der Counter-Wert gibt die ungefähre Restlebensdauer in Prozent (z.b. 99) in den SMART-Daten an.
Rechne es dir doch selbst aus: Angenommen 1 Mio. Dateien am Tag geschrieben, dann die 512 KB (0,5 Megabyte) damit multiplizieren und schon haste 0,5 Mio. MB am Tag. Wieviel ist das? 500.000 MB. Das sind 500 GB am Tag! Wenn du also 5 TB Random-Writes zur Verfügung hättest, wäre die SSD bei dieser Belastung in ca. 10 Tagen bei 5 TB angekommen. Vermutlich würde sie noch ein paar Tage länger halten (da es ja Ersatzzellen gibt), aber sie würde dennoch keine 2 Wochen überleben.
Diesen Einsatz (1 Mio. RW am Tag) nennt man übrigens auch "Enterprise", also Unternehmsbasiert. Denn bei Servern wird sowas täglich gefordert teilweise, deshalb müssen da SSDs im Einsatz sein, bei denen soviele Random-Writes nichts ausmachen.
Noch etwas: "Woher kommt denn die riesige Diskrepanz zwischen 5 TB und 120-190 TB? "
Das kommt daher, wie schon gesagt, Random-Writes erzeugen hohe WA. Du weißt ja jetzt, was WA bedeutet, oder? Und weil Controller nunmal auch nur eine begrenzte Lebensdauer haben, machen die auch irgendwann einen Fehler. Und die Zellen gehen eben auch zunehmends kaputt. Die 120-190 TB geben also den Sequentiellen Schreibwert wieder, den diese SSDs aushalten können. Nämlich 120-190 TB eben. 120 TB minimal, 190 TB maximal! Das heißt, dass diese SSDs schon ordentlich beschrieben werden können. Aber nach ca. 5-10 Jahren Windows-Betrieb werden diese vermutlich trotzdem spätestens kaputtgehen. Grund: Random-Writes aufgebraucht, danach geht es nur noch um die Ersatzzellen.
Genau sagen kann es aber noch keiner, weil noch niemand die neueren 34nm/25nm-SSDs so lange in Betrieb hatte. Gängige Tools, denen man in der Regel vertrauen kann, geben aber meist 10 Jahre (oder sogar weniger) an. Diese Tools messen nichts anderes als den normalen Schreibverbrauch (in TB, bei Written Data-Smart-Wert zu finden) und den Random-Writes-Wert multiplizieren sie einfach so oft, bis sie vorhersagen können, wann der Wert aufgebracht ist. Wenn man also viele Benchmarks am Tag durchführt, dann wird die SSD nicht so alt werden (aufgrund der vielen Random-Writes die dabei die SSD sehr stark abnutzen), als wenn man sie in Ruhe lässt.
Aber alles ist in Wahrheit noch viel komplizierter. Es ist nämlich so, dass in Ruhe gelassene Zellen sich auch in gewissem Maße regenerieren können. Aber das zu erklären würde den Rahmen hier sprengen. Ich denke du verstehst es jetzt soweit oder?
Technisch unterscheidet sich das gar nicht. Die Zellen werden ja trotzdem beschrieben. Physisch unterscheidet sich das in der Größe der Schreibvorgänge!
Mal angenommen du installierst ein Spiel auf eine SSD. Dabei gibt es zu 99% nur Sequentielles Schreiben. Sequentiell heißt einfach nur Schreiben am Stück. Ohne Unterbrechungen, und große Dateien in GB-Größe!
So, und dann gibt es Random-Write, dabei unterscheidet man typisches Random-Write, das heißt, zufällige Dateigrößen als auch echtes Random-Write, das heißt, sehr sehr kleine Dateigrößen von der immerselben Größe (z.b. 0,5 KB, also 512 Bytes). Je kleiner diese Random-Writes werden, desto mehr Write-Amplification fällt an.
Write Amplification ist der Speicher, der zusätzlich beschrieben werden muss damit die Datei erfolgreich gespeichert ist. Als Beispiel hast du jetzt eine Textdatei. Die ist 64 KB groß (Word). So, nun änderst du etwas darin, und die SSD muss daraufhin diese Datei erneut abspeichern. Was glaubst du, wieviel sie jetzt abspeichert? 64 KB?
Nein, denn die BLOCKGRößEN der SSD sind ja viel größer, meist 512 KBytes oder mehr, manchmal aber auch nur 256 KB oder etwas kleiner. Aber eine SSD kann die Zellen jeweils immer nur blockweise leeren/löschen. Deshalb müssen in diesem Fall tatsächlich 512 KB gelöscht werden. Aber natürlich sind die schon gelöscht und die SSD nimmt daher einfach eine Blockreihe die keine Daten enthält und verschiebt in diesen 512KB-Block diese 64 KB Daten! Der Rest bleibt ja leer, also wurden effektiv tatsächlich 512 KB geschrieben, obwohl eigentlich 64 KB gereicht hätten. Denn die SSD musste vorher, bevor 64 KB geschrieben werden konnte, einen 512 KB Block freimachen.
Das ganze nennt sich Write-Amplification! In diesem Fall (Word-Datei 64 KB) wäre diese 512 KB - 64 KB = 448 KB, das heißt, 7-mal höher als der Normalwert von ca. 1.1! Hier hätte man also einen ungefähren WA-Wert von 1:7, was ziemlich hoch ist, aber es geht noch weitaus höher.
So, das heißt, wenn man also angenommen jeden Tag Millionen dieser Word-Dateien erzeugen würde (64 KB oder ähnlich klein), dann würde das die SSD unnötig abnutzen und der SSD-Counter-Wert würde massiv beeinträchtigt werden, da man ja die 5 TB Random-Writes so schnell erreichen würde. Der Counter-Wert gibt die ungefähre Restlebensdauer in Prozent (z.b. 99) in den SMART-Daten an.
Rechne es dir doch selbst aus: Angenommen 1 Mio. Dateien am Tag geschrieben, dann die 512 KB (0,5 Megabyte) damit multiplizieren und schon haste 0,5 Mio. MB am Tag. Wieviel ist das? 500.000 MB. Das sind 500 GB am Tag! Wenn du also 5 TB Random-Writes zur Verfügung hättest, wäre die SSD bei dieser Belastung in ca. 10 Tagen bei 5 TB angekommen. Vermutlich würde sie noch ein paar Tage länger halten (da es ja Ersatzzellen gibt), aber sie würde dennoch keine 2 Wochen überleben.
Diesen Einsatz (1 Mio. RW am Tag) nennt man übrigens auch "Enterprise", also Unternehmsbasiert. Denn bei Servern wird sowas täglich gefordert teilweise, deshalb müssen da SSDs im Einsatz sein, bei denen soviele Random-Writes nichts ausmachen.
Noch etwas: "Woher kommt denn die riesige Diskrepanz zwischen 5 TB und 120-190 TB? "
Das kommt daher, wie schon gesagt, Random-Writes erzeugen hohe WA. Du weißt ja jetzt, was WA bedeutet, oder? Und weil Controller nunmal auch nur eine begrenzte Lebensdauer haben, machen die auch irgendwann einen Fehler. Und die Zellen gehen eben auch zunehmends kaputt. Die 120-190 TB geben also den Sequentiellen Schreibwert wieder, den diese SSDs aushalten können. Nämlich 120-190 TB eben. 120 TB minimal, 190 TB maximal! Das heißt, dass diese SSDs schon ordentlich beschrieben werden können. Aber nach ca. 5-10 Jahren Windows-Betrieb werden diese vermutlich trotzdem spätestens kaputtgehen. Grund: Random-Writes aufgebraucht, danach geht es nur noch um die Ersatzzellen.
Genau sagen kann es aber noch keiner, weil noch niemand die neueren 34nm/25nm-SSDs so lange in Betrieb hatte. Gängige Tools, denen man in der Regel vertrauen kann, geben aber meist 10 Jahre (oder sogar weniger) an. Diese Tools messen nichts anderes als den normalen Schreibverbrauch (in TB, bei Written Data-Smart-Wert zu finden) und den Random-Writes-Wert multiplizieren sie einfach so oft, bis sie vorhersagen können, wann der Wert aufgebracht ist. Wenn man also viele Benchmarks am Tag durchführt, dann wird die SSD nicht so alt werden (aufgrund der vielen Random-Writes die dabei die SSD sehr stark abnutzen), als wenn man sie in Ruhe lässt.
Aber alles ist in Wahrheit noch viel komplizierter. Es ist nämlich so, dass in Ruhe gelassene Zellen sich auch in gewissem Maße regenerieren können. Aber das zu erklären würde den Rahmen hier sprengen. Ich denke du verstehst es jetzt soweit oder?
Zuletzt bearbeitet: