Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Defragmentierungen sind für SSD's absolut nachteilig, und lassen die Zellen viel schneller altern !!! Windows erkennt aber, wenn SSD's anwesend sind, und weiß damit dann gut umzugehen, ohne defrag ! Und ein Defrag macht ja ohnehin null Sinn bei einer SSD, da sie diese "Ordnung" gar nicht benötigt, wie HDD's, und es geht ja hier um's Lesen, nicht um's schreiben. Die versch. Speichertechniken sind mir alle bekannt, und lösen keine weiteren "Verwirrungen" mehr bei mir aus ;-)
Und zu deiner Frage "alles Lesen " mit Ordner Eigenschaften da wird nur der Index gelesen.
Was aber wirksamer wäre, eine Defragmentier Tool drüber laufen zu lassen.
Ein Defragmentierer würde aber auch nur die fragmentierten Dateien komplett lesen. Um alle Dateien einmal zu lesen, könnte man eine rekursive Erzeugung von Prüfsummen aller Dateien durchführt, z.B. in Total Commander oder einem Äquivalent. Unter Linux wäre es natürlich viel einfacher 😜: entweder die gesamte SSD roh auslesen mit dd bs=1M if=/dev/sdx of=/dev/null (oder mit pv statt dd für eine Fortschrittsanzeige) oder den gesamten Dateibaum "packen": tar cvf /dev/null --one-file-system -C / ..
Defragmentierungen sind für SSD's absolut nachteilig
Als es die ersten SSDs gab haben die Hersteller sogar davor gewarnt.
Damals waren die SSDs auch noch recht anfällig.
Ein Defrag kannst aber auch dazu verwenden um eine SSD zuverlässig zu löschen, wenn die Option freie Bereiche überschreiben aktiviert ist. Nur so nebenbei.
Das Defragmentieren ist auch nur ein einmaliger Schreibvorgang, also überbewerten sollte man das auch nicht.
Um die gesamte SSD zu lesen kannst aber ein Backup Programm wie AOMEI Backupper verwenden.
Dann hast auch noch ein Abbild deiner SSD in Komprimierter Form.
Refresht wird also scheinbar bei den meisten Controllern erst, wenn die Zellen nicht mehr auf anhieb fehlerfrei lesbar sind. Inwiefern bzw. wann dies irgendwann tatsächlich zu einem Datenverlust führen könnte, ist dabei die große Unbekannte.
Außer bei SLC- und MLC-NAND ist die Sache eher mit Vorsicht zu genießen mMn, wenn die SSD lange rumliegt und dann auch nur sporadisch mit Strom versorgt wird. Hier wäre es dann wohl empfehlenswert, chkdsk /r o.Ä. durchzuführen (oder halt irgendwie komplett lesen lassen, wie hier schon genannt wurde).
Mein Fazit (auch bestärkt durch andere Beiträge hier in diesem aufschlußreichen Thread):
Eine SSD wird sich also niemals "von alleine aufladen". Eine Speicherzelle wird nur wieder ihre volle Ladung erhalten, wenn sie neu beschrieben wird und dann auch einer Abnutzung unterliegt.
Eine SSD, die permanent im Leerlauf an einem eingeschalteten Rechner hängt ist dann ebenso gefährdet Daten zu verlieren wie eine dauerhaft ausgebaute. Es sei denn, deren Controller prüft profilaktisch nach einer gewissen Zeit alle Zellen ab und erneuert dann durch einen Schreibzyklus die entsprechenden Zellen.
Das Refreshen an sich ist transparent, denn weder Nutzer noch Betriebssystem sollen davon etwas mitbekommen, weil es im Hintergrund läuft. Die Umsetzung des Refreshes ist intransparent, weil wir den Code des Controllers nicht kennen.
aktuelle SSDs haben doch sehr hohe TBW-Werte, es würde doch gar nicht ins Gewicht fallen, wenn der Controller alte Daten alle 2 Monate einmal neu schreiben würde. Und die Zellen sollen sich ja gleichmäßig abnutzen, das wäre ein weiter Grund, die Daten mal zu verschieben, damit diese Bereiche für neue Schreibzyklen frei werden.
Und die Zellen sollen sich ja gleichmäßig abnutzen, das wäre ein weiter Grund, die Daten mal zu verschieben, damit diese Bereiche für neue Schreibzyklen frei werden.
Genau das wird gemacht wenn die SSD in Betrieb ist, Darum muss sich der User nicht kümmern.
Nach welchen Kriterien das durch geführt wird, da geben die Hersteller nicht wirklich was bekannt.
Das ist auch der Grund warum SSDs immer mehr Speicher Kapazität haben als drauf steht.
So kann eine 256GB. SSD auch mal 320 GB. haben. Der Speicher wird zum einem als Reserve für
defekte Bereiche verwendet und zum anderen als Puffer der während der neu Organisation gebraucht wird.
Da gab es mal einen Bericht bei Heise dazu, der Reserve Speicher ist für den User nicht zugänglich.
Aber Geheimdienste könnten mit einer Speziellen Firmware darauf zugreifen.
Es ging in dem Bericht darum wie sicher können SSDs gelöscht werden.
Also Vorsicht hier, besser vernichten als verkaufen.
Woher soll die SSD wissen, wann zwei Monate vergangen sind? Geht nur wenn ein System zwei Monate durchgängig an ist, was aber nicht der Fall ist für normale Desktop Rechner.
BmwM3Michi schrieb:
Und die Zellen sollen sich ja gleichmäßig abnutzen, das wäre ein weiter Grund, die Daten mal zu verschieben, damit diese Bereiche für neue Schreibzyklen frei werden.
Wie @Phanos schon geschrieben hat, wird das gemacht. Nennt sich Wear Leveling und ist ein Standardfeature. Dabei wird die Benutzung der Flashzellen so gestaltet, dass die Löschzyklen einigermaßen gleichmäßig steigen.
In Windows würde ich das in der Eingabeaufforderung mit chkdsk X: /r machen.
/r = "Sucht beschädigte Sektoren und stellt lesbare Informationen wieder her" --> kurz gesagt: Es werden alle Sektoren ausgelesen, wobei wirklich echt ausgelesen werden wohl nur die belegten Sektoren, aber das reicht ja aus.
z.B für die Datenarchivierung über Jahre hinweg.
SSDs sollen da zuverlässiger als Tapes oder als DVDs oder Blurays sein.
Wie es im Vergleich zu "normalen" HDDs aussieht ist mir nicht bekannt.
Ja aber hier geht es ja darum,. die Dinger stromlos jahrelang liegen zu lassen.
Und das ist alles andere als gesund für SSDs - wie im Thread ja auch angemerkt wird.
Im Leben nicht. Tape ist viel sicherer als alle von dir genannten Varianten.
Große Unternehmen etc. machen ihr Kern-/Hauptbackup m.W. immer auf Tape (LTO), weil es aktuell eigentlich nichts Sichereres gibt, das bei großen Datenmengen halbwegs erschwinglich und praktikabel ist.
MDISC ist wahrscheinlich noch sicherer, aber bei großen Datenmengen eben unpraktikabel.
Glaube ich nicht.
Bei unseren 1/2 Zoll Laufwerken traten immer mal Fehler auf.
Alleine die Kopierdämpfung sorgt da für Ausfälle von bits/ Bytes.
Auch die Leseköpfe verdrecken nach einer bestimmten Zeit wegen des Abriebes.
Bei den heutigen Streamerbändern liegen die Daten noch viel dichter gepackt, haben aber auch sehr hartmagnetische Mangnetmaterialien.
Banned schrieb:
Große Unternehmen etc. machen ihr Kern-/Hauptbackup m.W. immer auf Tape (LTO), weil es aktuell eigentlich nichts Sichereres gibt, das bei großen Datenmengen halbwegs erschwinglich und praktikabel ist.
Auch wenn das schon alt ist, hat sich daran nicht wirklich was geändert.
Im Hinblick auf die Ausfallsicherheit liegt der große Vorteil von Tape darin, dass sie keine beweglichen Verschleißteile in gleichem Umfang wie eine Festplatte hat, da diese in das Lese-/Schreibgerät ausgelagert sind.
Da beide die Daten über magnetische Ladung speichern, ergibt sich auch hier kein Vorteil für eine HDD. Und bei einer SSD nimmt die Ladung der Zellen auch ab; weiterer Nachteil ist, dass bei einem Defekt idR alles weg ist und nichts gerettet werden kann.
Alleine schon die UBER bei Tape ist so erheblich besser mittlerweile: