Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News WD Blue 3D NAND: Vereinzelt Leistungsverlust beim Lesen alter Dateien
- Ersteller MichaG
- Erstellt am
- Zur News: WD Blue 3D NAND: Vereinzelt Leistungsverlust beim Lesen alter Dateien
Ich habe hier bisher keine Screenshots gepostet, weil ich das Problem bei meinen beiden betroffenen SSDs selbst mit einem Datenrefresh erst einmal wieder um ein paar Monate aufgeschoben habe. Mangels echter Lösung wird es also spätestens Mitte nächsten Jahres wieder auftreten, so viel ist sicher. Dann kann ich gern Screenshots teilen. Die Spieleplatte werde ich bis dahin jedoch hoffentlich ersetzt haben, die Backup-SSD nicht, die wird zur Diversifizierung auch weiterhin notgedrungen eine WD-SSD bleiben. Ich werde im Spielesystem mittelfristig eine 2TB-PCIe-SSD einbauen, die SN750 und SN850 sind aber vorsorglich schon mal von der Einkaufsliste geflogen. Wird wohl doch wieder eine Samsung, und ich überlege mir noch, ob eine 980 Pro oder eine 970 Evo Plus. Mal sehen, was es Ende November so im Sonderangebot gibt.
Eine der beiden betroffenen WD-SSDs bei mir ist regelmäßig genutzte Spieleplatte, die andere tatsächlich nur "Datengrab". Mir geht es um die mögliche Geschwindigkeit, mit der die regelmäßigen inkrementellen Backups absolviert werden. Mit HDDs möchte ich mich da einfach nicht mehr herumschlagen. Die ebenso wie die als Datengrab dienende WD genutzte Crucial MX500 (beide sind parallele Backups meiner internen Samsung 860 Evo) macht keinerlei Zicken. In zwei historischen Sammlerstücken (ThinkPad 600X und ein Desktop mit AMD Athlon XP), die ich höchstens alle zwei Jahre mal einschalte, werkeln jeweils Crucial M550, bisher ohne Auffälligkeit.
Eine der beiden betroffenen WD-SSDs bei mir ist regelmäßig genutzte Spieleplatte, die andere tatsächlich nur "Datengrab". Mir geht es um die mögliche Geschwindigkeit, mit der die regelmäßigen inkrementellen Backups absolviert werden. Mit HDDs möchte ich mich da einfach nicht mehr herumschlagen. Die ebenso wie die als Datengrab dienende WD genutzte Crucial MX500 (beide sind parallele Backups meiner internen Samsung 860 Evo) macht keinerlei Zicken. In zwei historischen Sammlerstücken (ThinkPad 600X und ein Desktop mit AMD Athlon XP), die ich höchstens alle zwei Jahre mal einschalte, werkeln jeweils Crucial M550, bisher ohne Auffälligkeit.
failXontour
Lieutenant
- Registriert
- Mai 2018
- Beiträge
- 646
Um die 88%, also wie im voherigen Beitrag angegeben. Es sind eigentlich keine Daten hinzugekommen.massaker schrieb:Wow, also lesend (bis auf die Zugriffszeit) ganz ordentliche Werte für eine SATA-SSD....Aber schreibend...Ist ja schon fast eine Katastrophe...hmm. Wie voll war denn diese WD Blue3D M.2 1TB, als Du sie mit AS-SSD gebencht hast?🤔
- Registriert
- Juli 2010
- Beiträge
- 13.347
Artikel-Update: Dank zahlreicher Hinweise und Screenshots aus der Community weist vieles darauf hin, dass das Problem nicht generell besteht.
Von User „Corpus Delicti“ stammt noch der Tipp, das Tool DiskFresh zu nutzen, um gegebenenfalls die Speicherzellen der SSD aufzufrischen, ohne Formatieren zu müssen. Das funktioniert offenbar sehr gut.
Die Redaktion bedankt sich an dieser Stelle für die rege Teilnahme zur Untersuchung des demnach nur vereinzelt auftretenden Problems.
Von User „Corpus Delicti“ stammt noch der Tipp, das Tool DiskFresh zu nutzen, um gegebenenfalls die Speicherzellen der SSD aufzufrischen, ohne Formatieren zu müssen. Das funktioniert offenbar sehr gut.
Die Redaktion bedankt sich an dieser Stelle für die rege Teilnahme zur Untersuchung des demnach nur vereinzelt auftretenden Problems.
Innensechskant
Lieutenant
- Registriert
- Jan. 2015
- Beiträge
- 763
Auf meinem Dienstnotebook läuft seit über 30 Minuten "DiskFresh" und es hat erst etwa 15% geschafft.
SSD ist eine WDC PC SN520 SDAPNUW-256G-1016.
SSD ist eine WDC PC SN520 SDAPNUW-256G-1016.
R O G E R
Vice Admiral
- Registriert
- März 2008
- Beiträge
- 6.468
Jo kann das Tool auch Empfehlen in meinem T440s ist leider eine Samsung 840EVO (OEM) drin und die hat auch Probleme mit dem Leistungsverlust. Für die Standard Evo gab es ein Update, welches das Problem behoben hat. Und am Laptop wird halt wenn es gefühlt langsamer geht DiskFresh ausgeführt und alles ist wieder ordentlich schnell.MichaG schrieb:
N1truX
Lt. Junior Grade
- Registriert
- Mai 2012
- Beiträge
- 257
@MichaG Ich habe ein ähnliches Verhalten auch bei meiner Patriot VPN100 M.2 SSD festgestellt. Dateien die 2-3 Jahre auf der SSD liegen, werden teils mit 2-15 MB/s gelesen. Im Falle von OneDrive habe ich diese dann testweise einmal auf "Speicherplatz freigeben" gestellt und anschließend neu heruntergeladen: >1 GB/s bei großen Dateien.
Das Problem scheint also nicht nur WD zu betreffen.
Das Problem scheint also nicht nur WD zu betreffen.
Man könnte fast meinen das Wear Levelling funktioniert bei diesen SSD nicht bzw nicht richtig. Ggf wird das nur aktiv wenn Dateien bewegt oder aktualisiert werden aber nicht bei statischen Dateien.
Funktioniert bei den betroffenen SSD das Trim richtig? -> Trimcheck ausprobieren
Funktioniert bei den betroffenen SSD das Trim richtig? -> Trimcheck ausprobieren
N1truX
Lt. Junior Grade
- Registriert
- Mai 2012
- Beiträge
- 257
Es gibt am Ende immer eine Abwegung zwischen Wear Leveling und der Vermeidung unnötiger P/E-Cycles. Je häufiger der Controller Daten von A nach B kopiert, um die Auslastung der Zellen auszugleichen, desto mehr Abnutzung erzeugt man eben auch insgesamt.
Zumal das noch nicht wirklich die geringere Lesegeschwindigkeit erklärt (außer das SNR ist so schlecht, dass die Fehlerkorrektur im Controller quasi unter Dauerlast läuft).
Aber ja, irgendetwas scheint hier nicht wie gewünscht zu funktionieren.
Zumal das noch nicht wirklich die geringere Lesegeschwindigkeit erklärt (außer das SNR ist so schlecht, dass die Fehlerkorrektur im Controller quasi unter Dauerlast läuft).
Aber ja, irgendetwas scheint hier nicht wie gewünscht zu funktionieren.
EDV-Leiter
Lieutenant
- Registriert
- Juni 2014
- Beiträge
- 878
Meine betroffene SSD war eine 500 GB WD Blue SATA, M.2.
Verbaut wurde diese im Frühling 2019, ersetzt wegen Platzmagel im Herbst 2021 gegen eine 1 TB NVMe.
Beim Umzug der Daten fiel die extrem niedrige Kopierleistung (bis hin zu einstelligen Werten trotz großer Dateien) bei Daten auf, die aus dem alten Rechner übernommen und seit dem auch nicht mehr geändert wurden.
Der Rechner war dabei beinahe täglich in mehrere Stunden in Gebrauch, das geschiebene Datenvolumen betrug um die 5 TB.
Leider kann ich keine der damaligen Werte mehr liefern, da die SSD mittlerweile gelöscht und anderweitig Verwendung gefunden hat.
Verbaut wurde diese im Frühling 2019, ersetzt wegen Platzmagel im Herbst 2021 gegen eine 1 TB NVMe.
Beim Umzug der Daten fiel die extrem niedrige Kopierleistung (bis hin zu einstelligen Werten trotz großer Dateien) bei Daten auf, die aus dem alten Rechner übernommen und seit dem auch nicht mehr geändert wurden.
Der Rechner war dabei beinahe täglich in mehrere Stunden in Gebrauch, das geschiebene Datenvolumen betrug um die 5 TB.
Leider kann ich keine der damaligen Werte mehr liefern, da die SSD mittlerweile gelöscht und anderweitig Verwendung gefunden hat.
das Wear levelling umfasst (oder sollte umfassen) die Schreibzyklen einzelner Zellen aber auch die letzte Schreiboperation einer Zelle.
Natürlich sollte eine Zelle nicht bei einem geringen Unterscheid der Schreibzyklen die Daten in eine andere Zelle transferieren aber irgendwann bei entweder größerem Unterschied der Zyklen oder bei lange zurückliegender letzten Schreiboperation.
Wenn die Parameter dann zu hoch angesetzt sind kann es zu den bekannten Problemen kommen - die Zellspannungen sind nicht mehr ganz sauber also muß die Fehlerkorrektur Überstunden leisten und die Daten kommen nur noch im Schneckentempo.
Natürlich sollte eine Zelle nicht bei einem geringen Unterscheid der Schreibzyklen die Daten in eine andere Zelle transferieren aber irgendwann bei entweder größerem Unterschied der Zyklen oder bei lange zurückliegender letzten Schreiboperation.
Wenn die Parameter dann zu hoch angesetzt sind kann es zu den bekannten Problemen kommen - die Zellspannungen sind nicht mehr ganz sauber also muß die Fehlerkorrektur Überstunden leisten und die Daten kommen nur noch im Schneckentempo.
Stormfirebird
Admiral
- Registriert
- Sep. 2012
- Beiträge
- 9.269
Angeblich ja.Denniss schrieb:Funktioniert bei den betroffenen SSD das Trim richtig?
Wearleveling kanns auch nicht unbedingt sein, die Platte hat diesmal quasi nichts geschrieben.
Es scheint als hätten die Zellen schon Probleme ihre Spannung vernünftig zu halten, selbst wenn sonst nichts drumherum geschrieben wird.
Kontrapaganda
Lt. Junior Grade
- Registriert
- Dez. 2019
- Beiträge
- 318
2009? Nee, so moderneres Spielzeug gibts bei mir nicht . Die Karte ist von 2001.Corpus Delicti schrieb:2009 wurde noch Qualität gebaut.
Das stromlos --> Datenverlust-Zeitfenster wurde mit der Weiterentwicklung SLC->MLC->TLC->QLC immer kleiner.
N1truX
Lt. Junior Grade
- Registriert
- Mai 2012
- Beiträge
- 257
Ich habe mit der Patriot Viper VPN100 jetzt auch mal den Test gemacht. SSDReadSpeedTester -> DiskFresh -> SSDReadSpeedTester.
Der erste Test hat bei 1 TB mit knapp 85 % Belegung sicherlich 2 Stunden gedauert, der zweite vielleicht 10-15 Minuten mit offensichtlich deutlich höheren Transferraten. Ältere Spieleinstallationen laden jetzt auch wieder deutlich flotter.
Der erste Test hat bei 1 TB mit knapp 85 % Belegung sicherlich 2 Stunden gedauert, der zweite vielleicht 10-15 Minuten mit offensichtlich deutlich höheren Transferraten. Ältere Spieleinstallationen laden jetzt auch wieder deutlich flotter.
Anhänge
- Registriert
- Juli 2010
- Beiträge
- 13.347
Artikel-Update: Dass das Phänomen auch bei SSDs anderer Hersteller auftreten kann, zeigt die Patriot Viper VPN100 (NVMe-Modell) von Leser „N1truX“. Schaffte die mit älteren Dateien bestückte SSD im ersten Test mit dem Read Speed Tester nur eine durchschnittliche Leserate von 86 MB/s, waren es nach dem „Auffrischen“ mit dem Tool DiskRefresh erheblich höhere 2.727 MB/s. Die Auffrischung war demnach bitter nötig.
metallica2006
Commander
- Registriert
- Juli 2007
- Beiträge
- 2.541
Ich habe eine Plextor SSD mit 128GByte bei welche in den nicht genutzten Daten nach einigen Jahren Lesefehler hat (ist im normalen Betrieb zuerst nicht aufgefallen - aber dann als ich die Daten auf eine andere SSD kopieren wollte.). Nach dem Formatieren war wieder alles OK. Und nach einigen Jahren gab es wieder Lesefehler beim Komplettbackup - auch genau wieder bei ewig ungenutzten Daten.Kontrapaganda schrieb:Mal 'ne Frage in den Raum zum Thema Datenverlust bei Flash mit der Zeit. Ich habe noch eine SD-Karte anno 2001 mit einer gigantischen Speicherkapazität von sage und schreibe 6,7 MB!
Ich benutze sie als Notfall-Bootloader für meine Linux-Systeme. (Habe externernen USB-Reader)
das letzte Mal unter Strom gesetzt habe ich die Karte vor vielleicht 2 Jahren beschrieben vor 4 Jahren.
Ich habe sie gerade mal angesteckt und die Checksummen der Dateien geprüft. Alles paletti.
Die Karte liegt sonst nur im Schrank zwischen Pfefferminzbonbons von 2009 in einer Werbe-Schachtel aus Alu, die ein Erinnerungsstück an ein einen aufgelösten Verein sind.
Hat alter Flash diese Probleme nicht?
Also auch sehr alte SSDs mit SLC Speicher haben das Problem das die Daten korrupt werden können.
Inzwischen hat sich die Fehlerkorrektur und das Handling mit dem Problem aber wohl trotz der theoretisch anfälligeren Zellen verbessert, deswegen lesen wir aber hier nur von Geschwindigkeitseinbrüchen und nicht von Datenverlust.
Arcaras
Lieutenant
- Registriert
- Juni 2012
- Beiträge
- 512
Sicher, dass die SLC Speicher hat?Gargamehl schrieb:Ich habe eine Plextor SSD mit 128GByte ...Also auch sehr alte SSDs mit SLC Speicher haben das Problem das die Daten korrupt werden können.
Ranayna
Admiral
- Registriert
- Mai 2019
- Beiträge
- 7.564
Da waere mal interessant in welcher Strukturbreite die gefertigt ist.Kontrapaganda schrieb:SD-Karte anno 2001
Ich habe bei modernem Flash gehoert, das in einer Flashzelle eine mittlere zweistellige Anzahl an Elektronen gespeichert ist.
Dadurch das die Struktur, und damit der Isolator, immer kleiner werden, und das inzwischen mehr als nur "Ladung da" und "Ladung nicht da" unterschieden werden muessen, kann eine einstellige Zahl an Elektronen den Unterschied zwischen korrekten und korrupten Daten ausmachen.
Auch sehr relevant ist die bisherige Verwendung des Speichers. Schreiben zwingt Elektronen durch die Isolationsschicht, und beschaedigt sie dabei. Die 6 Monate JEDEC Spezifikation muss auch bei Flashzellen die am Ende ihrer Lebenszeit angekommen sind eingehalten werden. Da liegt es in der Natur der Sache, das frische oder wenig verwendete Zellen die Ladung laenger halten.
Ähnliche Themen
- Antworten
- 61
- Aufrufe
- 12.851
- Antworten
- 64
- Aufrufe
- 14.903
- Antworten
- 13
- Aufrufe
- 1.934