[Sammelthread] Kaufberatung und Fragen zu SSD

Status
Für weitere Antworten geschlossen.
Hallo zusammen,

ich würde gern meine Erfahrungen mit meinen SSDs mitteilen. In meinem Rechner arbeitet als Haupt-SSD eine Samsung 860 Evo mit 1TB (Betriebssystempartition 50GiB Windows 10 und Datenpartition 850GiB, Rest unpartitioniert). Beide Partitionen sind mit TrueCrypt verschlüsselt. Als Backup für die Daten habe ich eine Crucial MX500 1TB und eine WD Blue 3D 1TB (jeweils eine Partition 850GiB mit TrueCrypt verschlüsselt, Rest unpartitioniert). Alle SSDs sind per SATA3 im Wechselrahmen angebunden, die Backup-SSDs nur bei Bedarf (Crucial und WD nutzen dabei denselben [!] Slot im Wechsel). Backups erstelle ich inkrementell bei Bedarf, im Schnitt ein- bis zweimal im Monat. Die Daten sind also auf allen drei SSDs gespiegelt, und die Backup-SSDs sind nur alle paar Wochen mal angeschlossen, die WD dabei häufiger als die Crucial.

Etwa einmal im Jahr erstelle ich einen Prüfsummenvergleich der gespeicherten Daten. Sollte es Abweichungen geben, kann ich manuell prüfen, welche Daten (Original oder Backup) noch korrekt sind und welche nicht. Nun habe ich im Einsatz zweierlei Dinge festgestellt:

Beim Einschieben in den Wechselrahmen wird die Crucial-SSD meist erst im zweiten oder dritten Anlauf erkannt (SATA-Hotswap). Dann arbeitet sie aber tadellos. Die WD hingegen ist innerhalb weniger Sekunden einsatzbereit, wird sofort zuverlässig erkannt. Das Verhalten war an meinem alten Intel-Z77-Mainboard genauso wie jetzt am AMD-X570-Mainboard mit ansonsten derselben Peripherie.

Mit der WD Blue 3D gibt es aber ein ganz anderes Problem: Wärend Samsung 860 Evo und Crucial MX500 den jährlichen Prüfsummenvergleich nahezu gleichschnell abschließen und für die rund 750GiB Nutzdaten - Dokumente, MP3s, JPG-Fotos, alles in allem über 250.000 Dateien mit jeweils weniger als 10MiB - etwas mehr als eine halbe Stunde benötigen (die Crucial etwa eine Minute länger), somit im Bereich von 400MiB/s Lesegeschwindigkeit liegen (TrueCrypt-verschlüsselt), kommt die WD im Schnitt nur auf 24MiB/s und braucht rund neun Stunden für dieselbe Übung. Mir sieht das ganz extrem nach dem gleichen Problem aus, wie es damals die Samsung 840 (vor-Evo) hatte, dass vor langer Zeit geschriebene Daten nicht mehr gut gelesen werden können. Absolut unterirdisch.

Es ändert nichts an meiner Philosophie, für Original und Backups jeweils Datenträger unterschiedlicher Hersteller zu nutzen, um bei grundsätzlichen Problemen der Produkte eines Herstellers nicht kompletten Datenverlust zu erleiden, es bestätigt die Richtigkeit dieses Vorgehens eher. Aber auf die Qualität der WD-SSD wirft das ein sehr schlechtes Licht. Datenfehler hatte ich dadurch immerhin noch keine. (Im Gegensatz zu meiner Seagate Exos X12 12TB als eines der Backups meiner eingebauten WD Gold 12TB. Die Seagate hat, trotz fehlerfreier SMART-Werte, reihenweise korrupte Daten produziert, die bei der letzten Kontrolle vor einem Jahr noch in Ordnung waren. Bin auf die Prüfsummen-Ergebnisse des zweiten Backups auf einer Toshiba-HDD gespannt.)

Mein Fazit: Die WD Blue 3D ist nicht zu empfehlen, verhält sich wie eine ungepatchte Samsung 840, und Backups benötigen einen regelmäßigen Prüfsummenvergleich, sonst kann man sich im Ernstfall nicht darauf verlassen.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC und SPB
ThommyDD schrieb:
....Die WD Blue 3D ist nicht zu empfehlen, verhält sich wie eine ungepatchte Samsung 840...
Hallo @ThommyDD , Deine Story erinnert mich sofort an die Probleme in dem Nachbarthread. Bitte schau Dir das Tool aus diesem Beitrag an:
Beitrag im Thema "WD Blue 3D NAND langsam bei alten Dateien"
https://www.computerbase.de/forum/t...ngsam-bei-alten-dateien.2030447/post-26632070
Vielleicht kannst Du ja Dein Blue3D-Problem mit HDDSentinel lösen, bin gespannt.
Ergänzung ()

Raucherdackel! schrieb:
...SATA Krücken schaffen beim Kopieren von der HDD oftmals nicht mehr, die 210MB/s des Quelllaufwerks zu halten. Und diese "billige" SN550 hat nach dem SLC Cache noch absolut konstante 800MB/s!
Evtl. können die Quellaufwerke aber auch nicht immer konstant 210MB/s liefern. HDDs gehören eh' raus aus dem System um extern nur bei Bedarf bzw. für Backup-Zwecke zu laufen. Und wenn bei Dir später deine "SATA-Krücken" als Quelle fungieren, dann wird die SN550 vermutlich konstant halten, was sie liefern, denn...
Raucherdackel! schrieb:
Ist Crystaldiskmark dafür geeignet? Da ich mir die 2TB Variante gegönnt habe, sollte der SLC-Cache bei ~24GB voll sein und dann die Transferrate einbrechen. Sehe ich das richtig so? Eventuell habe ich ja Glück und das 2TB Modell wurde nicht geändert...
...denn 2TB scheint von der "Verschlimmbesserung" nicht betroffen zu sein.
CrystaldiskMark/Crystaldisk Info/AS-SSD Screens sind sehr willkommen sobald Du sie hast. Den pSLC-Cache kannst Du damit jedoch nicht messen. Außer Du lässt CDM8 mit 16/32/64 GB Testfile-Größe laufen und dann kann man anhand der Durchschnitt-Speeds (und dem Einbruch beim Schreiben @32/64GB) grob was erkennen/abschätzen.
Für solche Zwecke eignen sich jedoch "HD Tune->File Benchmark mit random Pattern" und "Aida64->Storage Benchmark->Linear Write" optimal. Lass halt HDTune mit 40-50GB laufen und so kannst Du schön grafisch sehen wieviel pSLC-Cache Deine SSD hat, wie schnell sie davor ist und auf wieviel danach sie einbricht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThommyDD
So, die Sandisk Ultra M.2 NVME 3D SSD ist da. Datum ist April 2021.

Hab mal probiert, ein 43GB BD-ISO Image von der ADATA SU650 auf die Sandisk zu kopieren. Allerdings bringt die ADATA als Systemplatte nur ~390MB/s. Also hab ich das Image von der Sandisk auf die Sandisk kopiert:


Ich denke mal, die Übertragungsrate ist gut Beginnt bei 1300, pendelt sich ein bei ~920, und fällt dann auf 690 MB/s. CDM zeigt ähnlich gute Werte als im Computerbase Test. Was nicht verwundert bei dem Herstellungsdatum.
 
Zuletzt bearbeitet:
Raucherdackel! schrieb:
...Ich denke mal, die Übertragungsrate ist gut Beginnt bei 1300, pendelt sich ein bei ~920, und fällt dann auf 690 MB/s. CDM zeigt ähnlich gute Werte als im Computerbase Test. Was nicht verwundert bei dem Herstellungsdatum.
Alles klar, schaut für mich sehr ordentlich aus. Wenn Du mehr Klarheit haben willst - so habe ich in meinem letzten Post bereits beschrieben, wie genau Du testen sollst, falls was unklar ist - gerne Fragen stellen. Außerdem wäre es klug in Deinem Screenshot den Dateinamen (X-Men - Dark Phoenix BluRay-Untouched Image) zu schwärzen. Hier ist ein Beispiel, wie ein HDTune-Durchlauf ausschaut, bei mit mit 150GB:
1646255572797.jpeg

So sieht man sofort, dass die SSD (hier: 970Evo) die ersten ~42GB mit ~2400MB/s schreiben kann und danach auf grob 1200MB/s einbricht, so dass beim 150GB-Schreiben durchschnittlich ~1400MB/s rauskommen.
 
Ich habe meine zweite WD Blue 3D mal getestet. Da ist mein Spielesystem drauf. In der Spielebibliothek sind viele Spiele, die keine Updates mehr bekommen. Die Daten sind im Juli 2020, also vor anderthalb Jahren, auf die SSD übertragen worden. Ich habe gerade mal testweise einen Spieleordner von der SSD in die RAM-Disk kopiert. Zwischen 10 und 25MiB/s Übertragungsrate. Ich kann aktuell nur dringend von dieser SSD und der baugleichen SanDisk Ultra 3D abraten, selbst als Spiele-Datengrab ist sie unbrauchbar, da die Leserate, die beim Laden der Spiele eine Rolle spielt, auf USB-2.0-Niveau einbricht. Festplatten hatten das vor zwanzig Jahren zuletzt. (Zugriffszeiten natürlich mal außer Acht gelassen, da sind SSDs eine andere Welt.)
 
SSDs sind nicht zur Langzeitarchivierung geeignet, da die Zellen regelmäßig einen Refresh brauchen, um die Performance zu erhalten und auch vor Datenverlust zu schützen.
Das sollte die Firmware von sich aus erledigen. Wenn das bei dir nicht klappt, liegt ein Firmware Bug vor.
Um die Performance von älteren SSDs und bei solchen Bugs zu erhalten, hilft ein kompletter Refresh aller Zellen, zum Beispiel durch sichern eines Komplettimages auf einem anderen Datenträger und Wiederherstellung auf der SSD. Danach sind die Daten auf die Zellen verteilt, die bisher am wenigsten beschrieben wurden und es gibt nur noch neue Daten.
Das schadet der SSD nicht, wenn das alle paar Monate, maximal im jährlichen Abstand gemacht wird. Der P/E-Zyklen Verbrauch durch solche Maßnahmen macht eine SSD nicht in Hundert Jahren kaputt, sondern verlängert ihre Lebensdauer.
Die Firmware macht das ja auch ständig, bzw. sollte es ständig machen als Statisches Wear Leveling. Wenn das unterbleibt, werden nur noch die freien Zellen neu beschrieben und die fallen dann vorzeitig aus, anstatt, dass alle Zellen gleich oft beschrieben werden.
 
  • Gefällt mir
Reaktionen: jff2k
Ich hab hier noch eine uralte PNY SSD mit 100GB, die schafft maximal noch 500KB/s sequentiell. Die war als Systemplatte in einem Netbook verbaut.
 
Das mit dem Firmware-Bug ist mit Sicherheit so, aber so lange der nicht behoben ist, ist die WD einfach unbrauchbar. Die Crucial und die Samsung zeigen das Problem nicht im Ansatz. Besonders peinlich finde ich, dass der Hauptkonkurrent vor Jahren dieses Problem hatte, dafür viel Prügel bezogen hat und schließlich einen Fix bringen musste. Nun taucht Jahre später dasselbe Problem bei WD auf. In welchem Tiefschlaf steckt deren Entwicklungsabteilung?
 
Hast Du Dich beim WD-Support gemeldet?

Hast Du HDDSentinel mal ausprobiert?

Ansonsten ist der aktuelle Workaround nur die SSD bspw. via Acronis zu sichern, anschließend zu löschen und wieder neu aus dem Backup zu beschreiben.
 
Das geht auch, aber dann solltest du die Partition schnellformatieren und anschließend die Optimierung über die defrag App machen (das startet TRIM).
Nach der Optimierung können die Daten wieder zurück kopiert werden.
Verschieben würde ich nicht, weil bei einer Panne Daten verloren gehen können. Erst Kopieren, dann die SSD schnellformatieren.
 
Zu der fast perfekten Beschreibung von @deo würde ich nur hinzufügen, dass nach dem TRIM-Vorgang, der scheinbar in ~1 Minute durchläuft (je nach Kapazität unterschiedlich schnell) sollte man gute 10-15 Minuten (wieder je nach Kapazität und Controller-Power) abwarten bzw. die SSD etwas ideln lassen, bevor man die Daten zurück kopiert.
Alternativ (wenn keine weitere SSD mit entspr.. Kapazität zur Hand) kann man einfach HD Sentinel benutzen:
HDSentinel.png
 
massaker schrieb:
Alternativ (wenn keine weitere SSD mit entspr.. Kapazität zur Hand) kann man einfach HD Sentinel benutzen
Kleine Anmerkung zu dem Tool: Die Option "Lesetest + Schreibtest + Lesetest (Datenbereich auffrischen)" ist nur ab der kostenpflichten "Hard Disk Sentinel Professional" enthalten (>30 Euro).
 
Ich suche eine NVME-SSD, 256/250GB. Was wäre denn gerade die vernünftigste und günstigste Lösung, wenn es um eine konstante Dauerschreibleistung (z.B. Videoschnitt) geht? Müssen keine GB/Sek. sein, aber die Dauerschreibleistung soll eben auch nicht auf 70MB/Sek. absinken. Ich hatte mir gerade die Crucial P2 angesehen, und war dann entsetzt, dass die mal ein guter Deal gewesen sein soll, und dann klammheimlich plötzlich ohne Änderung der Produktbeschreibung QLC eingebaut wurde.

Gibt es da derzeit noch was günstigeres als die WD Black SN750 oder die 970 Evo Plus?
 
250er sind ziemlich sinnlos, egal ob NVMe oder SATA, unter 500 würde ich da nicht anfangen. Zum Teil/oft sind die auch noch langsamer als die größeren Versionen. Bei Crucial gibt's noch die P5 bzw P5+
 
  • Gefällt mir
Reaktionen: Dr. McCoy
tschesny schrieb:
Ich suche eine NVME-SSD, 256/250GB. Was wäre denn gerade die vernünftigste und günstigste Lösung, wenn es um eine konstante Dauerschreibleistung (z.B. Videoschnitt) geht?...
Du denkst schon richtig. Ganz genau, Hauptsache keine mit QLC (und nicht die billigste TLC von AliExpress natürlich). Und die beiden genannten eignen sich sehr gut. Was Leistung/Ausdauer/PL-Verhältnis angeht, so würde ich sogar gleich zu einer 1TB-Version greifen.
 
  • Gefällt mir
Reaktionen: tschesny
Also zunächst einmal zum Vorgehen: Ich werde definitiv kein 30-Euro-Tool kaufen, um einen Hardware-Fehler einer 100-Euro-SSD zu beheben. Zumal ich eh Payware weitgehend vermeide, zumindest wenn es um so Kleinigkeiten geht. Gerät gedanklich abschreiben und bei nächster Gelegenheit durch was Ordentliches ersetzen.

Der Workaround mit badblocks -nvs hat aber erstmal Besserung gebracht. Vielen Dank für den Tipp! Dauerte rund 16 Stunden, jetzt lesen die Daten wieder mit 250-400MiB/s (rund 400MiB/s ist generell das Maximum auf den verschlüsselten SATA-SSDs). Das war aber jetzt die Dauer nach anderthalb Jahren. Vermutlich läuft es schneller durch, wenn man es alle halbe Jahre mal macht. Trotzdem ein Unding. Bei meiner Backup-SSD werde ich das notgedrungen akzeptieren, da es nur drei SATA-SSD-Hersteller mit eigener NAND-Fertigung gibt und ich drei komplett verschiedene Datenträger benötige, die Spiele-SSD wird aber mittelfristig ersetzt, dann entweder durch Samsung oder Crucial.

Den WD-Support werde ich bei Gelegenheit kontaktieren, nur zu dem Zweck, dass sie darauf aufmerksam werden und die Firmware patchen. Es bringt mir nichts, die ansonsten intakte SSD durch ein identisches Neugerät mit demselben Fehler zu ersetzen. Das ist den ganzen Zirkus nicht wert.
 
Zuletzt bearbeitet:
ThommyDD schrieb:
die Spiele-SSD wird aber mittelfristig ersetzt, dann entweder durch Samsung oder Crucial.
Ich denke, das alle SSDs mit TLC Nand betroffen sind. Entscheident ist, ob die langsame Stelle stört, oder nicht. Ich glaube auch nicht, das das zu verhindern ist.
Bei meiner Crucial MP600 1TB ist eine Woche nach Secure Erase und wiederherstellung der Daten, die kurzzeitige verbesserung wieder verflogen (laut "SSDReadSpeedTester2.04"). Allerdings merke ich die langsamen Stellen noch nicht.
 

Anhänge

  • 2022-02-28 17.26.46 Results for C Vor SE.png
    2022-02-28 17.26.46 Results for C Vor SE.png
    32,2 KB · Aufrufe: 131
  • 2022-02-28 18.15.25 Results for C Nach SE.png
    2022-02-28 18.15.25 Results for C Nach SE.png
    32,2 KB · Aufrufe: 141
  • 2022-03-07 00.34.54 Results for C Eine Woche später.png
    2022-03-07 00.34.54 Results for C Eine Woche später.png
    32,3 KB · Aufrufe: 141
  • ATTO Corsair Force MP600 1000GB Eine Woche nach SE.GIF
    ATTO Corsair Force MP600 1000GB Eine Woche nach SE.GIF
    244,9 KB · Aufrufe: 146
Da ich wie gesagt für die gleichen Daten, die auf der Backup-WD-SSD liegen, auch noch eine Samsung 860 Evo und eine Crucial MX500 einsetze, ich also den direkten Vergleich dieser drei habe, die Daten sind 1:1-Kopien und auch gleich alt, ist meine Beobachtung, dass zumindest nach anderthalb Jahren die Crucial und die Samsung das Problem nicht im Ansatz haben. Da ist nicht einmal eine Abnahme der Lesegeschwindigkeit im niedrigen Prozentbereich zu beobachten, ganz zu schweigen von einem Einbruch um Faktor 20-40. Die Behauptung, dass alle TLC-NAND-SSDs gleichermaßen betroffen wären, ist damit schlicht falsch. Andere Hersteller als WD haben - auch aufgrund eigenen Schadens - offenbar gelernt, das Problem zumindest vom Kunden fern zu halten. Alles andere interessiert mich auch nicht. Wenn es ein möglicherweise generelles technologisches Problem mit TLC gibt und zwei von drei Herstellern wissen, wie damit umzugehen ist, werde ich ganz sicher nicht den einzigen Hersteller empfehlen, der es nicht kann.

Benchmarks wie AS-SSD oder CrystalDiskMark sind zur Beurteilung des Problems übrigens völlig ungeeignet, da sie die zu prüfenden Daten selbst auf der SSD ablegen, diese also "frisch" sind. Wenn dann müsste man Tools wie h2testw nutzen und die Testdaten über die Jahre liegen lassen, dann jeweils nur erneut lesend testen.
 
Zuletzt bearbeitet:
Blöde Frage; Ich hab die WD Balck SN750 SE die Tage verbaut und mein System darauf kopiert, soweit alles super. Da diese nvme ssd eine gen4 ist, nun meine Frage, sollte ich im Bios M.2_1 PCIe Lanes Source von PCH auf CPU umstellen?

"bin da nicht so im Thema"
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben