Test WD Blue SN5000 4 TB im Test: Die bisher beste SSD mit QLC-Speicher

Nighteye schrieb:
Arbeitest du für den Hersteller dieser Festplatte oder warum verbreitest du diese viel zu Optimistischen Äußerungen ?

Nö, hab mit WD nichts zu tun. Ich habe aber Erfahrung aus der Realität.

Nighteye schrieb:
Meine Crucial MX500 mit TLC, ist bereits bei 80% Health laut Crytal Disk Info.
Mit QLC wäre sie bei mir schon Defekt.

Quatsch...

1. Das was du da hast sind ~42 TB geschrieben selbst bei der 500 GB Version hättest du also noch garantierte 258 TB.

2. Nur weil CDI anzeigt, dass du noch X Health hast bedeutet das 0. Wie ich schon sagte die TBW-Werte sind nur für die Garantie relevant ansonsten gilt, dass min. 2x eher mehr geschrieben werden kann. Gute SSDs gehen sobald sie auch wirklich am Ende sind in ein Read-Only Mode ergo du kannst noch alles runter auf eine neue SSD migrieren.

Damit du mal ein Gefühl bekommst:

https://www.heise.de/news/SSD-Langzeittest-beendet-Exitus-bei-9-1-Petabyte-3755009.html

Nighteye schrieb:
Und das wäre Fatal, denn es ist meine Windows Festplatte.

Dann mache gefälligst Backups! 3-2-1 Backups suchen!
 
  • Gefällt mir
Reaktionen: 4BitDitherBayer
Nighteye schrieb:
Arbeitest du für den Hersteller dieser Festplatte oder warum verbreitest du diese viel zu Optimistischen Äußerungen ?
Meine Crucial MX500 mit TLC, ist bereits bei 80% Health laut Crytal Disk Info.
Mit QLC wäre sie bei mir schon Defekt. Und das wäre Fatal, denn es ist meine Windows Festplatte.
Was für ein Quatsch!
Selbst wenn deine TBW verbraucht sind geht eine SSD nicht einfach so defekt.
Das verhält sich in etwa so wie beim Mindesthaltbarkeitsdatum deiner Milch aus dem Supermarkt.
Der Hersteller gewährt ein Garantie für einen gewissen Zeitraum.

Bei einer SSD ist es eben eine gewisse Datenmenge die geschrieben werden kann.
Das bedeutet aber nicht das die Produkte nach Ablauf der Daten schlecht bzw. Kaput sind.
 
Clonedrone schrieb:
Wenn ich mir überlege, dass seit 10 Jahren eine Intenso SATA SSD MLC (also mit 2 Schichten) ohne Probleme arbeitet, ist das mit QLC nichts, was eine Verbesserung ist.
Ich weiß nicht... an die 50ct/GB von 2014 habe ich persönlich nicht die freudigsten Erinnerungen.

lorpel schrieb:
1.200 TB sind der Deal-Breaker.
Das ist nicht nur für Vielschreiber ein Manko, sondern auch für Langzeitnutzer, wie mich.
Aus Interesse - wie viel hast du denn in den 12 Jahren auf deine bestehende SSD geschrieben? Zeig mal einen CDI Screen her :)

Mein Heimserver schreibt im Schnitt 23TB/Jahr auf die System-Platte und der hat 'ne ganze Reihe an VMs drauf laufen. Mit 1200 TBW wäre das ~50 Jahre bevor hier 0% erreicht wird.
Mein Desktop liegt bei ähnlichem Write-Volumen obwohl ich das ein- oder andere Terabyte unnötig geschrieben habe mit ein paar Write Tests.

Ich sehe da schlicht nicht das Problem.
 
  • Gefällt mir
Reaktionen: 4BitDitherBayer und Cool Master
1720559002843.png

Yay Sata 3 Speed!
Und dann nicht mal günstiger als Sata3 SSDs...
ja klar UVP und so.... Aber das ding wird höchstens im abverkauf interessant.

Ich mein der Cache ist schon cool... aber Nutzlos. Wer hat schon Leere SSD's im PC? Die sind doch immer mind. zu 75% voll... eher mehr.
1720559122322.png



Leeren speicher zu haben ist verschwendung.
P.S die 750gb und 2tb sind Crucial MX500 Sata3, die 8tb eine Samsung 870 QVO.


Edit:
XD Langlebigkeit ist bei mir wohl kein Problem...
Das älteste im System ist mit 750 Tagen Betriebszeit nur bei 16TBW xD
1720559579990.png


Die 2TB MX500 bei 20TBW in 350 Tagen
1720559681709.png


Und die M2 System platte bei 20TBW in 85 Tagen
1720559747965.png
 
Zuletzt bearbeitet:
Ältere SSDs sollten in Bezug auf Haltbarkeit etc. nicht mit aktuellen SSDs verglichen werden. Erstens hatten die NAND-Chips nicht hunderte von vertikalen Schichten, was die Ausfallwahrscheinlichkeit im Vergleich zu sehr wenigen oder nur einer Schicht deutlich erhöht, und zweitens werden die Chips durch die hunderte von Schichten auch deutlich heißer, was auf Dauer eher ein Nachteil ist.

@Rickmer würde empfehlen im CDi die "RAW Values" auf dezimal (statt hexadezimal) umzustellen.

1720563069606.png
 
Zuletzt bearbeitet:
Ich komme mit dem Systemlaufwerk auf 20-25 TBW pro Jahr, beim Homeserver sind es gern mal 100 TBW pro Jahr.

Beides wird intensiv genutzt, z. B. auf dem Systemlaufwerk werden große Videodateien mit bis zu 30GB geschrieben, einige Spiele installiert und auf dem Homeserver laufen mehrere Docker Images und VMs 24/7.
 
Zuletzt bearbeitet:
Sorry ließt sich eher wie eine Werbung, das Review.

Im QLC-Modus schreibt die SN5000 immerhin noch mit rund 390 bis 580 MB/s
...
Meine Transcend SSD230S (SATA III 6Gb/s) mit 4TB TLC, mit SLC Cache und 512MB DRAM Cache kostete Neu faire 159€. Bietet TBW von 2,24PB + 5j Garantie und hält auch bei sehr großen Dateien, auch nach 100gig noch konstant die 500 MB/s. Wer also was zum archivieren sucht, ist mit einer 4+TB SSD besser bedient. Transcend will 2024 noch eine 8TB Version zum fairen Preis bringen, bin ich dabei.

Sorry, diese WD QLC bleibt Lowend-Schrott zum dreisten Wucherpreis
 
  • Gefällt mir
Reaktionen: KillerGER87
C4rp3di3m schrieb:
Meine Transcend SSD230S (SATA III 6Gb/s) mit 4TB TLC, mit SLC Cache und 512MB DRAM Cache kostete Neu faire 159€.
Derzeit eher 259€.
 
Araska schrieb:
Sata ist einfacher, wenn man ein vorhandenes NAS befüllen will.

Oder als Dritt-SSD im Deskmini X300...
Beide Punkte kann man zur Kompatibilität hinzurechnen. Wobei ein NAS genug für einen weiteren Auflistungspunkt darstellt.

lorpel schrieb:
20 Jahre Einsatzdauer sind bei mir das Minimum, was ich erwarte. Eher 40 Jahre.
20 Jahre? 40?
In 20 Jahren hat man möglicherweise M.2 ersetzt oder es macht keinen Sinn, eine so alte SSD in einem aktuellen PC zu verwenden. Dann verwende die alte SSD besser im alten Retro-PC mit Ryzen 7 17950X3D, 384 GB DDR13, usw.
20 Jahre! Wer weiß, was da noch kompatibel ist. Versuch Hardware von 2004 in einem heutigen PC zu verwenden.
In 40 Jahren bist du in Pension und verwendest die alte SSD im Retro-PC, weil du dich nach der guten alten Zeit sehnst. Andere Forennutzer können froh sein, wenn sie in 40 Jahren noch am Leben sind ..., während wir in der Realität implantierte Quantencomputer nutzen, um in Pornos mitzuwirken (Vorsicht, Ironie ... mit Ausnahme der Pornos ...)
 
  • Gefällt mir
Reaktionen: Cool Master und massaker
Atkatla schrieb:
Das was du beschreibst ist auch bei QLC-Laufwerken nicht die Norm, auch nicht, wenn man den Rechner nach langer Zeit erstmal vieles Updaten lassen muss. Da reicht halt nicht, nur oberflächlich zu schauen "ob der Rechner stockt". Das tut er auch so, wenn alle CPU-Kerne gerade mit verschiedenen Updates gleichzeitig ausgelastet sind. Die I/O-Queue der SSD zeigt dann besser, ob diese der Flaschenhals ist oder das System.

Und eine Festplatte ist keinesfalls schneller in diesem Szenario. Gerade bei vielen IOPS bei Updates und Random Read/Writes nützt die die vergleichbare sequentielle Lese/Schreibrate einer Festplatte (im Bereich von 100-200MB/s) nix, denn bei Random read / writes erreicht eine Festplatte diesen Wert bei weitem nicht.

Das haben die meiste Leute aber eben nicht auf dem Schirm, weil in oberflächlichen Tests eben oft nur gezeigt wird, wieviel MB/s in seqentuellen Zugriffen nach Volllaufen des Cache möglich sind, aber eben nicht wieviel IOPS von Random Reads oder Writes. Eine Festplatte krüppelt da mit weit unter 1000 IOPS rum (eher 100-200), während auch eine QLC-SSD auch nach Vollaufen des SLC-Cache um Größenordnungen darüber liegt. Und gerade bei Updates mit nur wenigen sequentiellen großen Daten ist dieser Faktor wichtig,

Plus: in der Praxis treffen Steam und Windowsupdates aber ohnhin über die langsamerere Internetverbindung ein. Da hat die SSD die Daten schon zehnmal wieder vom SLC-Cache in TLC oder QLC übertragen, als dass da der Cache volllaufen könnte. Die Langsamkeit von "SLC-Cache voll" trifft primär nur Nutzer, die lokal sehr viele Daten von einem Laufwerk zum anderen schieben.

Hast du mal Steam Updates beobachtet? Offensichtlich nicht! Das Problem tritt vor allem nach dem Download auf wenn die Daten entpackt und geschauffelt werden während das nächste Update läuft. Hat mit dem Internanschluss, der CPU usw. nichts zu tun., das LW ist 100% der Flaschenhals.
Das Problem kann man mit jedem (DRAMless) QLC LW nachvollziehen, vor allem wenn man es als Systemlaufwerk einsetzt. Kann schon sein, dass dieses WD LW hier besser abschneidet, aber prinzipiell kacken hier alle QLC LW ab.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Deinorius schrieb:
20 Jahre? 40?
In 20 Jahren hat man möglicherweise M.2 ersetzt oder es macht keinen Sinn, eine so alte SSD in einem aktuellen PC zu verwenden.
Genau! Eben weil es dann keine HW mehr für alte PCs gibt, darf die alte HW nicht kaputt gehen.
Dann müsste man wegen einer defekten SSD den ganzen PC entsorgen.

Zum Vergleich: mein CD Player ist von 1990 und läuft einwandfrei.
 
C4rp3di3m schrieb:
Bietet TBW von 2,24PB + 5j Garantie und hält auch bei sehr großen Dateien, auch nach 100gig noch konstant die 500 MB/s. Wer also was zum archivieren sucht, ist mit einer 4+TB SSD besser bedient.
Für Archivierung solltest du die Daten lieber redundant auf mehrere HDDs schieben.

C4rp3di3m schrieb:
Da is so und selbst wenn
Mit der Einstellung sind aktuell eh alle SSDs auf dem Markt unkaufbar und werden es bleiben bis der Schweinezyklus mal wieder in die Verlustzone für NAND Hersteller schwenkt.

lorpel schrieb:
Genau! Eben weil es dann keine HW mehr für alte PCs gibt, darf die alte HW nicht kaputt gehen.
Dann müsste man wegen einer defekten SSD den ganzen PC entsorgen.
Da werden dir die Ersatz-Mainboards ausgehen lange bevor es keine Speichermedien mehr gibt.
 
  • Gefällt mir
Reaktionen: C4rp3di3m und Cool Master
Rickmer schrieb:
Aus Interesse - wie viel hast du denn in den 12 Jahren auf deine bestehende SSD geschrieben? Zeig mal einen CDI Screen her :)
Anbei ein Screenshot. Ist bei mir wohl doch ein Problem.
 

Anhänge

  • SSD.jpg
    SSD.jpg
    87,2 KB · Aufrufe: 75
Atkatla schrieb:
Das was du beschreibst ist auch bei QLC-Laufwerken nicht die Norm, auch nicht, wenn man den Rechner nach langer Zeit erstmal vieles Updaten lassen muss.
Ich habe eine Samsung 860 QVO 2TB und ich kann die Erfahrungen von @VRAM durchaus teilen.
Steam oder GoG reservieren bei vielen Spielen(update oder Neuinstall) erstmal den ganzen Speicherplatz....ab da ist der SLC Cache voll und die SSD fängt an umzuschichten, während die neuen Spieledateien gelesen und geschrieben werden.

Eigentlich sind SSDs ja super bei zeitgleichen Zugriffen....5 Programme starten dauert im Grunde nur so lange wie das längste Programm braucht+wenige Sekunden, wo es bei einer HDD die Summe der Programmstarts dauert....das ist aber dann nur lesen.

Aber QLC und teilweise auch TLC kommen mit gemischtem Lesen und Schreiben nicht gut klar. Da kann man unter 20MB/s bei der 869 QVO fallen und auch TLC SSDs laufen da teilweise auf 100%.
Klar, irgendwas muss an Limit laufen, sonst wären die Vorgänge unendlich schnell.

Das QLC langsamer als eine HDD wird, ist aber schon traurig und kann auch im Alltag störende Wartezeiten erzeugen.
Ich finde meine Aufzeichnungen dazu nicht mehr, aber nachdem mich mehrfach die Spiele-Updates zu nervigen Wartezeiten gezwungen haben, hatte ich das mit einer Installation getestet.

Die Spiele Dateien waren auf einer externen 2,5" HDD als Steam Pakete gesichert...also schon nicht die schnellste Quelle.

TLC hat glaube ich 6 min gebraucht und war durch die Quelle limitiert...eine 3,5"HDD hat so 10min gebraucht und die 860 QVO fast 13min.

Das sind alles Luxus Probleme.
Aber die Testberichte warnen vor großen Datentransfers und da denkt man sich:"mache ich ja selten." Aber dann will man ein Spiel spielen und wartet 10min, bis es losgeht, wo TLC nach 2min fertig wäre.
Das ist der Unterschied von:"ich hole einen Kaffee und dann geht's los", zu:"ich habe meinen Kaffee, war auf der Toilette und muss trotzdem noch warten."

Dram los ist meiner Erfahrung nach aber schlimmer....das ist so lange ganz normal, bis man zu viele Dateien gespeichert hat und ab da ist die ganze SSD in allem langsam.
 
Rickmer schrieb:
Ich weiß nicht... an die 50ct/GB von 2014 habe ich persönlich nicht die freudigsten Erinnerungen.
So viel habe ich gar nicht mehr gezahlt glaube ich. 240 GB für 60€ oder so? Interessanter ist, dass ich mit der Geschwindigkeit keinerlei Probleme habe im Jahr 2024. Da läuft noch mein Windows 11 drauf.
 
Clonedrone schrieb:
Interessanter ist, dass ich mit der Geschwindigkeit keinerlei Probleme habe im Jahr 2024. Da läuft noch mein Windows 11 drauf.
Für mich jetzt wenig erstaunlich.

Windows braucht mittlerweile gelegentlich mehr IOPS als eine HDD problemlos bereitstellen kann, aber darüber hinaus hat es keinen großen Ressourcenhunger.

Also solange nicht ständig in die Pagefile geschrieben werden muss weil nicht genügend RAM vorhanden ist oder andere Fehlkonfigurationen der Art. Aber dafür ist eher MacOS für bekannt - da hatte Apple so manche SSD kaputt geschrieben vor ein paar Jahren.
 
lorpel schrieb:
Genau! Eben weil es dann keine HW mehr für alte PCs gibt, darf die alte HW nicht kaputt gehen.
Man kann heute sogar noch IDE PATA 2,5" kaufen. Dass es keine Hardware mehr gibt, daran glaube ich nicht.
Ergänzung ()

Rickmer schrieb:
Also solange nicht ständig in die Pagefile geschrieben werden muss weil nicht genügend RAM vorhanden ist oder andere Fehlkonfigurationen der Art.
Es sind die vielen Dienste und Tasks. Mittlerweile hat ja jede Software ihren eigenen Dienst. Ich stelle schon genug in der msconfig um. Die Swapfile hat mit dem billigen Arbeitsspeicher ja an Relevanz verloren. Die Indexierung ist bei mir aber auch deaktiviert.
 
Zuletzt bearbeitet:
C4rp3di3m schrieb:
Da is so und selbst wenn die WD kostet 318 laut Artikel.

Oh; ich glaube dir durchaus, daß die Sandisk mal für 159 Euro zu bekomman war.

Nur ist es wenig zielführend, Preise der einen SSD von damals mit Preisen einer anderen SSD von heute zu vergleichen - heute sehe ich mich außerstande, eine anständige 4TB für 159 Euro zu bekommen.

Was nichts daran ändert, daß die SN5000 QLC gnadenlos überteuert ist für das, was sie leistet.
Ergänzung ()

VRAM schrieb:
Kann schon sein, dass dieses WD LW hier besser abschneidet, aber prinzipiell kacken hier alle QLC LW ab.

Wirklich jedes QLC-Laufwerk? :mussweg:
 
  • Gefällt mir
Reaktionen: Rickmer und Cool Master
Nighteye schrieb:
Hast du mal Steam Updates beobachtet? Offensichtlich nicht! Das Problem tritt vor allem nach dem Download auf wenn die Daten entpackt und geschauffelt werden während das nächste Update läuft. Hat mit dem Internanschluss, der CPU usw. nichts zu tun., das LW ist 100% der Flaschenhals.
Du beschreibst damit genau die oberflächliche "Analyse", die ich kritisiert habe. Das Entpacken und Installieren von Daten hat nix mit der CPU zu tun? Ich glaube nicht, Tim.

Schau dir doch mal während so einem Szenario an, wie die Warteschlange des Laufwerks ist und wie die Verhältnisse der Größe der Blöcke sind, sowohl in Bezug auf Read vs Write als auch in Bezug auf Random vs sequentiell. Du wirst in allen Bereichen höhere Werte sehen, als eine Festplatte je zu leisten mag und je nachdem, wieviele Updates laufen und auf welche Art auch den einen oder anderen CPU-Wait. Die Festplatte wird nur beim Schreiben großer sequentieller Datenmengen in einem vergleichbaren Rahmen sein, wie Baal es beschrieben hat, also wenn ich Installer oder große Bibliotheken von einem anderen Laufwerk kopiere. Sollte es sogar komplette oder temporäre System Freezes geben, dann liegt auf jeden Fall noch ein anderes Problem vor, denn OS kennen den Zustand "ich warte auf das IO-Device" schon aus Festplattenzeiten.

Wie eine SSD intern die Daten verwaltet, hängt stark von Controller und der Firmware ab. Das war auch früher schon so, als es nur um Garbage Collection und das Freiräumen neuer Blöcke ging, weil man Pages in einem Block nicht überschreiben kann. Das hat der Hersteller mit der Firmware eben vorher sich überlegen müssen: räume ich aggressiv vorher viele Blöcke frei und habe dafür mehr Write Amplification oder gehe ich weniger aggressiv vor? Dann hast du noch Trim und die SLC-Caches. Es gibt viele Faktoren, die beeinflussen können, wie sich so ein Laufwerk in Lastszenarien, die über reines Kopieren großer Dateien hinausgehen verhält. Es gibt sicher Modelle die da besser oder schlechter sind, aber das rein an QLC aufzuhängen, ist zu oberflächlich und führt zu falschen Ergebnissen durch Verallgemeinerung. Kurz gesagt: QLC erzeugt nicht pauschal schlechte Laufwerke. Daher ist auch QLC im Enterprisesegment schon seit Jahren vertreten. Im Consumerbereich, wo die Kosten um jeden Dollar gedrückt werden, wurden dagegen in der Vergangenheit viele Kompromisse eingegangen, nach dem Motto billig billig billig, Marge, Marge Marge.
 
Zuletzt bearbeitet:
Zurück
Oben