News WD Blue SN550: Western Digital beschleunigt Client-SSD

Salamimander schrieb:
600TBW? Nachteil 96-Layer, die alten haben in der Regel das doppelte.
Erstens sind die TBW nur eine Einschränkung der Garantie und keine wirkliche Angabe zu Haltbarkeit der NAND, dann ist bei den DRAM less SSDs die Write Amplification auch meistens höher. Obendrein gibt es von allen NAND Typen bessere und schlechtere Qualitäten, die Wafer und auch die einzelnen Dies auf den Wafern gelingen ja nicht alle gleich. Die besseren Qualitäten sind haltbarer, aber eben auch teurer und bei einer Budget SSD kommen eher die weniger gut geratenen Dies zum Einsatz.
 
Keine Frage: Es gibt bessere SSDs. Aber die WD Blue SN550 ist auch nicht für Poweruser gedacht, sondern für Lowbudget-Systeme im Gros, bei denen sich jeder gesparte Euro multipliziert. Fragwürdig ist meiner Meinung nach nur das Blue im Namen. Andere Hersteller wählen für den OEM-Markt krytische Zahlen- und Buchstabenkombinationen.
 
Pheodor schrieb:
Andere Hersteller wählen für den OEM-Markt krytische Zahlen- und Buchstabenkombinationen.
Wie kommst Du darauf das die für den OEM Markt wäre? Auch viele Heimanwender kennen sich nicht aus und kaufen so eine SSD, weil ihnen die Bedeutung des DRAM Caches nicht klar ist, viel halten den ja für einen Schreibcache wie bei HDDs.
 
QLC kann gegenüber TLC maximal 25% der NAND Kosten sparen, da man eben nur 75% der Anzahl der Zellen braucht um das gleiche Datenvolumen zu speichern, sofern man bei QLC nicht mehr zusätzliche Bits für die ECC braucht. Die DRAM Preise sind auch nicht so hoch, da kann ja jeder mal schauen was ein GB kostet um eine Ahnung zu bekommen in welchen Größenordnungen die Einsparung da maximal liegen.
 
Mit welcher SSD und welche anderen kennst Du als Vergleich?
 
SSDs ohne DRAM Cache würde ich meiden. Tomshardware hat mal mehrere solcher DRAM less SSDs getestet und schreibt im Fazit:
Das liegt daran das die Controller die Mappingtabelle also den Flash Translation Layer (FTL) und eben nicht Userdaten im DRAM Cache ablegen, also die Information wo die Daten im NAND stehen und wo NAND frei ist um dort schreiben zu können. Die ohne DRAM Cache halten dann immer einen kleinen Teil der Mappingtabelle im interen SRAM des Controller, genug um gut in den Benchmarks abzuschneiden die ja nur über ein oder weniger GB Adressraum benchen und daher tolle Werte ins Datenblatt schreiben zu können. Aber im Alltag muss der Controller dann ständig erstmal wieder den passenden Teil aus dem NAND nachladen, was eben viel länger als ein DRAM Zugriff dauert.

Der Pseudo-SLC Cache (auch wenn Geizhals das Pseudo weglässt) hat eine ganz andere Funktion und ist nur dazu da das einige GB schnell geschrieben werden können, was im Alltag bei viele Aufgaben ja auch genügt.
 
Hmm, habe ein TB für 65€ ergattern können. Die Platte soll in den zweit Rechner. Denke die wird doch trotz mangelnden Cache immer noch spürbar schneller sein, als die uralte SATA MX100 (vor allem ist sie doppelt so groß).
 
Holt schrieb:
SSDs ohne DRAM Cache würde ich meiden. Tomshardware hat mal mehrere solcher DRAM less SSDs getestet und schreibt im Fazit:

Das liegt daran das die Controller die Mappingtabelle also den Flash Translation Layer (FTL) und eben nicht Userdaten im DRAM Cache ablegen, also die Information wo die Daten im NAND stehen und wo NAND frei ist um dort schreiben zu können. Die ohne DRAM Cache halten dann immer einen kleinen Teil der Mappingtabelle im interen SRAM des Controller, genug um gut in den Benchmarks abzuschneiden die ja nur über ein oder weniger GB Adressraum benchen und daher tolle Werte ins Datenblatt schreiben zu können. Aber im Alltag muss der Controller dann ständig erstmal wieder den passenden Teil aus dem NAND nachladen, was eben viel länger als ein DRAM Zugriff dauert.

Der Pseudo-SLC Cache (auch wenn Geizhals das Pseudo weglässt) hat eine ganz andere Funktion und ist nur dazu da das einige GB schnell geschrieben werden können, was im Alltag bei viele Aufgaben ja auch genügt.

Gibt es auch irgendeine Möglichkeit selber festzustellen (z.B. ein bestimmter Benchmark) wie problematisch das ist? Ich habe mir die Platte gekauft weil durch die Bank alle Benchmarks eigentlich sehr gut aussehen, mit der Ausnahme des Tests von StorageReviews. Wobei dort mit CGI-Rendering, SQL-Server und Oracles VDBench Businessanwendungen im Fokus stehen.
 
Bei dem Benchmark von StorageReviews mögen Businessanwendungen im Fokus stehen, aber auch wenn ich diese Benchmarks nicht kenne, so würde ich erwarten das dabei über einen größeren Adressraum gebencht wird und dann brechen die DRAM less SSDs deutlich ein. Im Alltag als Systemlaufwerk wird dies dann auch passieren, da Windows und die auf C: installierten Programme natürlich auch immer mehr Platz belegen und die Zugriffe über einen immer größeren Adressraum erfolgen.
 
  • Gefällt mir
Reaktionen: Killerattacks
Und wenn ich umplane und die Platte nur für Spiele nutze, das System also auf einer anderen SSD mit DRAM-Cache lasse? Wäre das eine Lösung?
 
Das würde sicher dahingehend helfen, dass es parallele Zugriffe auf die SSD vermindert, also das was Tomshardware auch mit "slightly elevated workload" meint.
 
  • Gefällt mir
Reaktionen: Killerattacks
Danke für die Antworten. Schätze das nächste mal achte ich besser vorher darauf und nicht erst nach dem Kauf

Nachtrag: Der Artikel von Toms Hardware ist schon ein paar Jahre alt und da hoffen Sie dass mit 3D-Nand die Situation nicht so schlimm ist wie mit dem getesteten 2D-Nand. Die WD hat 3D-Nand, daher hoffe ich das mal auch :)
 
Zuletzt bearbeitet:
Killerattacks schrieb:
Der Artikel von Toms Hardware ist schon ein paar Jahre alt
Ändert aber nichts an der Tatsache, dass SSDs ohne DRAM-Cache Müll sind. Ob der Müll alt ist oder neu, Müll bleibt Müll.
 
Killerattacks, es ändert nichts am Grundproblem das NAND eben um ein Vielfaches langsamer ist, vor allem auch was die Latenz betrifft, als DRAM. Wenn also Teile der Mappingtabelle nachgeladen werden müssen, dann dauert dies viel länger als wenn die komplette Tabelle in einem DRAM Cache steht. Auch mit HMB kann man nur eine Linderung erreichen, da werden nämlich Teil der Tabelle ins RAM des Hosts geladen, was es erlaubt über einen größeren Adressraum schnell zugreifen zu können:

BG4_HMB.png

Wie man sieht fällt schon bei Zugriffen über 48GB die Performance auf das Niveau ohne HMB ab, es dürfte also nur ein Teil der Mappingtabelle im Host-RAM stehen der für 32GB Adressraum ausreicht, wohl genug um mit einem frisch installiertem Windows noch keine Performanceprobleme zu bekommen. Man könnte es als Trick nur für gute Benchmarkwerte sehen oder glauben das es im Alltag wirklich hilft, dies überlasse ich mal jedem selbst. Aber die SSD Hersteller haben inzwischen Techniken entwickelt, die es erlauben mit der letzten Gurken bei einfache Benchmarks toll aussehende Ergebnisse zu erzielen und damit ist es schwer geworden die Blender zu erkennen.
 
  • Gefällt mir
Reaktionen: Killerattacks
Zurück
Oben