• ComputerBase erhält eine Provision für Käufe über eBay-Links.

Bericht Bestenliste 2023: SSD-Kaufberatung für Spieler und Profis mit NVMe & SATA

Das ist ja das schlimme dass WD da kein generelles Problem erkennt. Irgendwas muß ja irgendwo schieflaufen.
Da gibts es ja scheinbar auch keinen Kontakt mit betroffenen um ein solches Laufwerk mal anzufordern zur Untersuchung.
 
Technisch ist die ganze Sache bei weitem nicht so eindeutig wie manche es hier darstellen da es unzählige Gründe gibt die zu geringer Lesegeschwindigkeit führen.

TL;DR: Problem mag real sein, aber mit den hier gezeigten Messungen alles andere als eindeutig belegbar.

SSD Read Speed Tester arbeitet auf Dateisystemebene. Es gibt keine direkte Abhängigkeit zwischen Dateisystemdatum einer Datei und dem Alter der eigentlichen Daten im Flash. Die Daten könnten durch die FW schon hundertmal refreshed worden sein und sieht man nicht im Dateisystem. Dazu kommt die Abhängigkeit von der Dateigröße. Kleine Dateien werden mit wesentlich geringer Datenrate bearbeitet als Große. Hat hier natürlich nichts mit umherspringenden Leseköpfen wie bei einer HDD zu tun, sondern mit dem Overhead den das Dateisystem generiert durch die Verwaltungsarbeit wie z.B. Prüfen der Zugriffsberechtigungen, Aktualisieren der Metadaten etc. Bei kleinen Dateien im KB Bereich und Leseraten der SSD im GB/s Bereich, ist dieser Overhead riesig im Vergleich zu der Zeit den das eigentliche Lesen der eigentlichen Daten benötigt und drück massiv auf die effektiven Datenraten. Das alles führt dazu, dass man bei den Messungen mit SSD Read Speed Tester ganz genau gucken muss, welche Schlüsse man auf den Messwerten zieht.

Dazu zeigen SSDs ein Verhalten das es bei HDDs so nicht gibt: Die Lesegeschwindigkeit hat eine Abhängigkeit davon wie die Daten geschrieben wurden. (Für eine detailierte Beschreibung siehe z.B. hier [AN2103de_Performance_tests.pdf] eine Technote von Swissbit, einem Hersteller von SSDs). 10 GB Daten die sequenziell in großen Blöcken geschrieben wurden lassen sich schön zügig lesen, die FW hat kaum Aufwand die Flashblöcke den logischen Adressen zuzuordnen da diese auch in den Verwaltungsdaten schön hintereinander liegen. 10 GB Daten die komplett random in kleinen Blöcken geschrieben wurden (z.B. vorallokierter Speicher der nur durch ein Programm immer wieder geändert wird an bestimmten Stellen wie z.B. Datenbanken es machen) erzeugen dagegen einen riesen Aufwand beim Lesen. Die FW springt nur hin und her in den Verwaltungsdaten für jeden kleinen Block und muss jeden kleinen Block einzeln aufsuchen. Das drückt massiv auf die Datenrate, selbst wenn in beiden fällen vollkommen gleichartig gelesen wird.

Zum eigentlichen Refreshen der Daten durch die FW: Es gibt verschiedene Trigger die die Hersteller spezifizieren können. Menge der gelesenen und geschriebenen Daten, Einschaltzyklen, Anzahl von ECC Fehlern etc. Das ist komplett transparent für den User (muss es auch nicht interessieren) und kann dazu führen das bei einem User Daten refreshed wurden und er keine Probleme sieht, während ein anderer User langsame Datenraten sieht nur weil er einen der Trigger nicht ausgelöst hat und z.B. die Platte weniger oft vom Strom getrennt hat.

Das waren jetzt drei Beispiele die die Datenraten beeinflussen, wo in den bisherigen Betrachtungen hier aber überhaupt nicht berücksichtigt werden. Und der Mangel an Möglichkeiten für einen Enduser verwertbare Analysedaten zu liefern ist mit ein Grund warum ein Hersteller erstmal ga rnichts damit anfangen kann wenn User einfach nur von langsamen Datenraten berichten.
 
Chuuei schrieb:
SSD Read Speed Tester arbeitet auf Dateisystemebene. Es gibt keine direkte Abhängigkeit zwischen Dateisystemdatum einer Datei und dem Alter der eigentlichen Daten im Flash. Die Daten könnten durch die FW schon hundertmal refreshed worden sein und sieht man nicht im Dateisystem. Dazu kommt die Abhängigkeit von der Dateigröße. Kleine Dateien werden mit wesentlich geringer Datenrate bearbeitet als Große.
Stimmt, allerdings lässt sich zumindest sagen dass Daten die nicht älter als X Tage sind, definitv auch nicht länger im Flash liegen können, zumnindest sofern die Daten nicht absichtlich manipuliert wurden, wovon wir ausgehen können. In meinem Fall spielt die Dateigröße auch keine Rolle, da wir von Dateien >20 GB reden. Ich habe z. B. eine Datei die vor 4 Monaten erstellt wurde und zu diesem Zeitpunkt normal schnell gelesen werden konnte. Heute erreicht die SSD nur noch magere 370 MB/s.

Chuuei schrieb:
Die Lesegeschwindigkeit hat eine Abhängigkeit davon wie die Daten geschrieben wurden. (Für eine detailierte Beschreibung siehe z.B. hier eine Technote von Swissbit, einem Hersteller von SSDs). 10 GB Daten die sequenziell in großen Blöcken geschrieben wurden lassen sich schön zügig lesen, die FW hat kaum Aufwand die Flashblöcke den logischen Adressen zuzuordnen da diese auch in den Verwaltungsdaten schön hintereinander liegen. 10 GB Daten die komplett random in kleinen Blöcken geschrieben wurden (z.B. vorallokierter Speicher der nur durch ein Programm immer wieder geändert wird an bestimmten Stellen wie z.B. Datenbanken es machen) erzeugen dagegen einen riesen Aufwand beim Lesen. Die FW springt nur hin und her in den Verwaltungsdaten für jeden kleinen Block und muss jeden kleinen Block einzeln aufsuchen. Das drückt massiv auf die Datenrate, selbst wenn in beiden fällen vollkommen gleichartig gelesen wird.
Dann sollten die Daten aber von Anfang an schnell oder eben langsam zu lesen sein, hier geht es aber um den Leistungsverlust im laufe der Zeit.

Chuuei schrieb:
Zum eigentlichen Refreshen der Daten durch die FW: Es gibt verschiedene Trigger die die Hersteller spezifizieren können. Menge der gelesenen und geschriebenen Daten, Einschaltzyklen, Anzahl von ECC Fehlern etc. Das ist komplett transparent für den User (muss es auch nicht interessieren) und kann dazu führen das bei einem User Daten refreshed wurden und er keine Probleme sieht, während ein anderer User langsame Datenraten sieht nur weil er einen der Trigger nicht ausgelöst hat und z.B. die Platte weniger oft vom Strom getrennt hat.
Das mag auch stimmen, trotzdem ist es bezeichnend das man von anderen Herstellern nichts in dem Ausmaß hört, genauso wenig wie "damals" als nur WD SSDs Leistungsprobleme am X570 Chipsatz hatten. Ich würde jedenfalls niemandem mehr auch nur im Traum dazu raten eine SSD von WD zu kaufen.

Ich habe wegen dieses Problems spaßeshalber mal den Support kontaktiert. Die Antwort macht mich direkt wieder etwas fassungslos, denn u. A. wird das hier gefordert: "Samples of the older files attached to the case". Mal davon ab dass ich es frech finde private Datein zu fordern, die, wie in meinem Fall, auch mal gern riesengroß sein können, was soll das bringen? Nicht die Dateien sind das Problem, sondern die SSD, andernfalls wären die Dateien immer schlecht zu lesen und nicht erst nachdem sie X Monate im Flash lagen.
 
Zuletzt bearbeitet:
Boah, wie krass die die Aufmachung von Western Digital geklaut haben... Also ich würde die Finger davon lassen. Was auch immer das ist, sofern nicht nur ein Sack Reis verschickt wird. :lol:

Screenshot 2022-08-11 182121.png
 
  • Gefällt mir
Reaktionen: massaker
MichaG schrieb:
...Also ich würde die Finger davon lassen. Was auch immer das ist, sofern nicht nur ein Sack Reis verschickt wird. :lol:
Ich glaube vor ca. einem Jahr bereits solche WD-fakes/clones-Tests auf YT geschaut zu haben. Da sind meist 32GB drin, werden also genauso gefälscht, wie die USB-Sticks. Mit sehr viel Glück hat man einen cache-losen Silicon Motion Controller SM2258XT (SATA/oder SM2268XT für NVMe) und 64L bis bestenfalls 128L QLC-NAND von Intel drin, so wie in den letzten 860Evo-Fake-SSDs von Ali:
1660242453029.png

P.S.: welche Speeds dann "nach dem pSLC-Cache" zu erwarten sind? - mit sehr viel Glück werden 20MB/s gehalten:
1660242736392.png
 
Also ich werde mir wohl eine Intel M.2 905 Series Optane SSD mit 380 GB kaufen, gebraucht.

Ich stehe tierisch auf Intel SSd´s und hab keinen Bock irgendein Sata Laufwerk einzubauen, um mein Optane Modul nutzen zu können. Diese SSD ist aber auch einfach gut, vor allem von den Zugriffszeiten.

Dann hatte ich noch vor, meine Samsung 970 EVO plus mit 250 GB gegen eine 970 Pro mit 512 GB auszutauschen. M.2 SSD´s mit 250 GB sind sinnfrei.

Dann hätte ich mit meiner alten 910 Series insgesamt 1292GB, das reicht mir, jetzt hab ich 650GB, was etwas knapp ist.

Sata kommt mir nicht mehr ins System. Ich mag die Technologie einfach nicht mehr.

U.2 wäre wieder etwas anderes, da könnte ich mir vorstellen, mal ne große alte Server SAS zu kaufen.
 
8iosat schrieb:
U.2 wäre wieder etwas anderes, da könnte ich mir vorstellen, mal ne große alte Server SAS zu kaufen.
Warum "alt" und warum "SAS"? Wenn U.2 - dann hol doch gleich eine ordentliche Server-NVMe. 905P habe ich als AiC und als U.2 - wenn Du die 110mm M.2 holst, dann halte am besten Ausschau nach einem geeigneten 110mm Kühler. z.B.: https://www.amazon.de/dp/B09J12XRMZ
 
NVMe mit 500GB sind genauso sinnfrei wie 250er, die sind fast ebenso schnell voll und preistechnisch vollkommen überteuert
 
Ist auch die 2 TB Variante der WD Blue SN570 NVMe M.2 empfehlenswert?

Weil in den Kaufempfehlungen ist nur von einer Kapazität bis 1 TB die Rede.
 
Zuletzt bearbeitet:
Ja, ist sie @Tschaensky.

Grund ist der Umstand, dass 2 TB nicht extra erwähnt werden ob der doch recht großzügigen Speicherkapazität und die nicht von jedem User benötigt wird; quasi "1 TB ist für viele User ausreichend, mehr nur nach individuellem Bedarf".
 
  • Gefällt mir
Reaktionen: Tschaensky
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MichaG
Weil vielfach alte Daten nur noch schneckenlahm gelesen werden können also haben die ein bisher ungelöstes Firmwareproblem. Ein Fehler in der Funktion zum Auffrischen der Daten nach einiger Zeit
 
FaDam schrieb:
warum ist denn die WD Blue nicht mehr in der Kaufempfehlung für SATA SSD?
Vermutlich aus demselben Grund, dass ich jetzt @MichaG anpinge: Die haben keinen DRAM Cache mehr :grr:

@MichaG ich bitte darum, die SanDisk Ultra 3D aus den SATA SSD Empfehlungen zu entfernen.
Grund ist, dass in der neusten Revision der DRAM Cache komplett wegfällt.

Bezüglich der G31 Revision der Ultra 3D siehe hier: https://www.computerbase.de/forum/threads/der-ssd-bilder-thread.2127821/page-2#post-27888534
Bezüglich der WD SA510: https://linustechtips.com/topic/1477420-wd-blue-sa510-sata-ssd-poor-performance/

SanDisk ist jetzt übrigens auch eine Marke von WD, damit ist das systematisches Verhalten von dem Hersteller.
Es gibt denke ich absolut keinen Grund anzunehmen, dass die Blue 3D ihren DRAM behalten hat. Eigentlich war das ja das Merkmal der Blue gegenüber der Green und die Ultra 3D sowie Blue 3D mWn identische SSDs mit anderem Label.
 
  • Gefällt mir
Reaktionen: schneeland, Haldi, Yakomo und 2 andere
Zurück
Oben