Wie Samsung NVME mit Magician INTENSIV testen?

linuxnutzer

Captain
Registriert
Dez. 2011
Beiträge
3.318
Habe ich noch nicht kapiert, wie man mit Magician eine Samsung SSD 970 EVO Plus 500GB intensiv auf Fehler testet, oder kann man das mit Magician nicht machen?

Brauche ich für diesen Test eine NTFS-Partition?

Ich habe da im Vergleich zu Linux relativ wenig Optionen gefunden. Geschwindigkeitstests interessieren mich gar nicht. Es geht um das Aufdecken von diffizilen Fehlern. Bei smartctl könnte es sein, dass da Fehler angezeigt werden, die gar keine sind, weil es für NVME noch experimentell ist.
 
Ich bezweifel, dass das wirklich funktioniert, da der SSD-Controller, wenn er Defekte entdeckt, diese direkt mit Reservespeicher ersetzt.
 
TorenAltair schrieb:
Ich bezweifel, dass das wirklich funktioniert, da der SSD-Controller, wenn er Defekte entdeckt, diese direkt mit Reservespeicher ersetzt.
Korrekt.
Wenn du Fehler etwas länger vermeiden möchtest empfehle ich dir im magician am overprovisioning zu drehen. Wobei das eigentlich nicht nötig ist. Ein läßt test beschädigt da mehr als er nutzt. Mit tlc hast du 3000-5000 Schreibzyklen pro Zelle. Das ist zwar erheblich mehr als bei qlc, allerdings weniger als bei mlc.
Intensive schreibtests verbrauchen deine Zyklen nur unnötig. Im Normalbetrieb wird die ssd viele Jahre halten - achte nur auf das wear Level und mach kein caching darauf.

Zusatz : ntfs ist ein Dateisystem und damit mehrere Abstraktionsschichten über der Hardware. Hier solltest du lieber fsck o.ä nehmen
 
Ich möchte dahinter kommen, warum dieser Wert steigt:

Error Information Log Entries: 384

und warum ich zeitweise sehe


Dann da aber wieder statt "No Errors Logged" detaillierte Informationen zu den Fehlern stehen, die dann wieder verschwinden, wobei man sich bei den Fehlern nichts vorstellen kann.

Wie schon an anderer Stelle diskutiert, kann dieses Ansteigen von "Error Information Log Entries" harmlos sein, oder eben auch nicht.

Das kann dann zB so aussehen:

Code:
Error Information (NVMe Log 0x01, max 64 entries)

Num   ErrCount  SQId   CmdId  Status  PELoc          LBA  NSID    VS

  0        310     0  0x0013  0x4212  0x028            0     0     -

  1        309     0  0x0003  0x4212  0x028            0     -     -

  2        308     0  0x0012  0x4212  0x028            0     -     -

Da ich mit fremden Tools nicht weiterkomme, hätte ich mir gewünscht, dass die Hersteller-Tools da gesprächiger wären.
 
Zuletzt bearbeitet:
Ich will mich da als Laie mal dazuschalten: Ist es denn tatsächlich nötig, diese Werte als Normalnutzer zu interpretieren? Wenn die Herstellertools (oder z.B. CrystalDiskInfo) "gut" anzeigen, müsste doch alles paletti sein? Backups im Falle eines Datenverlustes sollte man unabhängig davon sowieso immer anlegen.
 
  • Gefällt mir
Reaktionen: EpOx_82
Das mit dem prüfen ist sicher gut gemeint. Aber eher unnötig. Kostenlose Tools lesen etliches aus, können aber auch etliches nicht interpretieren. Der unbedarfte Nutzer wieso nicht.
Hersteller Tools sagen eben ob o.k oder defekt. Sagen die defekt, schaut man sich die Garantiebestimmungen an und tauscht um. Backups erstzen diese Tools wieso nicht.

Ich hatte eine Seagte SSHD. Also HD mit 8 gb SSD Cache. Seagate sagt alles o.k Externe Tols meinen defekt. Glaube ich dem Seagte Tool eher.

Samsund SSD 860 EVO. Denke mir, gibste etwas RAW Cache. O.k also eingestellt. Aber 50 GB sind wohl arschlos bei einer 500 Gb SSD. Weniger geht bei mir nicht. Das gleiche bei der Crucial MX 500 SSD. Auch da werden etwa 46 GB veranschlagt.

Also beie Tools wie Samsung Magican oder Storage Executive von Crucial liefern einfach 0 Nutzen, nur Versprechungen. Daher gibt es die für Linux auch garnicht erst.

Ich habe etliches an Tools unter Windows getestet. Keins davon ist wirklich nützlich und unter Linux Mint 19.3 läuft die gleiche Hardware völlig problemlos.
 
linuxnutzer schrieb:
Habe ich noch nicht kapiert, wie man mit Magician eine Samsung SSD 970 EVO Plus 500GB intensiv auf Fehler testet, oder kann man das mit Magician nicht machen?

Du kannst die SSD unter Linux und f3write und f3read einmal voll schreiben und auslesen.
Das gleiche geht auch mit h2testw unter Windows, wobei man hier am Ende immer Fehler bekommt weil das Programm den Speicherplatz falsch berechnet. Kann man umgehen indem man nicht den vollen Speicher testen lässt.
 
linuxnutzer schrieb:
Da ich mit fremden Tools nicht weiterkomme, hätte ich mir gewünscht, dass die Hersteller-Tools da gesprächiger wären.
Hast du mal direkt bei Samsung nachgefragt? Dafür ist der Support schließlich da.
 
  • Gefällt mir
Reaktionen: abcddcba
So was ist natürlich ein Armutszeugnis für Samsung, wenn man die SSD nur mit NTFS-Partition prüfen kann.


magician7.png


Ich hätte gerne so etwas wie einen kurzen oder langen Smart-Test gemacht. Leider klappt das unter Linux mit der NVME nicht. Funktioniert das mit smartmontools unter Windows. Habe mir die Smartmontools unter Win installiert, blicke da aber noch nicht durch, wie ich den Befehl in einer Kommandozeile eingebe und wie ich die NVME anspreche.

Danke für den Hinweis mit F3. Vielleicht behebt das Probleme von selbst. Die NVME ist zwar angeschlossen, wird aber nicht verwendet / beschrieben / gelesen und die Fehler steigen ohne Nutzung. Da sie nicht verwendet wird, kann der Grund auch nicht eine Überhitzung sein.
Ergänzung ()

Code:
~$ time f3write /render/
F3 write 7.1
Copyright (C) 2010 Digirati Internet LTDA.
This is free software; see the source for copying conditions.

Free space: 465.04 GB
Creating file 1.h2w ... OK!                
Creating file 2.h2w ... OK!            
Creating file 3.h2w ... f3write: f3write.c:512: create_and_fill_file: Assertion `write_size > 0' failed.
Abgebrochen (Speicherabzug geschrieben)

real    0m1,725s
user    0m0,328s
sys    0m0,606s

Oops, was ist denn da los. Das ist zwar jetzt Linux, aber in der Diskussion wurde auf diese Möglichkeit hingewiesen.
Ergänzung ()

Nun mit root-Rechten:

Code:
sudo time f3write /render/
F3 write 7.1
Copyright (C) 2010 Digirati Internet LTDA.
This is free software; see the source for copying conditions.

Removing old file 1.h2w ...
Removing old file 2.h2w ...
Removing old file 3.h2w ...
Free space: 465.04 GB
Creating file 1.h2w ... OK!                   
Creating file 2.h2w ... OK!               
Creating file 3.h2w ... f3write: f3write.c:512: create_and_fill_file: Assertion `write_size > 0' failed.
Command terminated by signal 6
0.33user 0.61system 0:01.73elapsed 54%CPU (0avgtext+0avgdata 4200maxresident)k
160inputs+4194472outputs (0major+600minor)pagefaults 0swaps

Auf Wunsch poste ich gerne Screenshots von Magician und Smart-Werten. Da ist nichts auffälliges, außer, dass Magician einiges nicht interpretieren kann.
 
Zuletzt bearbeitet:
Zuerst, meine Frage bgzl. Magician ist beantwortet, das Tool ist unbrauchbar. Wenn da vielleicht nun zuviel Linux kommen sollte, @Admin, bitte sagen. Diskussion wird dann woanders fortgesetzt.

Ich nutze Ubuntu 19.10, Die NVME ist komplett leer, Windows 10 ist auf einer eigener 1TB-HD und Linux auf einer 500G-SSD (Samsung Evo 850), getestet wird Samsung 970.

time vor einem Befehl bewirkt, dass man sieht wie lange ein Programm gebraucht hat.

Zu alte Version von f3write

Das ist ein sehr guter Hinweis! Dort lies man, dass 32bit für eine NVME zu langsam sein kann, smartmontools sind ja IMHO auch 32bit, vielleicht kommt der Fehlerzuwachs aus dieser Ecke.

f3write läuft gerade in der Version f3-7.2, das ich selber kompiliert habe.

Code:
~$ time f3write /render/
F3 write 7.2
Copyright (C) 2010 Digirati Internet LTDA.
This is free software; see the source for copying conditions.

Removing old file 1.h2w ...
Removing old file 2.h2w ...
Removing old file 3.h2w ...
Free space: 465.04 GB
Creating file 1.h2w ... OK!                     
Creating file 2.h2w ... OK!                     
...               
Creating file 466.h2w ... OK!
Free space: 764.00 KB
Average writing speed: 569.70 MB/s

real    14m9,809s
user    2m57,521s
sys    2m22,542s

Code:
~$ time f3read /render/
F3 read 7.2
Copyright (C) 2010 Digirati Internet LTDA.
This is free software; see the source for copying conditions.

                  SECTORS      ok/corrupted/changed/overwritten
Validating file 1.h2w ... 2097152/        0/      0/      0
Validating file 2.h2w ... 2097152/        0/      0/      0
...
Validating file 465.h2w ... 2097152/        0/      0/      0
Validating file 466.h2w ...   77824/        0/      0/      0

  Data OK: 465.04 GB (975253504 sectors)
Data LOST: 0.00 Byte (0 sectors)
           Corrupted: 0.00 Byte (0 sectors)
    Slightly changed: 0.00 Byte (0 sectors)
         Overwritten: 0.00 Byte (0 sectors)
Average reading speed: 1.68 GB/s

real    4m36,582s
user    2m59,810s
sys    1m36,365s

Nach dem f3-Test:

Error Information Log Entries: 396

Mal schauen, ob es weiter steigt. Oben im Posting waren es 384.

Average reading speed: 1.68 GB/s verstehe ich auch nicht.
Ergänzung ()

Grummel, ich teste gerade eine nagelneue intern verbaute Crucial MX500, die schafft beim Schreiben mit f3write 7.2 nur ca. 306 MB/s und hängt seit Minuten bei

Creating file 65.h2w ... 6.94% -- 305.80 MB/s -- 48:46

Hat diese SSD was? Ein kurzer und langer Smart-Test meldete keine Probleme.
 
Zuletzt bearbeitet:
linuxnutzer schrieb:
Average reading speed: 1.68 GB/s verstehe ich auch nicht.
Gerade NVMe SSDs brauchen einige parallele und lange Zugriffe um ihren vollen Transferraten zu erzielen, dies dürfte das Tool aber kaum erzeugen und damit eben nicht viel vollen Transferraten aus der SSD kitzeln, zumal es ja die gelesenen Daten auch noch auswertet.
 
linuxnutzer schrieb:
Average reading speed: 1.68 GB/s verstehe ich auch nicht.
Falls es dich beruhigt, hier das Ergebnis auf meiner Samsung SSD 970 EVO 2TB:
Code:
f3write /vol/ssda/
F3 write 7.2
Copyright (C) 2010 Digirati Internet LTDA.
This is free software; see the source for copying conditions.

Free space: 234.07 GB
Creating file 1.h2w ... OK!
Creating file 2.h2w ... OK!
...
Creating file 235.h2w ... OK!
Free space: 16.00 MB
Average writing speed: 428.61 MB/s
Code:
f3read /vol/ssda/
F3 read 7.2
Copyright (C) 2010 Digirati Internet LTDA.
This is free software; see the source for copying conditions.

SECTORS ok/corrupted/changed/overwritten
Validating file 1.h2w ... 2097152/ 0/ 0/ 0
Validating file 2.h2w ... 2097152/ 0/ 0/ 0
...
Validating file 235.h2w ... 107400/ 0/ 0/ 0

Data OK: 234.05 GB (490840968 sectors)
Data LOST: 0.00 Byte (0 sectors)
Corrupted: 0.00 Byte (0 sectors)
Slightly changed: 0.00 Byte (0 sectors)
Overwritten: 0.00 Byte (0 sectors)
Average reading speed: 1.32 GB/s
linuxnutzer schrieb:
Dort lies man, dass 32bit für eine NVME zu langsam sein kann, smartmontools sind ja IMHO auch 32bit, vielleicht kommt der Fehlerzuwachs aus dieser Ecke.
Du fantasierst schon wieder.
 
Du fantasierst schon wieder.

Natürlich ist das Spekulation, aber genauso wenig begründet ist es, eine permanent steigende Fehlerzahl und zeitweilig weitere angezeigte Fehler zu ignorieren, wenn die NVME aktiv gar nicht verwendet wird. Das kann niemand sagen, ob das ein zu ignorierendes Problem ist und bei einem PC, der nicht ausfallen darf, ist es nicht klug so eine NVME als System zu verwenden.

Leider können auch die Tools von Samsung dazu keine Erklärung bringen, somit kann man die Diskussion dazu einstellen, solange es kein Tool gibt, dass die steigende Fehleranzahl plausibel erklärt.

Es wäre noch interessant zu wissen, ob deine NVME auch "Error Information Log Entries" zeigt.
 
Was sagt der Support von Samsung dazu? Die bieten sogar einen Live Chat an.
linuxnutzer schrieb:
Es wäre noch interessant zu wissen, ob deine NVME auch "Error Information Log Entries" zeigt.
Code:
Error Information (NVMe Log 0x01, max 64 entries)
No Errors Logged
 
Zurück
Oben