SSD 850 EVO 500GB - Wie lange dauert langer Smartctl-Test?

linuxnutzer

Commander
Registriert
Dez. 2011
Beiträge
2.523
Samsung SSD 850 EVO 500GB
Firmware Version: EMT02B6Q

smartctl -s on -t long /dev/sdb

Das soll für 500GB 4,5h dauern, kommt mir lange vor. Ist das ok?
 
Bitte was soll -a testen? Das zeigt doch nur die Daten an? Ich will die SSD so gut wie möglich testen, bevor ich sie einsetze.
 
Na ja, alles ist relativ. Klar, je länger der Test löuft, umso genauer kann getestet werden. Es ist meine 1. SSD und ich erwarte, dass das schneller ist als eine HD.

Ich weiß jetzt nicht mehr genau wie lange die 8TB-HD gedauert hat. Wenn ich von der SSD hoch rechne, dann wären das 4,5x2x8=72h. So lange hat smartctl da jedenfalls nicht gebraucht, auch keine 48h.
Ergänzung ()

Weil ich gerade noch eine 8TB-HD testen muss:

# date
So 7. Feb 00:34:48 CET 2016
Test will complete after Sun Feb 7 16:05:03 2016

Die Prognose stimmt zwar nicht genau, aber ca. 16h für 8TB ist was anderes als 4,5h für 500GB.

BTW der lange Test der SSD hat keine Probleme gezeigt und auf badblocks verzichte ich, kommen ja keine wichtigen Dateien darauf, die eine Katastrophe sind, wenn sie verloren gehen.
 
Die Dauer des Test ist abhängig davon, wie dieser implementiert wurde.
Daher kommen auch die verschiedenen Zeiten zustande. Es kann auch gut sein, dass Hersteller A bei den SSDs deutlich schneller ist als Hersteller B.
 
Es kann auch gut sein, dass Hersteller A bei den SSDs deutlich schneller ist als Hersteller B.

Du meinst also die Dauer des Tests hat nichts mit der Geschwindigkeit der SSD zu tun?

Jetzt werde ich neugierig um zu schauen wie lange der badblocks-Test dauert. Problem ist, dass ich für Flashspeicher nichts besseres als badblocks kenne, aber dieser Test nicht optimal ist.
 
linuxnutzer schrieb:
kommen ja keine wichtigen Dateien darauf, die eine Katastrophe sind, wenn sie verloren gehen.
Wenn man wichtige Daten aber kein Backup davon hat, ist man schlicht einfach selbst schuld wenn man diese verliert! Jede HW kann ausfallen, auch jede HDD und jede SSD und auch HDDs können mal spontan ohne Vorankündigung ausfallen, bei SSDs ist das sogar eher die Regel als die Ausnahme, wenn wirklich mal eine ausfällt. Außerdem bedrohen nicht nur HW-Ausfälle die Daten, also sind Backup, und zwar richtig gemachte Backups, immer Pflicht für alle Daten, die man nicht verlieren will!
 
Ich betrachte ein kaputtes System nicht als Katstrophe, kann man ja wieder neu installieren. Der Rest ist für Videobearbeitung gedacht, wo die Originale aus dem Camcorder auch noch vorhanden sind, also denke ich, kann ich da bei der SSD etwas großzügiger sein oder kennst du für Flash einen Burnin-Test unter Linux?
 
Die SSDs und gerade gute Modelle wie die 850 Evo brauchen keinen BurnIn Test, die SSDs haben keine mechanischen Teile die z.B. durch unsachgemäße Behandlung beim Transport vom Werk zum Kunden einen Fehler haben könne die sich nach kurzer zesit zum Ausfall führen. SSD Controller bemerken Fehler auch sofort selbst, beim Lesen, Schreiben und auch Löschen der NANDs. Daher prüfe ich die SSDs wie alle anderen neuen Datenträger nur einem unter Windows mit h2testw. Man solte bei NTFS und größeren Volumen aber ein paar GB weniger eingeben als vorgeschlagen wird, da die Metadateien des Filesystem bei großen Volumen schneller wachsen als heise es erwartet hat und sonst am Ende der Platz ausgeht, was zu einem Fehler am Ende des Schreibvorgangs führt. Der hat dann auch nichts mit der HW zu tun, wer die Fehlermeldung aufmerksam liest erkannte das auch und daher kann man dann den Fehler getrost ignorieren und auch trotzdem die geschriebenen Dateien noch prüfen lassen, was dann auch ohne einen Fehler passieren sollte.

Unter Linux kenne ich kein derartiges Programm, da würde ich einfach Dateien deren md5 ich habe und die auf der Quellplatte korrekt sind einmal auf die SSD kopieren und dann die md5 Hashes dort erzeugen und mit den bnekannten vergleichen. Bei beiden Methode kann man aber ggf. auftetende Fehlern nicht sofort auf die SDD schieben, schon gar nicht wenn man kein ECC RAM hat! Treten dann Fehler auf, erst recht wenn man das mit dem Kopieren der Dateien macht, dann könnte es eben immer mehrere Ursachen dafür geben, da muss man dann genau schauen, z.B. in den S.M.A.R.T. Werte und mit einem RAM Test mit Memtest86 oder Memtest86+ was da nun wirklich das Problem ist.
 
FÜr Linux gibt es als alternative zu h2testw, die Programm-Sammlung f3:
http://oss.digirati.com.br/f3/

Bei vielen Distributionen ist es auch in den Repositories zu finden.

Fake Flash hatte ich bisher noch nicht in den Händen, defekte SD-Karten und USB-Sticks erkennt f3 aber genauso wie h2testw.
 
HDScratcher schrieb:
FÜr Linux gibt es als alternative zu h2testw, die Programm-Sammlung f3:
http://oss.digirati.com.br/f3/

Bei vielen Distributionen ist es auch in den Repositories zu finden.

Fake Flash hatte ich bisher noch nicht in den Händen, defekte SD-Karten und USB-Sticks erkennt f3 aber genauso wie h2testw.

Im "Ubuntu-Repo" ist kein f3probe dabei. Kennt wer ein Dritt-Repo dafür?
 
Zurück
Oben