[Sammelthread] HDD-Probleme, SMART-Analysen

Jesterfox schrieb:
Sie hat schon ein paar defekte Sektoren, ich würd das auf jeden Fall beobachten und wenn das weiter steigt die Platte ausmustern.
Richtig, die haben wohl beide das Rentenalter erreicht, aber die Maxtor ist noch eine IDE Platte und wenn die in einem Retro PC steckt der noch kein SATA Pot hat oder einen der ganz ersten die Probleme mit SATA 3Gb/s Platten haben, dann könnte es schwer werden Ersatz dafür zu finden der wirklich besser ist.
Jesterfox schrieb:
Bei dem nicht erkennen würd ich auf ein Problem mit dem Kabel tippen, das C7 Attribut zeigt viele CRC Fehler an (wobei man da leider nicht sagen kann wann das passiert ist, wäre aber naheliegend das es mit dem aktuellen Problem zusammenhängt). Häng sie doch mal mit einem neuen Kabel nochmal intern rein ob sie dann erkannt wird.
Da würde ich erst mal schauen ob sich der Rohwert vom Attribut C7 ändert und dann ob die Stecker richtig sitzen. ox1F = 31 wiederzugewiesene Sektoren sind jetzt ja auch noch nicht so dramatisch viele, wenn da nicht in kurzer Zeit viele hinzu kommen, kann sie noch eine Weile halten. Wenn es aber neueres Mainboard ist bei dem aktuelle SATA Platten ohne Probleme laufen, würde ich sie ersetzen.

Ein Backup der wichtigen Daten z.B. auf ein NAS, in der Cloud oder auf eine USB Platte, aber bitte eine neuere als die alte Seagate Barracuda 7200.11 die auch bald 9 Jahre werden dürfte, sollte aber in jedem Fall vorhanden sein und hier besonders und zwar von den wichtigen Daten auf beiden Platten. Wenn dies nicht der Fall ist, sollte das schnellstmöglich geändert werden. Bedenke das HDDs auch altern wenn sie nicht benutzt werden.
 
Holt schrieb:
Richtig, die haben wohl beide das Rentenalter erreicht, aber die Maxtor ist noch eine IDE Platte und wenn die in einem Retro PC steckt der noch kein SATA Pot hat oder einen der ganz ersten die Probleme mit SATA 3Gb/s Platten haben, dann könnte es schwer werden Ersatz dafür zu finden der wirklich besser ist.

Zumindest könnte man sowas kaufen:

https://www.computerbase.de/preisvergleich/?cat=iosasraid&xf=5679_SATA+3Gb/s~614_PCI

Wobei man sich nicht fragen sollte ob man was modernes kauft und einfach eine alte VM laufen lässt.
 
Hallo zusammen,

ich wollte mich nochmal bezüglich dem Problem mit meiner 4TB WD Blue und den Raw Read Errors melden. WD hat die Fehler anerkannt und die Platte anstandslos zurückgenommen.

Nun habe ich mir eine neue 4TB Seagate IronWolf für 91€ bestellt und eben ins Synology DS414 eingebaut. Folgende SMART-Werte finde ich vor...

Clipboard51.jpg
Clipboard50.jpg

Das kann doch nicht wahr sein... bei einer nigelnagelneuen Festplatte?!

Was haltet ihr davon?

Danke und Gruß

ph0be
 
Zuletzt bearbeitet:
Bau die HDD mal bitte in ein Windows Rechner ein und las CrystalDiskMark drüberlaufen, das Fenster bitte vollständig aufziehen.
 
ph0be schrieb:
Das kann doch nicht wahr sein... bei einer nigelnagelneuen Festplatte?!

Bei Seagate schon, das Thema hatten wir hier schon öfter. Die schreiben da einen kombinierten Wert aus Vorgängen und Fehlern rein, sieht man am besten wenn man es auf hexadezimal umrechnet. Aber die Werte sind in Ordnung.
 
@Jesterfox

Ah ok, war mir nicht sicher ob die 1088 der Korrekte Wert waren.
 
Ich würde davon ausgehen, die 1088 Lesezugriffe kommen recht schnell zustande, das würde für eine neue Platte schon passen. Tatsächliche Fehler würden dann gleich Werte im Millionenbereich oder noch größer verursachen.
 
Hier noch einmal die Werte aus CrystalDiskInfo:

Clipboard52.jpg

Und jetzt noch einmal aus dem NAS:

Clipboard53.jpg

Also das sieht für mich überhaupt nicht vertrauenswürdig aus...

Vielleicht kann @seagate_surfer von etwas offiziellerer Seite ein Kommentar dazu abgeben.
 
Bei Seagate sind die Rohwerte der Attribute Seek Error Rate, Raw Read Error Rate und Hardware ECC Recovered nicht einfache Zählerstände der Fehler, sondern enthalten die Fehlerzähler nur in den 2 höchsten Bytes (die linken 4 Stellen bei hexadezimaler Anzeige der Rohwert in CrystalDiskInfo, nur bei hexadezimaler Anzeige) und die rechten 8 Stellen (4 Byte) sind der Zähler der Vorgänge dar. Die Ermittlung der Aktuellen Werte funktioniert mehr oder weniger für diese Attribute nach dieser Formel für die Suchfehler:
Wie man sieht, muss auch erst eine bestimmten Anzahl von Vorgängen erfolgt sein, bevor der Aktuelle Wert überhaupt errechnet wird, ist diese Anzahl erreicht fällt er und steigt dann wieder, sofern es keine oder wenigstens nicht zu häufig Fehler gibt. Es ist also alles normal und bestens bei Deiner HDD!
 
Zuletzt bearbeitet:
Danke Holt für die detaillierte Erläuterung. Das heißt die Werte müssen erst einmal zehnstellig (dec) werden, bzw. das vierte Bit (hex) ansteigen, bevor der Zähler überhaupt anfängt!?

Dann mal los mit dem Befüllen ;)

Danke Euch!
 
Nein, der Zähler der Vorgänge wird beim Benutzten der HDD immer weiter steigen, erst wenn es genug (mehr als eine Millionen) Vorgänge passiert sind, wird der Aktuelle Wert nicht mehr 100 sein, sondern eben nach der genannten Formel (oder so ähnlich) berechnet und dies führt dazu, dass er dann eben erstmal unter 100 fällt, was aber eben normal ist und nicht als Zeichnen der Verschlechterung des Zustandes der Platte zu werten ist, sofern es nicht doch Fehler gibt. Leider werten nicht alle Tools dieses korrekt aus und manche schlagen dann beim Abfall des Aktuellen Wertes Alarm.
 
Hi, hab mal ne kurze Frage zu G-Sense Werten.
Hab gerade eine neue Platte (Toshiba X300 4TB) drin, die ich mit h2test mehrfach vollschreibe und prüfe. Dabei kontrolliere ich regelmäßig die SMART-Werte und mir fällt auf, dass der Wert G-Sense Error Rate kontinuierlich steigt, momentan bei 3E nach 20 Betriebsstunden.
Meine alte 2TB Seagate mit über 13000h hat da aber nach wie vor eine 0 stehen.
Hat die neue Platte also einen Schaden oder ist der Sensor einfach nur überempfindlich?
 
0x3E = 62, bei 20 Stunden also etwa alle 20min eine Auslösung des G-Sensors. Der G-Sensor mag empfindlicher sein, aber wäre er defekt, würde er wohl öfter als nur alle 20 Minuten auslösen. Vielleicht ist die HDD einfach nicht wirklich ordentlich befestigt und dann kann der G-Sensor womöglich selbst durch Kopfbewegungen der eigenen HDDs zum Auslösen gebracht werden, wenn die HDD minimal Spiel hat und hart gegen den HDD Käfig "knall", auch wenn sie sich nur so minimal bewegt hat, dass man es kaum sehen kann. HDDs sollten immer mit 4 Schrauben fest verschraubt werden. Wenn da nicht das Problem liegt, dann versuche halt mal festzustellen was in dem Moment wohl passiert ist, als der Wert angestiegen ist.
 
Ich hab die HDD in so einem Plastikschlitten arretiert, der dann auf eine Schiene im Käfig gesetzt/geschoben wird, so wie es das Gehäuse vorsieht. An der Art der Befestigung besteht zu anderen Festplatten kein Unterschied, festschrauben geht auch glaub ich gar nicht.

Aktuell steht der Wert bei 5D=93 nach 22h. Gleich ist ein Schreibvorgang von h2test zu Ende. Ich werde im Laufe des Tages mal beobachten, ob sich am Wert was tut, wenn gerade keine langen Schreib- oder Lesevorgänge stattfinden.

Und was mache ich, wenn sich nichts daran ändern lässt, dass der Sensor kontinuierlich auslöst? Ist das dann ein Zeitspiel gegen Totalausfall?

Soweit erstmal Danke für die Auskunft.
 
Diese Schlittenkonstruktionen sind leider nicht immer optimal, da die HDDs eben zuweilen ein wenig Spiel haben. Wenn mehrere HDDs im Rechner sind, wäre aber statt der X300 die N300 oder eine andere NAS HDD die bessere Wahl gewesen, da einfache Desktopplatten wie die X300 nicht für den Betrieb mit mehrere HDDs in einem Gehäuse gedacht sind.
 
Holt schrieb:
Diese Schlittenkonstruktionen sind leider nicht immer optimal, [...]

Vor allem, wenn der Schlitten defekt ist :freak:
Ich bin deinem Rat gefolgt und habe mir die Einbausituation genau angesehen. Von den 4 Pins, die die Platte arretieren, fehlte einer, warum auch immer. Ich habe den Schlitten ausgetauscht und seitdem (immer knapp 2h Lesezugriff) keinen weiteren count vom G-Sensor gehabt.
 
Was mal wieder zeigt wie wichtig eine ordentliche Montage für die HDDs heutzutage ist und wie viele Hinweise man aus den S.M.A.R.T. Werten bekommen kann, auch wenn manche deren Nützlichkeit ja immer noch bezweifeln.
 
Also während der letzten 7 Betriebsstunden hat sich an der Zahl nichts mehr geändert. Ich gehe also davon aus, dass das Problem nachhaltig behoben ist.
Kann ich denn die Platte trotzdem guten Gewissens benutzen oder ist die Wahrscheinlichkeit für einen Ausfall merklich angestiegen?
 
Das kann man schwer sagen, aber ich würde davon ausgehen, dass der G-Sensor sensibler als die HDD selbst ist, man sieht oft genug HDD mit vielen G-Sensor Auslösungen, aber ohne jeden Schaden. Außerdem dürfte die Bewegung minimal gewesen sein und vor allem wahrscheinlich seitlich und nicht nach oben und unten, seitliche Bewegungen können die Köpfe aus der Spur bringen und zu Datenverlust (schwebenden Sektoren) führen, wenn dies bei Schreibvorgängen passiert und dadurch die Köpfe Daten auf der Nachbarspur überschreiben. Sollte die Prüfung mit h2testw also Fehler ergeben haben und die HDD schwebende Sektoren hat, würde ich die h2w Dateien löschen und den Test komplett wiederholen. Wenn es keine Fehler gab, würde ich die HDD einfach normal benutzten.

Denke aber daran von allen wichtigen Daten immer Backups zu haben und die Backups gehören nicht auf eine interne HDD, sondern auf ein Medium welches in einem anderen Gehäuse steckt, wie z.B. auf ein NAS, in die Cloud oder auch USB Platten die nur zum Backup dienen!
 

Ähnliche Themen

Antworten
1.922
Aufrufe
257.118
J
Zurück
Oben