[Sammelthread] HDD-Probleme, SMART-Analysen

okni schrieb:
Ich sag nur Seagate, die meisten die hier ihre CDI-Werte von ihren defekten Festplatten Posten sind Seagate HDD's
Es sind auch genau andere HDDs hier und einige wenige schwebende Sektoren die nach dem Überschreiben weg sind, scheinen mir gerade bei WD sehr typisch zu sein.

TheManneken schrieb:
Und hier betreiben auch alle ihre Platten 24/7 in einem Rack als Online-Storage, wie Backblaze es macht? Lies Dir auch die Kommentare zu der News durch, dann weißt Du, wieso deren Daten für Heimanwender total irrelevant sind. In der Statstik aufgrund der RMA Quote eines etrailer bei hardware.fr liegen die Seagates vor den WD, obwohl WD als Hersteller einen besseren (Vorab)Austauschservice bietet als andere HDD Hersteller und daher eher weniger WD über den Händler reklamiert werden:

Wieso passt das so gar nicht? Vielleicht weil die Firma Backblaze normale und möglichst billige Consumer HDDs in selbstgebaute Racks packt und 24/7 mit Online Backups belastet, wofür diese HDDs nicht ausgelegt sind und wobei teils starke Vibrationen und hohe Temperaturen auftreten.

Selbst hat Backblaze im Januar gesagt:
Das passt irgendwie so gar nicht zu dem, was sie selbst als Ausfallraten kommunizieren, wenn sie weiterhin die Seagate favorisieren. Warum veröffentlichen sie überhaupt Statistiken, die im Prinzip nur Wettbewerbern helfen?

Eigentlich sollte doch so ein Großabnehmer über direktere Bezugskanäle seine Waren beziehen können und zwar günstiger als im Handel, aber genau da kommen viele HDDs von denen her und haben sie sich sogar von Kunden schicken lassen, nachdem die Läden ihnen keine mehr verkauft haben:

backblaze_drive_source-jpg.447932


Da möchte man gar nicht wissen, wie viele (Seagate) HDDs in den Blister Packungen vom dem Tisch gefallen sind und außerdem sind diese Verpackungen für den Transport in Kofferräumen und den Postversand total unzureichend, die Kartons von WD schützen die HDDs da schon weitaus besser.

Auf jeden Fall würde ich jedem dem diese Statistik über den Weg läuft empfehlen sich auch diesen Artikel von tweaktown dazu einmal aufmerksam durchzulesen. Deren Fazit kann man sich daher nur anschließen:
 
Stimmt das ist meine Meinung dazu, nachdem meine 2 Seagate Festplatten mit zusammen weniger als 3500 Betriebsstunden gehäuft defekte Sektoren aufweisen. ;)
 
Hallo,

leider hab ich nun einen zweiten PC mit Problemen für mich sieht das allerdings "im Rahmen" aus, oder?

Vielen Dank im Voraus
 

Anhänge

  • Smart G.JPG
    Smart G.JPG
    117,3 KB · Aufrufe: 474
48 defekte Sektoren wurden durch Reservesektoren ersetzt (ID 05), für 10.005 Betriebsstunden noch akzeptabel.
 
@ Inzersdorfer nochmal ein fettes Danke!
Ergänzung ()

Hallo,

also da ich jetzt schon dabei bin hab ich nun noch eine Festplatte, die aber meines Erachtens auch miserabel ist...
Irgendwie ist da der Wurm drin 3 Festplatten 3x Fehler :rolleyes:

Würde mich freuen auch hier nochmal Rückmeldung zu bekommen.
DAs wäre dann auch die letzte, mehr HDDs/ Pcs/Notebooks habe ich nicht im Haus.

Grüße Dat_Oe
 

Anhänge

  • Smart A.jpg
    Smart A.jpg
    111,4 KB · Aufrufe: 464
Der G-Sensor hat 4605 mal ausgelöst, also zu schwere Schock ermittelt, die wurde auch schlecht behandelt und dafür ist nur ein schwebender Sektor und ein paar Lese- und Schreibfehler noch ein sehr guter Zustand. Für Notebooks die öfter mobil unterwegs sind, wäre eine SSD sinnvoller, da diese mechanisch solider sind.
 
Ok Danke, dann werde ich hier auch eine neue holen bzw eine SSD.

ich wünsche noch einen schönen Abend
 
Hey


wollte mal Erfragen ob mir jemand sagen kann, ob meine Platte die "Ursache" sein kann, Bild hier:

y86kyr4h.png

(Die Temp ist gerade leider so weil ich ein Lüfter gewechselt habe, eigentlich ist Sie bei ca 27°c)

Problem:

Windows neu aufgesetzt, trotzdem längere Wartezeit gerade bei Login....
Allgemeine Performance im Alltag ist nicht mehr so "schnell" wie zb beim Erwerb der Platte


I know, eine SSD wäre gut ;) Aber an den Daten könnt ihr besser sehen was damit ist, soweit Danke erstmal :)
 
Die SMART Werte sind in Ordnung.

In Ereignisanzeige /+Applications and Services Logs /+Microsoft /+Windows /+Diagnostics Performance
Doppelklick auf Operational: EventID 100 Quelle Diagnostics-Performance, in Details sieht man die Zeitabläufe des Boots

Für eventuelle Treiberprobleme könnte das Bootlog ausgelesen werden
(%WinDir%\ntbtlog.txt, das muß enventuell in msconfig vorher aktiviert werden).
 
Sushi87, Platten werden mit der Zeit nicht langsamer, aber wohl mit der Belegung und die fängt eben i.d.R. außen an, wo mehr Sektoren auf einem Zylinder Platz haben und geht nach innen, wo die Übertragungsraten entsprechend kleiner werden, weil weniger Spuren auf die Zylindern passen, die haben ja da einen kleineren Umfang. Zwischen außen und innen liegt i.d.R. ein Faktor von etwa 2. Außerdem werden die Kopfbewegungen länger, je weiter nach innen die Platten mit Dateien belegt wird.

Dann kommt noch dazu, dass die Bootzeit vor allem von der Zeit für die Initialisierung der HW abhängt. Da hatten wir vor einiger Zeit diesen Thread, wo sich dann letztlich ein "HP CUE DeviceDiscovery Service" das Booten massiv verzögert hat. Den speziellen Service hast Du vermutlich nicht, aber in dem Thread findest Du auch die Anleitung, wie Du so einen Übeltäter in Deinem System ausfindig machen kannst, denn wie man daran auch gut sieht, kann schon ein weiterer Treiber der nach seine HW such einen großen Unterschied in der Bootzeit machen und außerdem kostet jedes angeschlossene Gerät, jede Platten, jeder USB Stick, etc. Zeit beim Booten.
 
Wenn du mit den Ohren atmen kannst, hast du es leichter.

Ansonsten in den ersten drei Monaten für stark beanspruchte Platten, wenn du auf die Google-Studie anspielst.
Für mich impliziert das aber immer auch einen vollständig durchgeführten Schreib- und Lesetest.
 
Zuletzt bearbeitet:
Wie muss ich hier den wear leveling count und den POR interpretieren? Es handelt sich um ne Samsung evo 840 500GB. (SSD ist von Oktober 2012).
 

Anhänge

  • Bildschirmfoto 2015-02-04 um 00.57.41.png
    Bildschirmfoto 2015-02-04 um 00.57.41.png
    139,4 KB · Aufrufe: 494
Banger schrieb:

Ich habe noch eine vergessene Festplatte gefunden, die IDE-Umgebung untersützt. Habe die eingebaut und XP installiert. Sieht so aus, dass die Festplatte im Allerwertesten ist? -.- XP lädt auch noch Ewigkeiten bis zum Desktop.


Edit: Nebenbei ist noch die Grafikkarte langsam abgeraucht. Beim Installieren, beim Booten bis zum XP-Zeichen, im Bios und im abgesicherten Modus machte die Bild. Nach dem Windows-Zeichen kam einmal der Mauszeiger in gekrisselter Form und einmal rote Streifen auf schwarzen Grund. Zwischendurch kam eine andere Karte rein und danach wieder diese. Sie konnte dann nicht mehr das Bios darstellen. Also: R.I.P. Ati 7000. :D
 
Zuletzt bearbeitet:
Apfelorange schrieb:
Wie muss ich hier den wear leveling count und den POR interpretieren?
Die 8 bei Weat Leveling bedeutet, dass 8 P/E Zyklen von 1000 spezifizierten verbaut sind, bei über 2 Jahren würen das dann noch spezifizierte P/E Zyklen für 250 Jahre, die Haltbarkeit der NANDs von SSD ist kein Problem, auch nicht bei TLC NAND! Der Schonen der SSDs ist daher auch komplett unsinnig.

Die POR sind unterwartet Stromausfälle, im Prinizp unkritisch, aber jedes mal wenn sowas passiert ist es eine Gefahr für jede SSD, außer bei einer Stützkondensatoren.

Banger. be 430 wiederzugewiesenen und dazu 10 schwebenden Sektoren ist da nicht mehr so viel Leben drin. Über 52.000 Stunden sind aber auch schon ein hohes Alter und die hat sich ihren Ruhestand verdient.
 
Holt schrieb:
Die POR sind unterwartet Stromausfälle, im Prinizp unkritisch, aber jedes mal wenn sowas passiert ist es eine Gefahr für jede SSD, außer bei einer Stützkondensatoren.
Danke! Sollen Stützkondensatoren nen kurzzeitigen Stromausfall überbrücken?

Ist aus nem Silent-System (MacMini) Ich könnte mir vorstellen, der Vorbesitzer hat nicht gemerkt, dass er noch an ist und dann den Strom abgeschaltet (vllt. den Bildschirm ausgehabt oder am Abend bemi ausm Büro gehen nicht ausgeschaltet, Zeitschaltuhr etc...).

Wenn man ne SSD testen möchte macht dann so ein Test wie hw2test Sinn? SSDs sollten sich doch da ähnlich wie SD-Karten verhalten, oder? Ich hab jetzt ein Mac Pandon dazu gefunden, heißt QuickDiskTest ("DD" für Mac&Win ist mir zu unkomfortabel, wenn man es erst kompilieren muss und dann die GUI runterladen) und ist ein Java-Programm.
 
Zuletzt bearbeitet:
fanatiXalpha schrieb:
vollständiger Lese- und Schreibtest mit HDTune?
Wie Du siehst unterstützt HD Tune in der alten 2.55er Version nur bis zu 2TiB (2.2 TB) und bencht also nicht die ganze Platte. Den Schreibtest hast Du nicht gemacht, der hätte auch die ganzen Daten unbrauchbar gemacht. Sieht aber sonst alles gut aus.

Apfelorange, Zum überbrücken kurzzeitiger Stromausfälle reicht die Kapazität der Stützkondensatoren wohl nicht, aber es soll bei den Client Lösungen (geringe Kapazität der Kondensatoren) ausreichen um wenigstens die Verwaltungsdaten und ggf. im Speicher befindliche Low-Pages zu schreiben, so dass die bestehenden Daten nicht korrupt werden und die SSD nicht komplett "bricked", was normalerweise passiert wenn die Verwaltungsdaten korrupt sind, wie z.B. bei Intels altem 8MB Bug. Bei Enterprise SSDs sind die Stützkondensatoren dann i.d.R. so groß ausgelegt, dass auch die Userdaten aus dem Schreibcache ebenfalls noch zurückgeschrieben werden können, aber das geht bei Client Lösungen wie denen bei den Crucial m500, m550 und MX100 eben nicht.
 
PS: wie war das eigentlich, wegen den sinkenden Schreibraten bei der Samsung Evo? Ist das zwingend erforderlich, da drüber zu bügeln? (FW ist DXT06B0Q, Seriennummer S14LNEA....)
 

Ähnliche Themen

Antworten
1.922
Aufrufe
256.863
J
Zurück
Oben