WD Red 4TB reparieren keine Sektoren

Penman

Lieutenant
🎅 Nikolaus-Rätsel-Elite
Registriert
Feb. 2009
Beiträge
827
Moin,
ich habe einige WD Red 4 TB Platten im Einsatz. Leider ergibt sich ein immer wiederkehrendes Muster, dass die Platten nach 25000h anfangen im SMART long Test kaputte Sektoren zu erkennen und abbrechen. Ich habe es schon geschafft, durch Durchläufe mit badblocks die Festplatten zeitweise wieder zu "reparieren". Denn

Beispielhaft mein neuster Zugang, den ich aus Neugierde gebraucht gekauft habe. Hohe Betriebsstunden, aber anscheinend war erst mal alles in Ordnung.
Code:
=== START OF INFORMATION SECTION ===                                                                                                                  
Model Family:     Western Digital Red                                                                                                                 
Device Model:     WDC WD40EFRX-68WT0N0                                                                                                                
Serial Number:    WD-WCC4xxxxxxxx                                                                                                                    
LU WWN Device Id: 5 0014ee xxxxxxxx                                                                                                                 
Firmware Version: 80.00A80                                                                                                                            
User Capacity:    4.000.787.030.016 bytes [4,00 TB]                                                                                                   
Sector Sizes:     512 bytes logical, 4096 bytes physical                                                                                              
Rotation Rate:    5400 rpm                                                                                                                            
Device is:        In smartctl database 7.3/5528                                                                                                       
ATA Version is:   ACS-2 (minor revision not indicated)                                                                                                
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)                                                                                              
Local Time is:    Wed Sep 20 08:57:47 2023 CEST                                                                                                       
SMART support is: Available - device has SMART capability.                                                                                            
SMART support is: Enabled                                                                                                                             
AAM feature is:   Unavailable                                                                                                                         
APM feature is:   Unavailable                                                                                                                         
Rd look-ahead is: Enabled                                                                                                                             
Write cache is:   Enabled                                                                                                                             
DSN feature is:   Unavailable                                                                                                                         
ATA Security is:  Disabled, frozen [SEC2]                                                                                                             
Wt Cache Reorder: Enabled    
[...]
ID# ATTRIBUTE_NAME          FLAGS    VALUE WORST THRESH FAIL RAW_VALUE                                                                                
  1 Raw_Read_Error_Rate     POSR-K   200   200   051    -    73                                                                                       
  3 Spin_Up_Time            POS--K   181   178   021    -    7933                                                                                     
  4 Start_Stop_Count        -O--CK   098   098   000    -    2794                                                                                     
  5 Reallocated_Sector_Ct   PO--CK   200   200   140    -    0                                                                                        
  7 Seek_Error_Rate         -OSR-K   200   200   000    -    0                                                                                        
  9 Power_On_Hours          -O--CK   003   003   000    -    71258                                                                                    
 10 Spin_Retry_Count        -O--CK   100   100   000    -    0                                                                                        
 11 Calibration_Retry_Count -O--CK   100   100   000    -    0                                                                                        
 12 Power_Cycle_Count       -O--CK   100   100   000    -    318                                                                                      
192 Power-Off_Retract_Count -O--CK   200   200   000    -    175                                                                                      
193 Load_Cycle_Count        -O--CK   194   194   000    -    18916                                                                                    
194 Temperature_Celsius     -O---K   123   095   000    -    29                                                                                       
196 Reallocated_Event_Count -O--CK   200   200   000    -    0                                                                                        
197 Current_Pending_Sector  -O--CK   200   200   000    -    7                                                                                        
198 Offline_Uncorrectable   ----CK   100   253   000    -    0                                                                                        
199 UDMA_CRC_Error_Count    -O--CK   200   200   000    -    2                                                                                        
200 Multi_Zone_Error_Rate   ---R--   200   200   000    -    3 
[...]
SMART Extended Self-test Log Version: 1 (1 sectors)                                                                                                   
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error                                                       
# 1  Extended offline    Completed: read failure       90%      5701         7374115352                                                               
# 2  Extended offline    Completed without error       00%      5590      
[...]

Das kuriose ist, dass der Sektor prinzipiell lesbar ist, auch wenn die Antwort erst mal verzögert kommt und im Wiederholungsfall sofort. Sogar beschreiben kann ich den Sektor, auch wenn es dann knapp 4 Sekunden dauert.
Code:
# hdparm --read-sector 7374115352 /dev/sdf                                                                                           
                                                                           
/dev/sdf:                                                                  
reading sector 7374115352: SG_IO: bad/missing sense data, sb[]:  70 00 03 00 00 00 00 0a 40 51 e0 01 11 04 00 00 a0 18 00 00 00 00 00 00 00 00 00 00 0
0 00 00 00                                                                                                                                            
succeeded
0000 0000 0000 0000 0000 0000 0000 0000
[...]

# time hdparm --yes-i-know-what-i-am-doing --repair-sector 7374115352 /dev/sdf

/dev/sdf:
re-writing sector 7374115352: succeeded
hdparm --yes-i-know-what-i-am-doing --repair-sector 7374115352 /dev/sdf  0,00s user 0,00s system 0% cpu 3,908 total

Mir ist jetzt nicht klar, was das eigentlich soll. Die Daten scheinen grundsätzlich in Ordnung zu sein, weil sie sich ja auslesen lassen.
Ich habe jetzt 3 von 7 WD Red verschiedener Modelle, die sich so verhalten. Alle mit 20000+ Betriebsstunden. Einerseits bin ich sauer, dass die Platten so früh "ausfallen". Andereseits funktionieren sie prinzipiell ja noch. ZFS kreidet es regelmäßig an, aber ich würde sagen, die Platten funktionieren noch - wenn auch mit einer Macke.

Was sich mir jedoch nicht ergibt, ist das Verhalten der Festplatte. Weil genau für dieses Problem gibt es doch den Reservepool. Aber trotz erkannter Probleme scheint die Platte die Sektoren nicht zu ersetzen. Die Platte oben ist die erste Platte, die Pending Sectors hat. Aber über die letzten Tage hat badblocks mehrfach alles neu geschrieben und sie wurden scheinbar nicht reallokiert.

Hier wäre eine etwas jüngere Platte dessen Lebenszeit ich komplett kenne. Das Bild ist mehr als kurios, weil sie am Ende tatsächlich wieder in Ordnung scheint.
Code:
SMART Self-test log structure revision number 1                                                                                                       
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error                                                       
# 1  Extended offline    Completed without error       00%     32281         -                                                                        
# 2  Selective offline   Completed without error       00%     32272         -                                                                        
# 3  Selective offline   Completed without error       00%     32272         -                                                                        
# 4  Selective captive   Interrupted (host reset)      90%     32270         -                                                                        
# 5  Selective captive   Interrupted (host reset)      90%     32270         -                                                                        
# 6  Selective captive   Interrupted (host reset)      90%     32270         -                                                                        
# 7  Short offline       Completed without error       00%     32270         -                                                                        
# 8  Selective offline   Completed: read failure       90%     32269         3233584577                                                               
# 9  Extended offline    Completed: read failure       10%     32269         3231087440                                                               
#10  Extended offline    Completed: read failure       90%     30011         100173888                                                                
#11  Extended offline    Completed: read failure       90%     29339         100173888                                                                
#12  Extended offline    Completed: read failure       90%     27452         100173888                                                                
#13  Selective offline   Completed without error       00%     26475         -                                                                        
#14  Extended offline    Completed: read failure       10%     26415         3128606032                                                               
#15  Extended offline    Completed: read failure       10%     26404         3128606032                                                               
#16  Extended offline    Completed without error       00%     19509         -                                                                        
#17  Extended offline    Completed without error       00%     14888         -                                                                        
#18  Extended offline    Completed without error       00%     11652         -
#19  Extended offline    Completed without error       00%      8765         -
#20  Extended offline    Completed without error       00%      6748         -
#21  Extended offline    Completed without error       00%        27         -
7 of 7 failed self-tests are outdated by newer successful extended offline self-test # 1
[...]
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   157   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   217   167   021    Pre-fail  Always       -       4125
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       110
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   050   050   000    Old_age   Always       -       36567
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       110
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       65
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       233
194 Temperature_Celsius     0x0022   122   106   000    Old_age   Always       -       28
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       8
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       3
Keine Pending oder Reallocated Sectors, aber scheinbar hat die Platte sicha auf magische Art und Weise geheilt.

Was ich inzwischen über die Firmware der WD Reds herausgefunden habe, ist dass sie länger (30s) und häufiger versuchen einen Sektor auszulesen. Das kann zum Erfolg führen oder eben im Lesefehler enden. RAID5 korrigiert das, aber erst nachdem die Platte den Fehler geschmissen hat. Das heißt, 30 Sekunden Freeze.

Das ist nicht optimal, aber ich würde gerne verstehen, wieso die Platten sich so verhalten.
 
@GrumpyCat Dann war ich da wohl etwas auf dem Holzweg. Wohl deswegen weil es halt eher auffällt, wenn die komplette Platte, oder zumindest der belegte Teil gelesen wird. Da tauchen dann im Fall des Falles viele neue fehlerhafte Sektoren auf einmal auf.
 
NobodysFool schrieb:
EIne Zuweisung der Reservesektoren erfolgt meines Wissens nur nach einem langen SMART Test (nicht Schnelltest),
Ne, der Extended Offline SMART Test bricht einfach ab, wenn er etwas findet. Kurios ist ja, dass ich Fehler repariert bekommen habe und dann hat er beim nächsten Fehler angehalten. Dauert halt alles Stunden.
Das sollte auch gar nicht transparent passieren. Im guten Fall, kann man die Daten noch lesen. Im schlechten Fall hättest du irgendwo auf der Platte einen Sektor Daten verloren, wenn die Platte den Sektor neu mappt.

In meinem Fall wäre das Remappen bei den "neuen" Platten egal, weil sowieso keine Daten vorhanden sind. Irgendetwas muss ja auch unter der Haube passieren, weil mein angekündigter 0x08 badblocks Durchlauf fertig ist.
Code:
# badblocks -b 4096 -o sdf.txt -s -t 8 -wv /dev/sdf
Checking for bad blocks in read-write mode
From block 0 to 976754645
Testing with pattern 0x08: done
Reading and comparing: done
Pass completed, 0 bad blocks found. (0/0/0 errors)

Laut dem vorherigen Volldurchlauf über 80 Stunden möchte badblocks 6 Sektoren als Defekt erkannt habe, die jetzt nicht mehr gelistet werden: 921764419, 922236901, 922938101, 923412414, 923874543 und 928728752.

Das entspricht auch meinen Versuchen, die Sektoren einfach zu beschreiben und auszulesen, was erfolgreich war.

Die SMART Werte hingegen zeigen, dass kein Sektor ersetzt wurde:
Code:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       79
  3 Spin_Up_Time            0x0027   181   178   021    Pre-fail  Always       -       7933
  4 Start_Stop_Count        0x0032   098   098   000    Old_age   Always       -       2794
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   100   253   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   003   003   000    Old_age   Always       -       71286
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       318
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       175
193 Load_Cycle_Count        0x0032   194   194   000    Old_age   Always       -       18916
194 Temperature_Celsius     0x0022   123   095   000    Old_age   Always       -       29
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       2
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       3

Bleibt also weiterhin die Frage, was die Platte(n) für ein Problem haben. Scheinbar hat WD eine Routine vorgesehen. Ob das jetzt nur WD Red spezifisch ist oder nicht, kann ggfs. mal jemand mit einem ähnlichen Schadensbild klären.

Was den von @Evil E-Lex beschriebenen Timeout angeht: Scheint zu stimmen. Hätte mir bei meiner ZFS Umstellung einiges an Zeit erspart. Da durfte ich dann herausfinden, dass in einem VM Image die defekten Sektoren lagen und die Platte ihre 30 Sekunden bekommen hat.

Was mir aber nicht klar wird, ist die Antwort, die ich bekomme: Unrecovered read error - auto reallocate failed.
Das klingt jetzt nach Lesefehler, keine Wiederherstellungen möglich, außerdem keine der Sektor auch nicht neu zugewiesen werden. Ich nehme mal an, dass es Platten gibt, die (dann ohne Meldung) Daten mittels Fehlerkorrektur wiederherstellen können und dies dann beim lesen auch machen. Beim Schreiben war meine Beobachtung und deswegen das Vorgehen, dass ein Pending Sektor beim Schreibzugriff in den Reservepool gemappt wird und dann beschrieben wird. Ganz still und heimlich und nur in den beiden SMART Werten zu beobachten.

Soweit schon mal Danke für den Input. Wir haben zwar keine Erklärung, aber zumindest ein paar technische Insights.

---
Update:
Der letzte Self-Test schlug ja bei 90% remaining fehl. Mein aktueller nach-badblocks-Test hat das inzwischen weit hinter sich gelassen und steht schon bei 60% remaining. Heute Abend um etwa 22 Uhr wird er fertig sein. Scheinbar hat die Platte sich tatsächlich wieder "repariert".

Ich meine ja: Grundsätzlich sollte man sich überlegen, Daten auf eine Platte mit inkonsistentem Fehlerverhalten abzulegen. Ich fahre ja unter der Prämisse, dass die Daten entweder nicht wichtig sind oder es weitere Backups oder Replikas gibt, die einen wirklichen Ausfall absichern würden.

Dass mein Heimserver nicht den Anspruch eines professionellen Servers hat sondern ein Hobby-Bastelprojekt mit entsprechendem Budget ist, erlaubt unsaubere Praktiken einfach. Wie im Projektmanagement: Ich kenne das Risiko und ich weiß damit umzugehen. Nicht, dass hier ein Vorbeireisender denkt, man könnte SMART Werte einfach ignorieren. Die gehörten interpretiert und bewertet und dann entscheidet man, was man will. Entweder Geld ausgeben, die Platte tauschen und erst mal Ruhe oder mit dem Risiko leben und das Problem anders absichern.
 
Zuletzt bearbeitet:
Ja. Es fahren auch noch Autos mit über 400.000 oder gar 800.000 km.
Die Platten mit nur 30.000 Betriebsstunden verhalten sich ja ähnlich.

Und da es vorhin mit interessanten Geräuschen von etwas, das scheinbar immer schneller wird abgeschlossen hat:
Code:
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed without error       00%      5759         -
# 2  Extended offline    Completed: read failure       90%      5701         3079148056 
# 3  Extended offline    Completed without error       00%      5590         -
Oh Wunder. Der SMART Test hat kein Problem mehr. Pending oder Reallocated Sektoren sind immer noch 0. Daraus werde ich einfach nicht schlau.
 
bei manchen Festplatten kann man einstellen wie viel Zeit sie auf Fehler Korrektur aufwenden sollen (smartctl SCT Error Recovery Control settings) . im RAID kann man hier sehr scharfe Timeouts setzen dann korregiert das RAID auch schneller. Im Degraded RAID natürlich kontra produktiv beim rebuild sowieso. Solche Platten sollte man im raid nicht behalten wenn man wert drauf legt das der rebuild durch geht

badblocks repariert keine Pending Sectors bzw. wenn dann nur im destructive -w mit sector size 4096. In den anderen Modi versucht Badblocks die daten zu lesen und überschreibt bei Lesefehler _ nicht _

Pending / Uncorrectable Sektoren überschreiben klappt dannn auch nur 4K aligned. man kann in einen defekten Sektore keine 512 Bytes rein schreiben dazu müsste die Platte die alten Daten des Sektores kennen und die fehlen beim defekten Sektor ja gerade

ob das Pending dann einfach wieder auf 0 geht oder ob ein Reallocated wird ist dann die Entscheidung der Platte wenn das schreiben klappt wird erst mal nicht reallocated, wenn der Fehler dann gleich wieder da ist Kann man nichts machen. Wenn man mit hdparm das reallokate erzwingen kann ist mir dies nicht bekannt man kann nur bad markieren und dann geht es eben wieder weg
 
@kieleich Kurze Zusammenfassung für dich:
Ich habe die Platten gebraucht gekauft. Die Fehler haben sich erst bei meinen Burn-In Tests herausgestellt. Dementsprechend durfte badblocks auch nach Herzenslust Daten schreiben. Ob 30k oder 70k Betriebsstunden: Die WD Red 4TB verhalten sich Modellübergreifend unzufriedenstellend.

Ich bin bisher immer sehr gut damit gefahren, die Platte einfach komplett vollschreiben zu lassen. Wenn die Platte sowieso schon einen Sector markiert hat, wurde er spätestens dann Reallocated.
In meinem Fall weigert sich die Firmware Sektoren selbstständig als Bad zu markieren und folglich aus zu reallokieren. Recht hat sie eigentlich auch, denn die Sektoren lassen sich ja problemlos wieder lesen.
kieleich schrieb:
ob das Pending dann einfach wieder auf 0 geht oder ob ein Reallocated wird ist dann die Entscheidung der Platte wenn das schreiben klappt wird erst mal nicht reallocated, wenn der Fehler dann gleich wieder da ist Kann man nichts machen. Wenn man mit hdparm das reallokate erzwingen kann ist mir dies nicht bekannt man kann nur bad markieren und dann geht es eben wieder weg
Effektiv wird der Bad Sector ja darüber erreicht, die ECC Daten zu manipulieren oder der Controller lässt sich das einfach sagen, dass er annehmen soll, dass ein Sektor defekt ist.
Es klingt fair, wenn defekte ECC Daten nicht gleich bedeuten, dass der Sektor physikalisch defekt ist. Bei beiden Methoden wäre Badblocks jedoch nicht betroffen, weil es ja die Daten komplett neu schreibt. Die Platte hat nie verweigert zu schreiben. Es gab immer noch Probleme beim Auslesen.

Wenn ich unter diesem Kontext noch mal darüber nachdenke: Ja, die Sektoren sind nicht mehr in Ordnung. SMART und badblocks liegen wohl nicht falsch. Die Interpretation ist klar: Daten in diesem Sektor werden immer wieder korrumpieren.
Ist das ein Grund zu handeln? Nicht unbedingt. Zurecht werde ich aus allen Richtungen gewarnt, aber ich halte daran fest: Für ein Hobbyprojekt muss nichts getan werden. ZFS und die Replikas sichern mich gegen Datenverlust ab. Ich meine: Es müsste ja schon etwas viel passieren, dass exakt die Daten aus diesem einen Sektor auf 3 Platten gleichzeitig verloren gehen. Solange der Server einfach vor sich hinläuft, ist es ein vertretbares Risiko.

Leider bringt mich das am Ende auch nicht ans Ziel. Wir haben jetzt eine mögliche Erklärung, dass die Platte den Fehler einfach ignoriert und beim nächsten Write erledigt sich das Problem von selbst. Die Redundanz kaschiert das Problem. Ist es vielleicht wirklich genau das, was WD mit der Red Serie will?
 
Mit 30k und 70k Betriebsstunden sind meine Platten älter als das SMR Drama.
Das Marketing zu den einzelnen Festplatten besteht aber auch zu 99% aus Mist. Als ob man RAID nur auf der Red Serie fahren könnte oder es irgendwie relevant wäre, dass ich Red Platten verwende, wenn ich Inhalte ins Internet Streame. Und was Nasware 3.0 genau macht, ist mir auch nicht klar.

Also abgesehen von leicht unterschiedlichen Komponenten wie mehr Cache und scheinbar einem Dual Core Prozessor auf den WD Blacks (wofür der auch immer verwendet wird), sehe ich nur noch die Vibrationskompensation. Keine Ahnung, ob da Software mal die Vibrationen runterregelt oder ob die Platten einfach irgendwie gepolstert sind. Es klingt zumindest so, als müsste man schon einen Schrank voller Festplatten haben, damit das eventuell mal relevant wird.

Über Garantieversprechen rede ich gar nicht erst. Ich hatte WD Green Platten mit 25000 h Laufzeit auch im 24/7 Einsatz und die waren nicht so zickig.

Die Firmware? Red hat TLER. Blue nicht. Ob ein einstellbarer Parameter jetzt wirklich ein Feature ist... Aber sonst erzählen auch Leute dieselben Dinge:
  • "hält 24/7 Betrieb stand": Was genau wird da anders gemacht?
  • "hält größeren Workloads über die Lebenszeit stand": Worin besteht der Unterschied?
  • "Red hat eine bessere Leistung": Die 5400 rpm Platten liefern beide 180 bzw 185 MB/s. Die Einschränkungen unter denen diese Werte erreicht werden, sollten klar sein
Aus dem Datenblatt unterscheiden sich die Werte für Gs (Schockresistenz über 2 Sekunden?). Da scheinen die Red (und Black) mit 300 vs 250 "when not operating" besser zu performen. Das muss diese "Vibrationsresistenz" sein. Wahrscheinlich weil die Arme dann geparkt sind und die Platten nicht treffen können. Weil da verhalten die sich mit 30 und 70 im Zugriff ziemlich gleich. Ups?
Lautstärke und Strombedarf wäre noch ein Punkt. Das erreicht man auch nicht einfach so.

Ich denke nicht, dass wir hier zu einer präziseren Antwort kommen werden. WD wird wohl nicht herausgeben, welche Parameter sie verstellen. Abgesehen von der Beobachtung, wie die Reds mit Fehlern umgehen und fehlendem APM und AAM Support (stellt wahrscheinlich auch nur Parameter um), ist eine Festplatte eine Festplatte.

Ich tendiere leicht dazu, dass mir das Verhalten von "normalen" Desktop Festplatten besser gefällt, die Sektoren einfach markieren und bei nächstem Write remappen (angenommen, das ist heute immer noch so). Schön, dass die Reds die Sektoren wieder als in Ordnung erkennen können. Aber am Ende war es viel Aufwand, Downtime und Platten mit diesem Fehler sind anfällig für weitere Fehler diesen Kalibers.

Code:
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed without error       00%     32281         -
# 2  Selective offline   Completed without error       00%     32272         -
# 3  Selective offline   Completed without error       00%     32272         -
# 4  Selective captive   Interrupted (host reset)      90%     32270         -
# 5  Selective captive   Interrupted (host reset)      90%     32270         -
# 6  Selective captive   Interrupted (host reset)      90%     32270         -
# 7  Short offline       Completed without error       00%     32270         -                                                                       
# 8  Selective offline   Completed: read failure       90%     32269         3233584577
# 9  Extended offline    Completed: read failure       10%     32269         3231087440
#10  Extended offline    Completed: read failure       90%     30011         100173888
#11  Extended offline    Completed: read failure       90%     29339         100173888
#12  Extended offline    Completed: read failure       90%     27452         100173888
#13  Selective offline   Completed without error       00%     26475         -
#14  Extended offline    Completed: read failure       10%     26415         3128606032
#15  Extended offline    Completed: read failure       10%     26404         3128606032
#16  Extended offline    Completed without error       00%     19509         -
#17  Extended offline    Completed without error       00%     14888         -
#18  Extended offline    Completed without error       00%     11652         -
#19  Extended offline    Completed without error       00%      8765         -
#20  Extended offline    Completed without error       00%      6748         -
#21  Extended offline    Completed without error       00%        27         -

Andere Platten bleiben verschont.
Code:
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error                                                       
# 1  Extended offline    Completed without error       00%     32274         -                                                                        
# 2  Extended offline    Completed without error       00%     30026         -                                                                        
# 3  Extended offline    Completed without error       00%     29354         -                                                                        
# 4  Extended offline    Completed without error       00%     27466         -                                                                        
# 5  Extended offline    Completed without error       00%     26410         -                                                                        
# 6  Extended offline    Completed without error       00%     19514         -                                                                        
# 7  Extended offline    Completed without error       00%     14893         -                                                                        
# 8  Extended offline    Completed without error       00%     11657         -                                                                        
# 9  Extended offline    Completed without error       00%      8770         -                                                                        
#10  Extended offline    Completed without error       00%      6748         -
#11  Extended offline    Completed without error       00%        27         -
#12  Conveyance offline  Completed without error       00%         0         -

Wenn ich mir so den Vergleich zwischen einer Blue (CMR) und Red Plus anschaue... Da könnte man darauf kommen, dass die Red einfach eine blue mit 24/7 Label ist. Nicht mal der Preis ist wirklich unterschiedlich. Wären natürlich interessant, was die Seagate IronWolf Platten so treiben.

Ich schließe das Thema zumindest für mich erst mal ab, dass wir die Geheimnisse der Firmware hier nicht herausfinden werden. Marketing für HDDs ist eine Buzzword und Worthülsenshow und demnächst kommt wahrscheinlich KI noch dazu.

Sollte ich mal wieder upgraden, hoffe ich auf sinkende Preise und wechsle vielleicht mal das Lager. Die Ausfallquote der WD Red ist mir dann doch zu hoch, auch wenn ich sie einfach weiter betreibe. Ich hätte sogar Desktop Platten gekauft, aber preislich geben die sich ja nichts.
Ich habe selbst 2 SMR Platten als Datengräber. Die Nachteile stören mich da nicht, wenn ich sie einmal vollschreibe.

Danke für's Lesen und Beitragen!
 
Viel Lärm um nichts, wieder mal.

Laß die Platten laufen, bis die ersten Dateien nicht mehr lesbar sind.
Dann das Backup auf neue Platten spielen und weg mit dem alten Zeug.
Ob da SMR oder CMR die Hufe hochreißt, ist nicht relevant.

Ich habe einen WD Purple mit 8TB Hitachi innen verbaut als CMR und alle relevanten Fehlerwerte stehen nach über 10.000 Betriebsstunden auf 0.
 
  • Gefällt mir
Reaktionen: Penman
Zurück
Oben