Rumo schrieb:
Er tritt ja gerade nicht auf, auch nach der zehnfachen oder hundertfachen Datenmenge nicht, soviel zur Relevanz.
Wenn er nie auftreten würde, dann gäbe es ja keine HDDS mit schwebenden Sektoren, aber die gibt es sehr wohl nicht ebenso kommt es auch oft vor, dass diese beim Überschreiben einfach verschwinden und die Platten danach lange problemlos weiter betrieben werden können.
Rumo schrieb:
Lesefehler = Datenverlust, Datenverlust = inakzeptabel.
Dann sorge vor, mit Backups oder RAIDs oder am besten beidem.
Rumo schrieb:
Gerade das RAID lebt davon, daß alle Platten zu 100% funktionstüchtig sind. Defekte Sektoren kann man sich im RAID noch weniger leisten als bei einzelnen Platten.
Nein, das gilt nur für ein RAID 0, aber das ist ja kein echtes RAID und während eines Rebuild eines RAID 1 (aus zwei Platten) oder RAID 5.
Rumo schrieb:
Es hängen eben nicht nur die Daten einer, sondern aller Platten daran.
Nein, der Sinn der Redundanz ist ja gerade, dass man eben bei einem Lesefehler auf einer Platte nicht sofort Datenverlust hat, sondern das RAID mit der Redundanz die Daten sofort wiederherstellen kann und eine vernünftige RAID Lösung dann auch den Sektor den Lesefehler verursacht hat und schwebend ist, überschreibt und damit kann der Controller diesen Prüfen und wird ihn ggf. durch einen Reservesektor ersetzen. Platten in echten RAIDs haben daher auch praktisch nie Schwebende Sektoren, allenfalls wiederzugewiesene. Sollte Deine Beobachtung wonach schwebende Sektoren praktisch nie auftreten also auf Platten beruhen die im RAID laufen, so weißt Du nun auch wieso dem so ist.
Rumo schrieb:
Die gängigen Lösungen, egal ob Software- oder Hardware-RAID, brechen im Rebuild beim ersten Lesefehler ab und dann ist das RAID erstmal tot.
Ein Rebuild ist aber auch eine Ausnahmesituation und da darf es dann wirklich keine Lesefehler (und damit schwebenden Sektoren) geben, weshalb dort die UBER besonders relevant ist. Aber da Du ja selbst weißt, dass es so ist, weißt Du also auch das solche Fehler real sind und nicht wie Du oben behauptest irrelevant. Ein RAID 6 schützt da übrigens weitaus besser, da es dort nur Probleme gibt, wenn zwei Platten an der gleichen Stelle Lesefehler erzeugen, sofern nicht auch gerade 2 Platten ausgefallen sind.
Rumo schrieb:
aber wenn du Festplatten betreibst denen regelmäßig Sektoren ausfallen
Was heißt "regelmäßig Sektoren ausfallen"? Diese Bezeichnung alleine zeigt, dass Du offenbar noch immer nicht verstanden hast, was es mit schwebenden Sektoren auf sich hat.
Rumo schrieb:
Wer ein RAID betreibt und möchte daß es überlebt, der sollte Festplatten beim ersten Fehleranzeichen tauschen und nicht erst wenns zu spät ist.
Er sollte vor allem ein Backup haben und dann definiere mal was denn die Anzeichen dieses ersten Fehlers sein sollen, schwebende Sektoren sollte es wie gesagt nicht geben und wenn doch, dann betreibt man vermutlich Platten ohne TLER (ERC) an einem HW-RAID Controller und hat damit sowieso Blödsinn gemacht.
Rumo schrieb:
Die allermeisten RAIDs gehen an sowas ein. Eine Platte tot - passiert jeder Platte früher oder später - andere Platte "plötzlich" "unerwartet" Lesefehler. Platten nie getestet, SMART nie angeschaut, oder bewusst ignoriert - selber schuld.
Die meisten RAIDs scheitern vor allem daran, dass die Leute die falschen Platte dafür nehmen, denn wenn sie lesen "Redundant Array of Inexpensive Disks", dann meinen sie die billigsten Desktopplatten dafür nehmen zu können und werden noch von Typen bestätigt, die behaupten HDDs wären alle gleich und die Unterschiede im Preis nur Marketing.
Nur haben die eben keine Ahnung von der Entwicklung die HDDs in den letzten Jahren und Jahrzehnten genommen haben, wie es z.B. die
Entwicklungsgeschichte der Barracuda Reihe zeigt. Dann werden die womöglich 24/7 laufen gelassen, was sie schnell altern lässt und mit mehr HDDs in einem Gehäuse als sie abkönnen, wobei Desktopplatten alleine im Gehäuse sein sollte, mehr als 2 würde ich jedenfalls nicht verbauen, die haben eben i.d.R. heute keine Vorrichtungen um mit Vibrationen umzugehen, wie sie z.B. die anderen Platten im Gehäuse erzeugen und dann können die Köpfe leichter mal aus der Spur kommen und Daten der Nachbarspur überschreiben, bevor der Controller es bemerkt. Fällt dann die erste aus, sind die andere auch nicht selten schon dem Ende nah und halten oft den Stress des Rebuilds nicht mehr aus und dann kommt dazu, was Du geschrieben hast. HDDs halten ja auch nicht ewig und bei Überlastung nicht einmal die üblichen 5 Jahre und zur Überlastung zählt auch ein Überschreiten des Workloads, der bei Desktopplatten nur 55TB/Jahr sind und gerade bei häufigem Scrubbing der RAIDs schnell überschritten wird.