Herdware schrieb:
Ich hab neulich eine Diskussion darüber gelesen, dass bei immer größeren Festplattenkapazitäten, das beliebte RAID5 irgendwann nicht mehr sinnvoll ist.
Der Sinn von RAID5 ist ja, dass eine Platte ausfallen kann. Dann baut man einen Ersatz ein und der Verbund wird wieder hergestellt. Dieser Vorgang kann bei so riesigen Festplatten sehr lange dauern und während dieser Zeit existiert keine funktionierende Redundanz. Wenn während dieser kritischen Phase also ein Fehler auftritt, ist die Datenintegrität futsch. Dummerweise ist aber die statistische Wahrscheinlichkeit für diesen Daten-GAU bei sehr großen Platten ziemlich hoch. Es ist also relativ wahrscheinlich, dass der RAID5-Verbund überhaupt nicht wieder hergestellt werden kann. Man bräuchte also eigentlich RAID6 (bei dem zwei Platten gleichzeitig ausfallen dürfen). Aber damit sinkt dann die nutzbare Speicherkapazität und der ganze Sinn größerer Platten ist damit zumindest teilweise wieder dahin.
Ich weiß aber nicht, ob diese Problematik schon bei 6TB akut wird, oder vielleicht auch schon bei den schon üblichen 4TB oder noch kleineren Kapazitäten.
Mal Fullquote, damit ichs nicht so zerstückeln muss und der Sinn erhalten bleibt...
WD ist mal wieder unfähig, die ohnehin kurzen Datenblätter zu verlinken. Wundert mich nicht, passt auch zur weiteren Ausweitung der "Produktpalette". Mal gespannt, wann die WD "Grüngelb mit Lila" Pro Deluxe Super R2.0 Plus kommt, die dann im hintersten Spezifikationszeilchen nen kleinen Unterschied zum übrigen Portfolio aufweist. Weiß aber nicht, ob die Seagate-Politik mit den Festplattenbezeichnungen a la "Desktop-Festplatte 8TB" so viel besser ist...
Mit dem was man so über Gurgel findet, hatten die bisherigen Reds "Non-recoverable read errors per bits read: <1 in 10^14" angegeben. Also "weniger als einen" Lesefehler pro 100 gelesenen Terabits = 11,4 TiB. Ob das nun im Schnitt 0,99 oder 0,10 sind...wer weiß. Jedenfalls hab ich beispielsweise ein RAIDZ2 (RAID6 + ZFS-Goodies) aus 8x2TB, d.h. wenn ich das bis zum Dach fülle und dann eine Platte tausche, ist die Chance auf einen Lesefehler während des Rebuilds (14TB Read) durchaus nichtverschwindend gering. Es ist ja nun eine Wahrscheinlichkeit, und keine Angabe wann dieser Lesefehler nun genau kommt. Aber ein RAIDZ/RAID5 hätte damit unter Umständen schon ein Problem. Dass aber zwei Lesefehler beim gleichen Bit auftreten, ist schwer unwahrscheinlich, damit wird der Rebuild des angeschlagenen RAID6 nicht scheitern. Möglicherweise kommts zur Situation wo man entscheiden muss, ob nun eins der Datenhäppchen fehlerhaft ist oder die dazugehörige Prüfsumme, aber immerhin ist unmittelbar klar, dass hier ein Fehler vorliegt, der aber fixbar ist.
Natürlich sinkt die nutzbare Kapazität, wenn (effektiv) eine Platte mehr für Prüfsummen da ist, anstatt normale Daten aufzunehmen. Aber man muss halt wissen, wieviel einem seine Daten wert sind. Und sei es nur die Verfügbarkeit seiner Daten, denn ein RAID ist ja nunmal kein Backup...
Wo das Problem mit der Bitfehlerrate wirklich anfängt, lässt sich ohne Kenntnis dieses "<1" (und dessen Genauigkeit) nur schwer vorhersagen. Aber ein RAID5 oberhalb von 10TB würd ich nicht guten Gewissens anlegen. Und da isses auch relativ egal, ob das 10x1, 6x2, 4x3, 3x4, 3x6 oder wer weiß was ist, denn die Chance auf Laufwerksfehler ändert sich bei gleicher Gesamtkapazität nicht mit der Anzahl der Platten. Viele andere Faktoren schon, etwa Ausfallrate des ganzen Laufwerks (je neuer die Technik und größer die Kapazität, desto anfälliger), Probleme mit Kabeln und Controllern (skaliert linear mit der Anzahl), Wärmeproblematik (neuere mit möglichst wenig Plattern im Vorteil - andererseits sind die auch temperaturempfindlicher als die alten), Vibrationsproblematik (wenige langsamdrehende und/oder explizite Serverplatten), mögliche Serienfehler (alte Technik wieder vorn...), etc. pp.
Nunja, und nun zur Werbung: ZFS hat auch hier nette Vorteile. Anders als normale RAID-Implementierungen weiß das System genau, wieviele Daten wo auf den Platten verteilt sind. Ein Rebuild grast daher nicht alle Platten von vorn bis hinten ab, sondern holt sich nur die echte Datenhäppchen zusammen. Wenn das Array nur halbvoll ist, dann wird auch nur die Hälfte der Rohkapazität ausgelesen, usw. Damit reduziert sich die totale Datenmenge, und damit die Chance auf einen solchen Lesefehler. Nebenbei ist die Belastung des Systems geringer, da der Rebuild einfach schneller abgeschlossen ist. Heißt weniger Zeit, in der alle Platten gleichzeitig auf volle Pulle laufen, was dann leicht der ehemals zweitschwächsten Platte den Rest geben kann.
Und gestern hatt ich den Fall, dass durch ein wackliges Stromkabel (diese alte 4-Pin-"Molex"-Grütze) zwei Platten meines Z2-Arrays kurz weg waren. Ein normales RAID6 hält das aus, macht dann aber einen doppelten Rebuild ohne jegliche Redundanz. Ich hab nach dem Hochlaufen die beiden Platten einfach wieder "online" genommen, dann wird deren letzter Stand überprüft und der Rest nachsynchronisiert. Waren knappe 500 MB, die wurden einfach nachgetragen und fertig ist der Lack. Einen Tag Rebuild mit der Chance auf den ultimativen Crash gespart...