NobodysFool schrieb:
Denn in einem RAID-6 hat man immer noch 1 x Daten + 2 x Parity. Ist ein Datensatz korrupt, egal welcher, dann lässt sich immer noch feststellen, wenn die anderen beiden zusammenpassen
Du hast da genau wie tek9 ein grundsätzliches Verständnisproblem. Denn was Du da von ihm zitiert hast, ist sowieso Quatsch:
Ab 12tb besteht ein nicht unwahrscheinliches Risiko das sich Bitfäule (Silent-Data-Corruption)in ein RAID 6 einschleicht und ein Restore auf ein Hot Spare oder Ersatzplatten fehlschlägt
Erstens hat die UBER nichts mit Bitfäule, also Silent-Data-Corruption zu tun. Denn wenn ein Lesefehler passiert, ist dies nicht Silent, sondern es gibt eine Fehlermeldung von der Platte und daher hat UBER mit Silent-Data-Corruption schon mal nichts zu tun und man muss auch nicht feststellen welche Daten betroffen sind, dies erfährt der Host Controller sofort. Bei einem RAID 6 wo nur eine HDD ausgefallen ist, kann er dann wie bei einem normal laufenden RAID 5 diese Daten aus den Daten der anderen Platten, also auch der verbliebenen Parity, wieder rekonstruieren und wird den Sektor auf der Platte überschreiben, die den Lesefehler gemeldet hat.
Obendrein ist dfie Aussage von tek9 natürlich Quatsch, dass diese ab 12TB wahrscheinlich passiert, denn dies trifft nur bei HDDs mit einer UBER von 1:10^14 zu, bei einen HDD mit einer UBER von 1:10^15 ist es eben erst alle etwa 120TB gelesener Daten wahrscheinlich, sofern die Platten innerhalb der Spezifikationen betrieben werden.
NobodysFool schrieb:
läuft einen Restore und hat somit wie erwähnt nur zwei Datensätze zum Abgleich. Stimmen die nicht überein lässt sich nicht sagen was stimmt.
Ein echtes RAID vergleich gewöhnlich die Parity nicht, nur diese Geschichten wie die RAID Z bei ZFS machen das laufend weil die für Hysteriker sind. Normale RAIDs wie auch das Linux md SW_RAID lesen die Parity nur wenn sie diese wirklich brauchen, es also einen Lesefehler gab, ein Rebuild oder Scrubbing erfolgt. Das ist performanter und da HDDs eben gewöhnlich die falsche Werte liefern außer bei Fehlern auf den internen Datenpfaden, sondern Lesefehler statt korrupter Daten zurückliefern, ist es auch nicht nötig.
Richtige SAS/FC HW RAID Controller arbeiten noch anderes, die formatieren die Platten auf 520 oder 528 Byte pro Sektor und schreiben in diese zusätzlichen 8 oder 16 Byte ihre eigene Prüfsumme für den Sektor und können so jeden Lesefehler sofort selbst erkennen und entsprechend reagieren, die korrekten Daten also aus denen der anderen Platten rekonstruieren und den Sektor wieder überschreiben, womit die Zeit die SATA HDDs dann versuchen die Daten doch noch korrekt zu lesen und damit die TLER Problematik dann entfällt.
Koto schrieb:
Es würde ja reichen, wenn die Kapazitäten steigen, aber die Kosten nicht so stark. Dann wird es so ja auch Billiger. Also Cent pro Gig.
Das hat bei den HDDs bisher immer so funktioniert und ist auch das Ziel von neuen Technologien die HAMR.
Koto schrieb:
Die frage ist, bei welchen Größen sind wir dann? Wenn dieses Limit dann bei willkürliche Zahl. 900 TB liegen würde.
Die Zahl der Layer hat nichts mit TB zu tun und derzeit fertigt Samsung 3D NANDs mit 48 Layern in Großserien, die Fertigung der 3D NANDs mit 64 Layer sollte noch in diesem Quartal anlaufen oder ist es vielleicht sogar schon. Das ist auch kein Luxusproblem, sondern ganz konkret ein Problem wenn es darum geht wie billig die NANDs überhaupt letztendlich werden können, also auch ob die jemals pro GB günstiger als HDDs werden oder nicht.
Koto schrieb:
Die Datenmenge steigt keine frage aber die Steigerungen stagnieren auch irgendwann mal. Bzw die kurven flachen ab.
Derzeit ist die Kurve der Steigerung des weltweiten Datenvolumens noch keineswegs am Abflachen, sondern im Gegenteil ansteigend und gar nicht so knapp. Abflachend ist die Kurve der Steigerung der GB pro $, die Kosten zu senken wird immer schwerer und irgendwann an ein Limit stoßen.
Koto schrieb:
Bei SMR und Helium frage ich mich vor allem wie es mit der Zuverlässigkeit steht.
SMR sollte in der Hinsicht kein Problem sein, außer das eben die Daten auf den Platten noch dichter zusammen stehen, aber wenn die Datendichten weiter steigen, passiert dies ja sowieso. Wie gut die Dichtigkeit der mit Helium gefüllten HDDs ist, wird man sehen müssen, aber es düfte auch von der Behandlung der Platten abhängen, die werden wohl noch empfindlicher z.B. auf Kratzer sein.
Koto schrieb:
Wenn man viel Geld ausgibt. Und die Platten halten dann auch nur 2-5 Jahre wie aktuelle für ein Bruchteil des Preises.
Platten für einen Bruchteil sind aber dann meist einfache Desktopplatten und die sind nur für einfach Desktopanwendungen, worunter die HDD Hersteller maximal 2400 Betriebsstunden (Power On Hours) pro Jahr, maximal 55TB Workload (gelesenes plusgeschriebenes Datenvolumen) pro Jahr und nur eine HDD im Gehäuse verstehen Wenn die dann auch im Dauerbetrieb z.B. in einem NAS laufen, dann haben die nach 2 Jahren mehr Stunden runter als in über 7 Jahren bei der vorgesehenen Nutzung und fallen dann eben öfter aus.
Koto schrieb:
Bei SSD erwarte ich ja auch eine höhere Ausfallsicherheit. Bei HDDs ist es ja nicht ob sondern wann es Sie erwischt.
HDDs sind auf ein Service Life (Nutzungsdauer) von 5 Jahren ausgelegt, sie sind unter optimalen Umständen maximal ein Jahr lagerbar und somit ab 6 Jahre nach dem Produktionsdatum als Schrott zu betrachten und laufen wenn sie noch laufen praktisch auf Abruf. Vor 20 oder 30 Jahren war das noch anderes, da waren aber nicht die Kapazitäten sondern auch die Technik noch ganz anderes, nur seht man ihnen die Unterschiede eben nicht an. Das z.B. die Köpfe von HDDs schon lange im Teilkontaktbereich betrieben werden, erzählen die HDD Hersteller ja auch gar nicht öffentlich.