wern001 schrieb:
Das Problem an den kleinkram ist das der Streamer schneller ist, als dass das HDD Raid die Daten liefern kann. Ein HDD Raid 5 liefert bei großen Daten ohne Probleme 4-500 MB/sek allerdings bei Kleinkram bricht es auf 30-50 MB/sek ein und ein LTO der neueren Genneratron wollen durchgängig min. 150 und mehr MB/sek. Wenn das nicht gehalten werden kann schreibt der Streamer leerdaten oder er schaltet eine Stufe runter.
Leider hab ich in keiner Backupsoftware eine Funktion gefunden wo man einstellen kann wieviel RAM das Ding als Cache nutzten soll.
Ich dachte dafür hat man tar erfunden. ^^
Ich hätte sowieso gedacht dass man da zur Sicherheit bei gemischten oder kleinen Dateien einen Zwischenspeicher nutzt.
MountWalker schrieb:
Oh doch, sehr wohl und dass das passiert war seiner Zeit überhaupt der Grund, warum anno dazumal der erste große Ars Technica Artikel zu ZFS so einschlug.
MountWalker schrieb:
as in besagtem Artikel damals unter den Tisch fiel, war, dass HDD-Sektoren ECC haben - aber wenn zwei Bits im Sektor flippen, nutzt das halt nichts mehr. Niemand weiß genau, wie schnell das geht, dass die Bits verbleichen und es flippen auch meist nur vereinzelte und nie plötzlich die ganze HDD in einem Monat. Vielleicht liegt letzteres daran, dass die Leute, die annehmen, dass die HDD-Firmware Sektoren wirklich neuschreibt, wenn sie ein Bit ECC wieder herstellen musst, mit ihrer Vermutung doch gar nicht so bösefalsch liegen und chkdsk /r gar nicht soo dumm ist, wie es geredet wird.
Ich stelle mich vielleicht auch gerade mit der Suche blöd an, aber ich finde nichts passendes dazu.
Bitflips gibts schon, aber afaik eher durch Strahlung oder übersprechen bei Sektoren. Dass die Signale zu schwach werden und erneuert werden müssen bei in für hdds relvanten Zeiträumen und Lagerbedingungen wäre mir aber neu.
Nicht zuletzt weil dann ja entweder Datenverlust bei uraltdaten oder hdds die seit jahren offline waren sichtbar sein sollte und bei einer automatischen korrektur diese zu hören sein sollte. Das einzige was ich von HDDs aber höre sind nachvollziehbare Zugriffe und das stetige kopf parken, entparken wenn sie geweckt werden. Wenn da etwas losrattert ohne dass ich die Quelle zuordnen kann neige ich dazu nachzugucken was auf meinem PC los ist. Daher bin ich mir relativ sicher dass ich eine automatische auffrischung der Sektoren im laufe der Jahre mal mitbekommen hätte. Ich wäre panisch im Dreieck gesprungen und hätte ein rootkit vermutet wenn die HDD ackert und das OS nichts davon weiß.
Außer natürlich die machen das alles ganz ganz leise, was sie bei normalen Zugriffen nicht schaffen. Die alten WD Red ausgenommen, da höre ich nix.
Bei meinem zfs pool hatte ich auch erwartet irgendwann wenigstens mal einen Fehler beim scrubbing zu sehen, doch seit 7 Jahren mit teils ebenso alten Daten, die praktisch read only sind, nix.
Ich hab hier auch noch ein paar alte Platten rumliegen die erstaunlicherweise nach 6-10 Jahren Schrank/Umzugskiste noch immer lesbar zu sein schienen. Genauere Untersuchung scheiterte an Motivation und defektem Kabel oder Board an einem ähnlich alten PC. Wäre unter dem Aspekt ja mal einen Blick wert. Ich hab vom aufräumen letztens noch 2 alte externe hier stehen, die eine noch IDE aber ohne Netzteil, die vermutlich noch länger rumlagen. Da wollte ich ohnehin mal gucken ob und was noch drauf ist.
Meine Erwartung wäre allerdings dass die Sicherheitsspanne bei der magnetisierung im normalfall groß genug ist dass man nach 10 Jahren keine größeren Verluste zu erwarten hat, selbst wenn keinerlei auffrischung erfolgte. Die Mechanik macht mir da viel mehr Sorgen.
Konkrete Daten zum Verlust an Feldstärke bei HDDs und wie viel zum Lesen noch nötig ist wären da praktisch, aber vermutlich auch wieder zwischen Baureihen unterschiedlich.
Dass ein Sektor mit reparierbarem defekt gleich neu geschrieben wird fände ich logisch. Aber nur wenn man denn auch Sicherheit hätte. Doch die hdd kann nicht wissen wo der Fehler aufgetreten ist (Platter, Kopf, bitflip in der prüfsummenberechnung, etc) und wenn man schon bei bitflips ist könnte auch das vermeintlich korrigierte ergebnis falsch sein und beim rückschreiben korrekte daten falsch überschrieben werden. Da die firmware das transparent für den Rest des Systems macht wäre das auch ein risiko für schleichende datenkorruption. Außerdem kostet es Zeit und ggf. ist das lesen ohnehin nicht so stabil und korrigierbare fehler sind normal, erst bei erkannten aber nicht korrigierbaren fehlern wird mehrfach gelesen und schließlich dem OS ein Fehler gemeldet (und der sektor ersetzt). Direkt neu schreiben würde dann spürbar im normalen Betrieb auf die Geschwindigkeit schlagen und das noch potentiell ungleichmäßig. Daher denke ich mal ist das nicht üblich. Fehlerkorrektur von Daten auf der Platte ist Sache der höheren Ebenen, die kann das besser verwalten und hat ggf. Zugriff auf redundanz die erheblich mehr sicherheit gibt als es die einzelne hdd könnte.
P.S.:
Eine Super User Frage dazu