ich_nicht schrieb:
Hat das Teil auch ECC RAM?
Eben, das ist die entscheidende Frage und leide habe ich weder ein Bild der RAMs gesehen (oder habe ich es übersehen?) noch steht da wie viele RAM Chips verlötet sind, denn bei einer ungreaden Anzahl ist die Chance sehr gut, dass es ECC RAM ist, bei einer gerade dagegen praktisch NULL. Ohne ECC ist das ganze nicht nur sinnlos, weil das Haupteinfallstor von Bit-Rot nicht geschlossen wurden, es ist sogar brandgefährlich weil RAM auch erst später mit der Zeit Fehler bekommen kann und dann korrigieren solche Filesysteme mit Prüfsummen die Dateien kaputt, da frisst sich der Bit-Rot wie in Krebs durch die Dateien und das Filesystem und wenn dann mal die Metadaten betroffen ist, ist alles weg. Da nutzen auch ältere Backups u.U. nichts mehr, weil da auch schon korrupte Dateien drauf sind.
ich_nicht schrieb:
Ohne hat das ganze auch kein Sinn.
Eben und es ist sogar gefährlicher Blödsinn.
ich_nicht schrieb:
Oder in letzter Konsequenz sollte es bei einem FS was Bit-rott und Fehler vermeidet, erst keine im RAM entstehen.
Genau das ist das Fundament für die Sicherheit vor Silent-Data-Corruption, ohne braucht man sich darüber keine Gedanken zu machen.
ich_nicht schrieb:
Bei meinem Bruder hat ein RAM-Error wohl das ganze FS gecrasht.
Das kann passieren, aber erst danach werden die meisten klug. Wer nie Ärger mit RAM Fehlern hatte oder die Ursache seiner Probleme eben nicht in den RAM Fehlern ausgemacht hat, der glaubt meist nicht wie wichtig es sich ECC RAM zu verwenden und natürlich ein passendes System welches die ECC Funktionalität auch unterstützt, sonst bringt es ja nichts nur einfach ECC RAM Riegel einzustecken.
Cumonu schrieb:
Nicht
die Diskussion
schon wieder.
Doch, leider müssen wir diese Diskussion wieder führen, weil der Artikel auf diesen zentralen Punkt nicht eingeht. Übrigens hat selbst
das Synology DS415+ kein ECC RAM, obwohl dessen Atom C2538 ex unterstützen würden. Was die Industrie den Kunden da bietet lässt mir die Haare zu Berge stehen und dann auch Features und ein Versprechen für mehr Sicherheit vor Bit-Rot zu machen ist die Höhe, der Gipfel der Verarschung.
xamoel schrieb:
V.a. dass nochmal explizit herausgestellt wird, dass Synology aktuell KEINE BITROT KORREKTUR bietet!
Was ohne ECC RAM ja auch vernünftig ist.
xamoel schrieb:
Das macht hoffentlich Druck auf Syno, dass zu implementieren.
Man sollte eher Druck machen, dass die Anbieter durchweg ECC RAM und passende Systeme verwenden, zumindest bei Produkten die explizit für mehr Schutz der Daten ausgelegt sind, dann hätte man endliche sinnvolle Produkte in dem Segment am Markt.
Bogeyman schrieb:
Ohne ECC RAM, natürlich ein passendes System und auch ein OS welche die Anzahl der korrigierten Fehler auslesen kann, wird man niemals erfahren, wann ein RAM Fehler auftritt und kann es immer erst an dessen Auswirkungen sehen. Das ist ja die Krux an der Sache, daher glauben so viele User nicht, dass RAM Fehler überhaupt von Bedeutung ist, es steht hielt nie dabei, dass es einen RAM Fehler war.
Bogeyman schrieb:
Aber dass das FileSystem genau aus dem Grund zerschossen wurde den Beweis bleibt dann doch jeder schuldig.
Das ist auch oben genannten Gründen eben zwangsläufig der Fall.
menace_one schrieb:
Wie funktioniert denn der BitRot Schutz bei Netgear? Hardware oder Software? Könnte man das auch auf herkömmlichen Linux Systemen einrichten?
Das ist über die Funktionen von btfs realisiert, aber ex fehlt halt offenbar der HW-Unterbau in Form von ECC RAM, womit das ganze Schrott ist und brandgefährlich, weil es die User in eine falsche Sicherheit wiegt. Mit SW alleine kann man eben unmöglich einen Schutz vor Datenkorruption erzielen, die kann nur bestimmte Fehler wie Fehler auf den internen Datenpfaden von Platten, da haben Enterprise Platten selbst einen Schutz, Consumerplatten i.d.R. nicht und viele nicht einmal eine Erkennung (Ende-zu-Ende Fehler in den S.M.A.R.T. Werten). Geht aber im RAM was schief und werden dort Daten verändert, hilft das alles nicht und gefährdet die Daten sogar zusätzlich.
Cordesh schrieb:
Wie hoch ist denn die statistische Wahrscheinlichkeit für den Fall, dass ein Bit verändert wird?
RAM Fehler sind nicht so selten wie viele User glauben, google hat dazu mal eine Analyse gemacht, die nutzen aber ECC RAM und was dort als correctable errors auftaucht, bleibt ohne ECC RAM natürlich unentdeckt und führt ggf. zu einem Problem:
Also im Alter von 10 bis 18 Monaten traten oft erst zunehmend Fehler auf, daher ist es eben auch durchaus sinnvoll den RAM Test nicht nur am Anfang einmal zu machen, sondern auch mal zu wiederholen, spätestens wenn sich denn mal Probleme zeigen. Wobei der Zeitraum sich auf Dauerbetrieb bezieht, also auf 7300 bis 13140 Betriebsstunden, wobei bei Heimanwendern auch mal 3 bis 6 Jahre dauert so viele Betriebsstunden zu erreichen.
Auch von Microsoft gibt es eine Analyse zu Hardwarefehlern:
Letzteres dürfte wohl vor allem daher kommen, dass Windows wie jedes moderne OS sonst unbelegtes RAM als Diskcache nutzt und daher weniger Zugriffe auf die Platten erfolgen. Außerdem weiß man nicht genau, ob die Angabe absolut oder relativ ist, wenn mehr RAM Fehler auftreten, fällt der Anteil anderer Fehler ja auch ab, selbst wenn es absolut nicht weniger von ihnen gibt.
Cordesh schrieb:
Ich fotografiere viel, und habe sehr viele digitale Bilder die älter als 10 Jahre sind.
Die sind mittlerweile sehr oft kopiert worden.
Bei keinem ist mir je ein Fehler aufgefallen.
Gerade wenn die Daten im Rohformat gespeichert sind, fällt es auch kaum auf wenn man ein Bit anders ist. Das können nur Prüfummen oder direkt Vergleiche zeigen. Bei Archiven wie zip, rar oder 7z erkennt man Botfehler hingegen viel einfacher, prüfe einfach mal Deine alten Archive ob da eines plötzlich Fehler hat.
Bruddelsupp schrieb:
Ich muss zugegeben, dass ich das Thema Bitrot- Schutz überhaupt nicht kannte.
Das dürfte vielen so gehen und noch weniger kennen die wirklichen Ursachen. Von Fehlern auf internen Datenpfaden oder aufgrund von Bugs der FW einmal abgesehen, liefern HDDs oder SSDs nämlich praktisch überhaupt nie korrupte Daten zurück! Die haben nämlich hinter jedem Sektor bzw. jeder NAND Page eine ECC und auch die Übertragung wird mit einer CRC pro FIS die maximal 8192Byte Nutzdaten überträgt, abgesichert.
Bruddelsupp schrieb:
Netgear hat ein erstaunlich reifes Produkt hergestellt, im Vergleich zu dessen Software muss sich Zyxel schon mal fragen wo die eigenen Schwächen liegen.
Wenn es kein ECC RAM hat, sehe ich genau das grundlegend anders, denn dann ist das eine gefährliche Verarschung weil eine trügerische Sicherheit vorgegaukelt wird und mit den Snapshots die auch noch vor versehentlichem Löschen schützen, wird dann auch noch die Motivation zum Anlegen von Backups gesenkt.
Madnex schrieb:
daher sind auch bei SATA die Übertragungen CRC-gesichert.
Genau und zwar mit einer CRC32 pro FIS mit maximal 8192Byte Nutzdaten. Bei DDR4 hat man übrigens sogar für Nicht-ECC RAM ebenfalls eine Sicherheit bei der Übertragung vorgesehen, was zumindest Fehler bei der Übertragung vermeiden soll. DDR3 war ja nur bis 1866 von der JEDEC spezifiziert und man macht im Consumersegment nur das nötigste, schützt also nur vor den häufig auftretrenden Problemen um die Kosten gering zu halten und offenbar sind die hohen RAM Übertragungsraten da schon so fehleranfällig, dass man dort auch etwas tun musste.
RAM Fehler können eben hard-errors sein, also wirklich defekte einer Speicherzelle die aber oft nur bei bestimmten Bitmustern auftreten, weshalb die RAMs dann einfach, schnelle Speichertests wie sie im Herstellerwerk üblich sind auch problemlos überstehen aber bei aufwendigen Tests wie Memtest86(+) dann doch Fehler zeigen, Übertragungsfehler oder soft-errors, also spontan gekippte Bits. Schaut man sich Micosofts Analyse an nach der in 80% der Fälle bei der ein Fehler auf eine Adresse zum Crash geführt hat es wieder wegen eines Fehlers auf der Adresse passiert ist, so gibt das mal eine Idee von der Größenordnung der jeweiligen Fehlertypen, denn bei wiederholten Fehlern auf der gleichen Adressen kann man recht sicher von einem hard-error ausgehen.
Aber nicht jeder RAM Fehler führt zu einem BSOD, schon gar nicht heute wo jeder kleinere PC 4, 8 oder 16GB RAM hat und Windows davon nur einen winzigen Teil mit wirklich kritischem Kernel- und Programmcode belegt.