Bitrot: Hohe Datenintegrität+Verschlüsselung unter Windows? (ZFS, BTRFS, RAID, Scrubbing, Veracrypt, NAS, NFS)

Maitry schrieb:
Ich sehe das Problem ist komplex da man nicht weis wo Bitfehler passieren. Datenkabel, RAM, etc...

Ja, es ist in der Tat komplex, wobei das Datenkabel nicht dazu führen sollte, da Laufwerke den Transfer eigentlich über CRC absichern und bei nicht erfolgreichem Transfer erneut probiert wird. Die Laufwerke sollten dann idR bei den Smart-Werten beim Attribut "UltraDMA CRC" einen hohen Rohrwert aufweisen, wenn es Probleme mit dem Kabel gibt. Ist das nicht der Fall, ist das eher nicht die Ursache. Hier allerdings der Hinweis, da es sich um USB-Platten handelt: Ich weiß nicht, wie es zwischen USB Controller und SATA aussieht. Hier kann man keinen Log einsehen vom Controller, weshalb es theoretisch möglich wäre, schätze ich.

Hier mein Ratschlag: Verwende eine Software (z.B. ein Backup-Programm), die den Transfer überprüft, also einen Abgleich zwischen Ziel und Quelle vornimmt.

- Zum RAM:
Hier sollte auf jeden Fall (z.B. mit Memtest) der RAM auf Defekt geprüft werden. Nichts ist so übel wie ein defekter RAM, der nach und nach lange Zeit unbemerkt Daten korrumpiert.
Wenn man bei RAM von Bitflips spricht, dann meint man damit Bits, die im RAM oder zwischen RAM und CPU kippen. ECC sichert sowohl im RAM als auch auf dem Weg von und zu diesem gegen 1-Bit-Fehler ab und kann Multi-Bit-Fehler bis zu einer gewissen Anzahl erkennen (on-die-ECC wie bei Standard DDR5 nur im RAM selbst).
Das Problem hier ist generell, dass Fehler, die nicht korrigiert werden konnten, eben als fehlerhafte Daten auf dem Datenträger landen und dann helfen da die Prüfmechanismen für den Datenträger logischerweise auch nicht mehr. Allerdings sind 1-Bit-Fehler schon sehr selten und Multi-Bit-Fehler extrem selten. Ein 1-Bit-Fehler wird dir z.B. normalerweise keine Videodatei oder MP3 verhunzen; bei einer Bilddatei ist es schon deutlich wahrscheinlicher, aber immer noch kein riesiges Risiko (es ist eben deutlich wahrscheinlicher, dass einfach ein Pixel nicht mehr stimmt, als dass an der ganzen Struktur was beschädigt wird). Trotzdem will man sowas natürlich vermeiden.



Maitry schrieb:
Die Speicherfähigkeit/Magnetisierung meiner HDDs prüfe ich regelmäßig mit CHKDSK/R
Und CHKDSK/F was das Dateisystem NTFS auf Fehler überprüft.

Das ist doch eigentlich schon mal ein guter Ansatz.

Maitry schrieb:
Was heißt in gewissem Maß ?
Wenn eine HDD Daten wiederherstellen kann bräuchte ich mir keine Sorgen zu machen über externe Einflüsse auf bereits geschriebene Daten ! Dan wäre dieses Thema ja bereits auf unterster Ebene gelöst.

Du kannst gerne nachschauen, bis zu wie vielen fehlerhaften Bits der ECC korrigieren kann (ich weiß es gerade nicht aus dem Kopf :D ). Er hat eben wie jeder ECC bzw. jeder Fehlerkorrekturmechanismus seine Grenzen. Im schlimmsten Fall ist es sogar möglich, dass so viele Bits kippen, dass es nicht mal mehr vom Prüfverfahren erkannt wird (das ist z.B. bei CRC32 natürlich wahrscheinlicher als bei SHA256 - sollte einleuchten).

Je länger ein Datenträger nicht geprüft wird, desto wahrscheinlicher ist es, dass sich Bitfehler mit der Zeit kumulieren und dann eben zu Fehlerbildern führen, die nicht mehr korrigiert und im schlimmsten Fall nicht mal mehr erkannt werden können (die Prüfsumme kann natürlich ebenfalls korrumpiert werden und damit auch zu einem zu unrecht als fehlerhaft erkannten Block führen).
Ergänzung ()

Evil E-Lex schrieb:
Wie ich mir dachte, externe Platten. Ich wette, es sind die Kabel.

Müsste dann wahrscheinlich ein Problem mit dem Controller des Gehäuses sein, denn ansonsten wird ja über SATA eigentlich geprüft (UltraDMA CRC). Ich würde auch eher davon ausgehen, dass es bei ihm nicht an Bitrot liegt, denn wenn er die Daten regelmäßig mit chkdsk /r prüft, da müsste er schon sehr Pech haben, dass mehrere Dateien korrumpiert sind, sofern das Laufwerk keinen Defekt aufweist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Evil E-Lex
Evil E-Lex schrieb:
Nur um mal die Gegenposition darzustellen: Deconstructing SpinRite
Das Programm stammt aus einer Zeit als es noch MFM/RLL-Platten mit direkt ansteuerbaren Controller gab (80er bis frühe 90er). Damals mag es seinen Sinn gehabt haben, heute nicht mehr. Ich bekomme bei dem Programm jedenfalls heftige SoftRAM 95 Vibes.
Danke für den Link - werde ich demnächst mal durchlesen.
Selbst Dave relativiert gerade bei SSDs den Nutzen solcher Tools.

Den Vergleich mit SoftRAM95 ist aber deutlich übertrieben.
Streng genommen spricht bei lange lagernden HDDs nichts dagegen nach ein paar Jahren mal den Magnetismus aufzufrischen. Z. B. mit DiskFresh.

Ich persönlich halte allerdings regelmäßige SMART-S2-Tests für praktikabler.
Zumal ich während des Tests die HDD weiter nutzen kann.
"Richtig" defekte Sektoren sind m. E. ein häufigeres auftretendes Problem denn schwächelnder Magnetismus.
 
mchawk777 schrieb:
Streng genommen spricht bei lange lagernden HDDs nichts dagegen nach ein paar Jahren mal den Magnetismus aufzufrischen. Z. B. mit DiskFresh.
Strenggenommen sind HDDs nicht dazu gedacht, Daten lange zu lagern. Wenn man Daten archivieren möchte, nimmt man Bänder.
Ergänzung ()

mchawk777 schrieb:
Den Vergleich mit SoftRAM95 ist aber deutlich übertrieben.
Findest du? Gibson macht auf seiner Website derartig abwegige Aussagen, dass man ihn schlicht nicht ernst nehmen kann. Allein was er zu SSDs schreibt ist derart grotesker Unsinn, dass es schon an Realsatire grenzt.

Mich irritiert viel mehr, dass Plummer auf diesen Unsinn reinfällt und ihn weiterverbreitet.
 
Zuletzt bearbeitet:
Um meine wichtigen Dateien (eigentlich nur Dokumente und ein paar Bilder) zu schützen, nutze ich neben der 3-2-1-Backup-Strategie noch MultiPar (nur für Windows) um Bitrot und mehr zu erkennen und korrigieren. Ist aber auch umständlich wenn man kein Script zum automatisieren oder dergleichen schreibt.

https://en.wikipedia.org/wiki/Parchive

2024-11-26_005334.png

2024-11-26_005520.png
 
Zurück
Oben