Bitrot: Hohe Datenintegrität+Verschlüsselung unter Windows? (ZFS, BTRFS, RAID, Scrubbing, Veracrypt, NAS, NFS)

Maitry

Ensign
Registriert
Dez. 2016
Beiträge
189
Hallo!
Ich als jahrelanger Windows-Nutzer habe eine 12TB HDD (+Backups sind Standard) mit NTFS vollverschlüsselt.
Inhalt: Sehr viele Fotos, MP3s, Dokumente, Filme.
Ich sortiere ständig Dateien und Ordner, ergänze neue Dateien, verändere Dateinamen, etc.....
Ich schreibe zu wichtigen Daten SHA256 Summen. Wenn ich hier etwas ändere rufe ich erst die Summe auf und schreibe sie im Anschluss neu. Ist aber aufwändig wenn man ständig herumsortiert.
Mir sind über den Aufruf der Summen schon korrumpierte Dateien aufgefallen! Bei jpg sieht man manchmal das halbe Bild nicht mehr. Kommt selten vor aber kommt vor.

Ich vertraue Veracrypt (weil sehr durchdacht) mehr als BitLocker. Notfalls würde ich LUKS nehmen wenn ich auf Linux umsteigen sollte.

Ich suche nach einer Lösung Bitrot auf dem Datenträger zu erkennen (ECC RAM, defekte Kabel usw... soll hier nicht das Thema sein).

Nach diversen Recherchen:
1) ZFS unter Windows?
ZFS bewährt, stabil, getestet. Aber openZFS soll noch immer fehlerhaft sein + Veracrypt kann kein ZFS verschlüsseln.
Native Verschlüsselung lässt Metadaten unverschlüsselt das wäre keine Lösung für mich.

2) BTRFS unter Windows (WinBTRFS).
Keine Verschlüsselung. Man sagt: Bestimmte Features noch in der Testphase (funktionieren nicht/fehlerhaft) aber stabil für den Alltagsgebrauch. RAID läuft instabil.

3) REFS: Vor Jahren mal länger getestet mit 4TB Daten. Ich bekam nicht heraus wann und wie Scrubbs gemacht werden und wo entdeckte Fehler protokolliert werden. Kein Support von MS nach unzähligen Anfragen. REFS: ein Mysterium. Aufgegeben.
Außerdem liest man viel zu wenig darüber. Wer nutzt das schon und testet es?......

4) Auf Linux + ZFS + LUKS wechseln. Win10 virtualisieren um Dateimanager mit dem ich gern und viel arbeite und sortiere nutzen zu können für die Übergangsphase oder länger.
Kann Win10 dann auf das ZFS zugreifen?
Der Wechsel ist mir nach 3 Versuchen (Ubuntu/Mint) noch nicht gelungen weil zu anstrengend, energieraubend. Man muss ja jede Kleinigkeit recherchieren, die man bei Win im Schlaf kann.

5) Gelesen habe ich: Das beste wäre, eine NFS-Server von ZFS unterstützt + Samba-Freigaben exportieren die dann in Windows verwendet werden können.
Aber: Wie verschlüssel ich den ZFS Pool vor allem wenn ich die native Verschlüsselung nicht nehmen will?
Und ich muss mich hier auch mit nem anderen OS auseinandersetzen.

6) Hardware Raid kann meines Wissens kein Bitrot erkennen.
hier https://www.reddit.com/r/synology/c...eople_dealing_with_bitrot_if_you_arent/?tl=de z.B:
"Moderne RAID-Controller FÜHREN KEINE DATEN-PRÜFSUMMEN DURCH!!!! was für mich einfach verrückt ist. Sie sollten es unbedingt tun und haben es früher getan, und es wurde entfernt, weil die Leute immer dem Geschwindigkeitsdrachen hinterherjagten, anstatt sich darum zu kümmern, dass die Daten auf dem Array tatsächlich korrekt waren."
Hier steht auch das es Enterprise-RAID-Karten gibt die Prüfsummen auf Sektorebene machen.
Woanders https://www.reddit.com/r/homelab/comments/17gs81z/bit_rot_raids_and_data_integrity/?tl=de&rdt=41695 stand
"Deine RAID-Karte kann in den IT-Modus umgewandelt werden" "Der IT-Modus bedeutet, dass das Betriebssystem/Dateisystem die Festplatten direkt mit allen Daten sieht, was ihm hilft, Korruption zu erkennen"

Weiteres: Proxmox, TrueNAS?

Wer hat Lösungen für mich ??? Danke !!!!!!!
 
Zuletzt bearbeitet:
Warum raid?
Warum Hardware raid?
Warum zfs / welche Anforderungen hast du an dein Dateisystem?
welcher RAM?
Ergänzung ()

Maitry schrieb:
) BTRFS unter Windows (WinBTRFS).
Keine Verschlüsselung. Man sagt: Bestimmte Features noch in der Testphase (funktionieren nicht/fehlerhaft) aber stabil für den Alltagsgebrauch. RAID läuft instabil.

3) REFS: Vor Jahren mal länger getestet mit 4TB Außerdem liest man viel zu wenig darüber. Wer nutzt das schon und testet es?......
ich nicht, aber, Millionen Unternehmen nutzen Windows Server.
wenn es die Anforderungen der jeweiligen Umgebungen unterstützt ist das super.
Maitry schrieb:
4) Auf Linux + ZFS + LUKS wechsaeln
wozu Luks wenn zu zfs hast?
Maitry schrieb:
. Kann Win10 dann auf das ZFS zugreifen?
mindestens übers Netzwerk
Maitry schrieb:
Der Wechsel ist mir nach 3 versuchen (Ubuntu/Mint) noch nicht gelungen weil zu anstrengend, energieraubend.
Ich finde Ubuntu und mint auch sehr nervig. Es gibt Linux distros die weniger Schmerzen mitbringen..
Maitry schrieb:
5) Gelesen habe ich: Das beste wäre, eine NFS-Server von ZFS unterstützt + Samba-Freigaben exportieren die dann in Windows verwendet werden können.
ist auf jeden Fall ein Weg
Maitry schrieb:
Aber: Wie verschlüssel ich den ZFS Pool vor allem wen nich die native Verschlüsselung nicht nehmen will?
was spricht dagegen?

Maitry schrieb:
Ich vertraue Veracrypt (weil sehr durchdacht)
das ist keine Metrik nach der man vertrauen aufbauen sollte..


Maitry schrieb:
Weiteres: Proxmox, TrueNAS?
wozu?

du stellst einige annahmen und Best practice Theorien auf, die schlecht auf die meisten realen Anforderungen passen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Evil E-Lex, BFF, Aduasen und eine weitere Person
RAID hat keine Prüfsumme man kann höchstens, prüfen ob die gespeicherte Parität, zu den Daten passt

der IT modus meint was anderes, da sieht das OS eben die Platten direkt (nicht das virtuell RAID Laufwerk) und somit ist bei Lesefehler dann auch klar welche Platte schuld hat (und der fehler wird nicht vom RAID intern behoben und damit vor dem OS versteckt)

Festplatten liefern eig zuverlässig Lesefehler statt falsche Daten aus

die allermeisten Bitrot Probleme. Sind Softwareprobleme (daten falsch geschrieben) oder defekt RAM Geschichten. und dann gibt es so viele Bildergalerie programme die überhaupt keine Skrupel haben an den Bildern direkt rumzufuschen neue Exif tags reinschreiben usw. Ein fehler oder absturz dabei und du hast defektes Bild
 
  • Gefällt mir
Reaktionen: Maitry, Evil E-Lex und madmax2010
Maitry schrieb:
Der Wechsel ist mir nach 3 Versuchen (Ubuntu/Mint) noch nicht gelungen weil zu anstrengend, energieraubend. Man muss ja jede Kleinigkeit recherchieren, die man bei Win im Schlaf kann.
Bei Windows musstest du das auch damals alles erst mal recherchieren.

Maitry schrieb:
Wie verschlüssel ich den ZFS Pool vor allem wenn ich die native Verschlüsselung nicht nehmen will?
Erstelle einen verschlüsselten Container, den du im Pool speicherst. ZFS kümmert sich dann um den Bitrot, das Ver-/Entschlüsselungsprogramm um die zu schützenden Inhalte.
Erwarte aber keine mega hohe Leistung davon.

Maitry schrieb:
Und ich muss mich hier auch mit nem anderen OS auseinandersetzen.
Das kommt drauf an, wie komplex man es machen will. Mit Linux kannst du im Prinzip eine beliebig hohe Komplexität realisieren, das ist aber nicht unbedingt nötigt.

Wie wäre es, einfach Daten 2x komplett abzuspeichern und eine Prüfsumme extra? in Intervallen kannst du dann aus den 2x Daten 2x Prüfsummen generieren und zusammen mit der dritten untereinander vergleichen und weißt dann, ob und wo ein Fehler entstanden ist. Und dann kannst du den Fehler automatisch beheben lassen. Das solltest du auch in Windows hinbekommen, z. B. per selbstgeschriebenen Skript oder Programm.

Die Verschlüsselung ist unabhängig davon und kannst du realisieren, wie du willst.
 
  • Gefällt mir
Reaktionen: Maitry
TrueNAS mit ZFS Raid + Verschlüsselung benutzen. Warum willst Du die nicht?
 
  • Gefällt mir
Reaktionen: madmax2010
ReFS kann doch Checksummen und wird native unter Windows unterstützt. Wieso so ein Drang nach Linux?

Ansonsten pack dir TrueNAS in eine VM oder NUC und teile die Platten per Samba. Platten weil du so eine Chance hast wieder an die nicht defekte Datei zu kommen. Alternativ einfach die Copies per zpool set höher stellen.
 
  • Gefällt mir
Reaktionen: madmax2010 und hans_meiser
Wo die Daten ja so wichtig sind, es wird doch Jedec RAM genutzt oder? Denn wenn das so wichtig sit und man um bitrod befürchtet, dann ist XMP/EXPO/OC/UC ausgeschlossen. Dazu wurde soweit nichts erwähnt, aber das ist ja irgendwo die Systemgrundlage. Es gibt doch anscheinend sehr viele Systeme, die nicht gerade abschmieren, aber immer wiede Fehler Produzieren. (Uns selbst Tests so bestehen). So jedenfalls der Eindruck hier im Forum mit auftauchenden Problemfällen.

Und auch die Intel CPU Generation 13000 und 14000 sind ein Thema, degradation durch normale Benutztung (zu scharfe Einstellungen und Bugs seitens Intel) und dadurch dann defekte Falsch rechnende CPU, die auch gleichzeitig zu RAM Problemen führen. Dabei fängt das ganze schleichend an.

Und sonst würde ich glaube wenn das so wichtig ist lokal am Rechner für alle wichtigen Daten dann automatisiert jeweils prüfsummen haben /2 archive auf verschiedenen Platten und per Sync (was checksummen basiert syncen sollte/testen) ab und an den abgleich checken.
 
  • Gefällt mir
Reaktionen: madmax2010
Maitry, ich hätte da etwas - nicht für heute und nicht für Morgen - aber vielleicht Übermorgen!

BCACHEFS.

Ich glaube, es hat alles, was Du Dir wünschst!
Der Nachteil ist, dass es noch nicht so ausgereift ist wie ntfs, ext4 oder xfs.

Leider liegt gerade der Autor dieses Dateisystem im Streit mit Linus Torvalds. Das Dateisystem ist aber z.B. in der letzten LinuxMint-Version und anderen vorhanden.
 
Ja nun, das ist noch in entschieden starker Entwicklung offensichtlich, denn die Beschwerden von Linus Torvalds seits gingen doch darum, das andauernd wieder auch Ungetestete(viel zu wenig getestete) patches mit großem Umfang eingereicht werden/wurden die dann auch zu Bugs führten.

Dem Dateisystem würde ich meine Daten nicht anvertrauen entgegen jeder Aussage des Entwiklers/Teams. Bis das denn mal wirklich fertig ist in 10? Jahren oder noch später. Ich meine das Dateisystem ist auch schon lange in Entwicklung.

Da hätte man erstmal andere Probleme als Bitrot damit (einem unter den Füßen wegbrechendes Dateisystem wegen Bugs/inkompatiblen updates.
 
@recu
Übermorgen trifft es nicht so ganz. Bcachefs ist noch Jahre vom produktiven Einsatz entfernt.

Einen Streit mit Linus gibt es eigentlich nicht wirklich (Linus hat eine halt eine raue Ausdrucksweise), er ermahnt ihn halt laufend, sich an den üblichen Prozess zur Einreichung von Patches zu halten. Dass hat der Entwickler von Bcachefs nämlich ein paar mal so gut ignoriert, dass er dabei andere Teile des Kernels lahmgelegt hat.

Eigentlich wurde das Dateisystem viel zu früh in den Kernel aufgenommen und droht gerade nicht nur wegen des Verhaltens des Entwicklers sondern auch wegen der Instabilität dort wieder raus zu fliegen.

recu schrieb:
Der Nachteil ist, dass es noch nicht so ausgereift ist wie ntfs, ext4 oder xfs.
Und damit ist es ungeeignet.

(Open)ZFS ist eigentlich das, was der TE wirklich braucht. Das Dateisystem wurde nach der Prämisse entwickelt, dass alles unzuverlässig und damit eine Quelle von Fehlern ist.
 
OK es gibt hier verschiedene Lösungsansätze. Das ist gut. Damit muss ich mich erstmal tiefer auseinandersetzen die nächste Zeit !


hans_meiser schrieb:
TrueNAS mit ZFS Raid + Verschlüsselung benutzen. Warum willst Du die nicht?
Da muss ich mich einlesen.
Ich wollte mir sowieso ein Mirror Raid zulegen.....


@madmax2010
Ich habe keinen ECC RAM. (Thinkbook 14 G4, Intel Core I5 IAP)

Mit nativer Verschlüsselung (von ZFS) hab ich mich auch noch nicht viel auseinandergesetzt.
Hier hat ein Angreifer halt Zugriff auf bestimmte Metadaten. Ich weis nicht wie sicher das ganze ist.
Veracrypt verschlüsselt halt das ganze Dateisystem. Das ist was völlig anderes.
Und Veracrypt ist populär + OpenSource dh. Fehler oder gar Backdors wären betimmt schon aufgeflogen. Zur Sicherheit kann es gemountete Volumes auch automatisch nach bestimmter Zeit trennen, löscht das PW im Chache sicher (ColdBootAtack), öffnet einen (angeblich) sicheren Desktop gegen das Screnshotten der Eingabe von PW/Schlüsseldateien z.B. durch Trojaner.

Krik schrieb:
(Open)ZFS ist eigentlich das, was der TE wirklich braucht.
Kann man das verschlüsseln unter Windows ?


kieleich schrieb:
dann gibt es so viele Bildergalerie programme die überhaupt keine Skrupel haben an den Bildern direkt rumzufuschen neue Exif tags reinschreiben usw. Ein fehler oder absturz dabei und du hast defektes Bild
Irfan View ändert nichts, die SHA Summe stimmt nach jedem Bilder betrachten .
 
Zuletzt bearbeitet:
@Maitry Ich habe TrueNAS Core auf 'nem ollen server laufen, in einer Windows Server VM. Läuft einwandfrei, und ZFS gibt Dir alles, was Du brauchst: verschiedene RAID Modi, Checksummen pro block, funktioniert bei mir seit 9 Jahren super. Braucht gut RAM um flott zu sein, mit weniger RAM läuft es auch, halt nur dann nicht so gut geeignet als Arbeitsplatte also z.B. Softwareentwicklung oder so. Für Archive und sowas sind 8GB ganz locker genug.
 
  • Gefällt mir
Reaktionen: Maitry
@mchawk777 echt jetzt? Weist Du, wie ZFS bitrot angeht? Das ist keine Hempelei, aber was Du hier präsentierst ist reines Schlangenöl.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banned, Evil E-Lex, recu und eine weitere Person
hans_meiser schrieb:
Weist Du, wie ZFS bitrot angeht?
Falls Du es überlesen hast, wir haben es hier mit einem "jahrelangen Windows-Nutzer" zu tun.

ZFS ist kein Standard-Dateisystem unter Windows. Es kommt im Profi-Server-Bereich zum Einsatz. Das ist eine andere Zielgruppe.
Es macht wenig Sinn es einzusetzen, wenn man nur gegen Bitrotting vorgehen möchte.
Zumal moderne Datenträger - vor allem SSDs - dies im Hintergrund vollautomatisch erledigen.
 
  • Gefällt mir
Reaktionen: Maitry
Maitry schrieb:
Ich habe keinen ECC RAM. (Thinkbook 14 G4, Intel Core I5 IAP)
Da in das Thinkbook keine 12 TB Platte reinpasst, gehe ich von einer externen Festplatte aus. Da hast du bereits die Ursache für dein Problem. Schlechte Strom- und Datenkabel können durchaus dazu führen, dass korrekt geschriebene Daten nicht mehr erfolgreich gelesen werden können.

Die Lösung hast du auch bereits genannt: Backups (wichtig: Mehrzahl). Simpel, aber effektiv.
 
mchawk777 schrieb:
Es macht wenig Sinn es einzusetzen, wenn man nur gegen Bitrotting vorgehen möchte.
Zumal moderne Datenträger - vor allem SSDs - dies im Hintergrund vollautomatisch erledigen.

Das muss man etwas differenzieren:

Datenträger (SSDs und HDDs z.B.) verwalten auf Firmware-Ebene Prüfsummen (das hat mit modern oder SSDs gar nichts zu tun - das ist schon ewig so). Außerdem verfügen sie über einen ECC, der in gewissem Maße korrumpierte Daten wiederherstellen kann.

ZFS wiederum verwaltet zusätzlich eine Prüfsumme auf Dateisystem-Ebene, sichert die Prüfsumme ebenfalls mit Prüfsumme ab und hinterlegt diese nie direkt am jeweiligen Block, wo sich auch die eigentlichen Daten befinden. Darüber hinaus bietet ZFS noch viele weitere Eigenheiten, die zur Datenintegrität beitragen.

Es gibt unterschiedliche Möglichkeiten, deren Ausführung in gewissem Abstand dazu beiträgt, die Datenintegrität zu erhalten:

  • chkdsk /r oder Ähnliches
  • Abgleich mit (z.B. über ein Backup-Programm) manuell angelegten Prüfsummen.
  • Scrub (bzw. Auslesen) auf Basis eines Dateisystems, das Prüfsummen verwaltet.


ZFS bietet durch die zusätzliche Prüfsumme auf Dateisystem-Ebene (sowie seine generelle Funktionsweise) einen erhöhten Schutz gegen Datenkorruption. In einem ZFS-RAID können ebenso wie in einem konventionellen RAID als fehlerhaft erkannte Daten automatisiert aus der Redundanz bzw. über die Parität wiederhergestellt werden.
Ein wesentlicher Vorteil von ZFS ist m.E., dass es dir in einem Log anzeigt, welche Dateien bretroffen sind, wohingegen z.B. ein Abgleich über die Prüfsummen auf Firmware-Ebene dies nicht kann, weil hier Dateien keine Bedeutung haben, diese werden vom Dateisystem verwaltet.
Bei einem Backupprogramm kann man zwar die betroffenen Dateien indentifizieren, aber dieses arbeitet bei der Überprüfung viel langsamer als die beiden anderen Varianten, da es auf Datei- und nicht auf Blockebene arbeitet.


PS: Das Einzige, was SSDs automatisch machen, ist - je nach Controller häufiger oder seltener - die Blöcke refreshen (und dabei dann auch ggf. Fehler zu erkennen und wenn möglich zu korrigieren), was natürlich auch nur sehr bedingt etwas bringt, wenn das Laufwerk nur sporadisch angeschaltet wird. Der Controller hat ja keine Uhr unbhängig von seiner Betriebszeit integriert, die dann nach einer bestimmten Zeit wieder einen Refresh der Zellen initiiert, egal, ob in der Zwischenzeit das Laufwerk betrieben wurde oder nicht. Somit sollte man sich darauf (auch besonders in Anbetracht der Eigenheiten des Controllers, welche teilweise ewig nicht refreshen) nicht verlassen.
Ergänzung ()

Maitry schrieb:
4) Auf Linux + ZFS + LUKS wechseln. Win10 virtualisieren um Dateimanager mit dem ich gern und viel arbeite und sortiere nutzen zu können für die Übergangsphase oder länger.

Das wäre sicherlich eine Möglichkeit (wobei ZFS - wie schon erwähnt wurde - selbst doch schon verschlüsseln kann), solange ReFS unter Windows noch nicht aus der Entwicklungsphase raus ist bzw. für normales Windows voll implementiert ist.

Alternativ könntest du mit einem Windows-System arbeiten, von dem dann Snapshots z.B. auf ein NAS mit TrueNAS gehen. Hier hast du dann zwar nicht die Vorteile von TrueNAS für deine Arbeitsumgebung, aber das Ganze wäre weniger ressourcenhungrig und böte auch schon mMn eine hohe Sicherheit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Evil E-Lex und Maitry
Ich sehe das Problem ist komplex da man nicht weis wo Bitfehler passieren. Datenkabel, RAM, etc...

Ich benutze nur externe HDDs. Kürzlich meine Arbeits-HDD gemountet in VC. Sha Summen aufgerufen, viele Dateien waren "defekt". 4h später Rechner erneut hochgefahren HDD wieder gemountet und die gleichen Sha Summen aufgerufen + die gleichen Dateien wie vorhin wurden nicht mehr als defekt angezeigt !
Jetzt kann der Fehler wohl überall sein. Die Intuition sagte zu mir: Im RAM wo VC die Daten entschlüsselt ist was faul.....

Die Speicherfähigkeit/Magnetisierung meiner HDDs prüfe ich regelmäßig mit CHKDSK/R
Und CHKDSK/F was das Dateisystem NTFS auf Fehler überprüft.


Ich hab mich etwas versteift auf Berichte von Bitkippern bereits geschriebener Daten. Auf HDDs passiert das durch diverse äußere Faktoren (sogar komsmische Strahlung) oder ich hab gehört sogar wenn ein HDD Lesekopf über ein Muster fährt können hier u.U. Bits umkippen obwohl nur abgelesen wurde!

Außerdem passiert es selbst ganz OHNE äußere Faktoren teilweise von ganz allein nach einer bestimmten Zeit.
Man sollte ja auf HDDs die Daten immer mal neu magnetisieren/umkopieren. D.h. nicht immer inkrementell sichern. Ich schreibe daher Backups alle 2 Jahre komplett neu.
Und da u.A. ist es doch gut wenn Prüfsummen pro Datei oder Ordner existieren. Denn wenn ich den ganzen Kram NEU auf ne HDD kopiere, werden hier die Summen schon gleich mitgeliefert. Passiert was im Kabel stimmt am Ende auf dem Zielmedium vielleicht eine Summe nicht mehr und ich kann an anderer Stelle nachschauen wo die Datei evtl nochmal in korrekt vorliegt.
Kopiere ich z.B. von einer HDD mit ZFS zu einer anderen mit ZFS oder gar NTFS werden wohl die Prüfsummen des Dateisystems nicht mit übertragen.
Daher ist manuelle SHA Summen pro Datei/Ordner zu erstellen und regelmäßig mal zu überprüfen wohl ein aufwendiger aber guter Weg......
Dh besser als blockbasiert wie ZFS das macht.
Dh Prüfsummen auf "Benutzerebene" (könnte man sagen) also pro Datei oder Ordner erstellt, sind wohl eine der besten Mittel so scheint mir.

Wieso werden nicht Prüfsummen standardmäßig pro Datei gleich mit in die Metadaten geschrieben?
Und jeder user kann dann nach eigenem Ermessen mit entsprechenden Tools Scrubs machen wenn oder so oft er das möchte. ??


Banned schrieb:
Datenträger (SSDs und HDDs z.B.) verwalten auf Firmware-Ebene Prüfsummen. Außerdem verfügen sie über einen ECC, der in gewissem Maße korrumpierte Daten wiederherstellen kann.
Was heißt in gewissem Maß ?
Wenn eine HDD Daten wiederherstellen kann bräuchte ich mir keine Sorgen zu machen über externe Einflüsse auf bereits geschriebene Daten ! Dan wäre dieses Thema ja bereits auf unterster Ebene gelöst.
 
Zuletzt bearbeitet:
Maitry schrieb:
Außerdem passiert es selbst ganz OHNE äußere Faktoren teilweise von ganz allein nach einer bestimmten Zeit.
Man sollte ja auf HDDs die Daten immer mal neu magnetisieren/umkopieren. D.h. nicht immer inkrementell sichern. Ich schreibe daher Backups alle 2 Jahre komplett neu.
Es würde schon genügen, die Backups regelmäßig kontrollieren zu lassen. 😉
Anyway: Einerseits ist Bitrotting sehr selten bei ständig genutzten Devices - andererseits: Je mehr Sektoren, desto wahrscheinlicher, dass es mal zutrifft.

Lt. Dave Plummer (Ein ehem. Microsoftler im Ruhestand - und nebenbei Milloinär) betrifft so was vor allem HDDs die ein paar Jahre im Schrank "verrotten". 😉
Es schadet da nicht - egal welches Dateisystem - die Bits vielleicht im Jahres oder Zweijahrestakt mal aufzufrischen.

Mehr dazu hier:

Man sollte aber nicht zu paranoisch werden.
 
Maitry schrieb:
Ich benutze nur externe HDDs. Kürzlich meine Arbeits-HDD gemountet in VC. Sha Summen aufgerufen, viele Dateien waren "defekt". 4h später Rechner erneut hochgefahren HDD wieder gemountet und die gleichen Sha Summen aufgerufen + die gleichen Dateien wie vorhin wurden nicht mehr als defekt angezeigt !
Jetzt kann der Fehler wohl überall sein. Die Intuition sagte zu mir: Im RAM wo VC die Daten entschlüsselt ist was faul.....
Wie ich mir dachte, externe Platten. Ich wette, es sind die Kabel.
Ergänzung ()

mchawk777 schrieb:
Lt. Dave Plummer (Ein ehem. Microsoftler im Ruhestand - und nebenbei Milloinär) betrifft so was vor allem HDDs die ein paar Jahre im Schrank "verrotten". 😉
Nur um mal die Gegenposition darzustellen: Deconstructing SpinRite
Das Programm stammt aus einer Zeit als es noch MFM/RLL-Platten mit direkt ansteuerbaren Controller gab (80er bis frühe 90er). Damals mag es seinen Sinn gehabt haben, heute nicht mehr. Ich bekomme bei dem Programm jedenfalls heftige SoftRAM 95 Vibes.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mchawk777 und Banned
Zurück
Oben