Bei der Verschlüsselung bleiben dir noch clientseitige Lösungen, wurden bereits weiter oben genannt.
"Laien" sollten aber nicht mit nicht belastbaren Zahlen und Einzelschicksalen in die Irre treiben lassen.
Ich weiß ja nicht, was du als übertrieben ansiehst aber schönreden von Ausfallwahrscheinlichkeiten ist halt witzlos. Entweder man ist sich der Gefahr bewusst und geht die Wette ein oder eben nicht. Vergleichbar zu einer Versicherung. Wie wahrscheinlich ist ein Blitzeinschlag im eigenen Haus? Warum sollte ich einen Blitzableiter verbauen? Wie oft ist denn bei dir der Blitz eingeschlagen (vs wie wahrscheinlich ist ein Blitzeinschlag im Vergleich zu allen Häusern ähnlicher Bauart- & höhe im Radius 10km). Da wirst doch wohl auch eher auf die statistisch relevanten Werte zurück greifen anstatt auf die eine Meinung des Nachbarn 3 Häuser und eine Straße weiter, oder?
Ergo gibt es 3 Hauptprobleme:
- Korrupte Daten/Virus/Menschlicher Fehler, der Dateien beschädigt > Backup hilft
- Ausfall einer nicht zentralen Komponente, wie z.B. einer Disk > Raid erhöht Verfügbarkeit, ansonsten Backup
- Ausfall einer zentralen Komponente, wie z.B. Mainboard. Sei es durch defekte ElKos oder äußere Einflüsse (Brand, Wasser, was-auch-immer) > Backup hilft bedingt bzw nur wenn dieses außerhalb der Faktoren aufbewahrt wird. Brand-/Wasserschaden o.ä. ist halt doof, wenn das Backup daneben liegt und nicht im sogenannten guten alten anderen Brandabschnitt/Nachbar/Cloud/wo-auch-immer.
Warum ein komplettes Raid beim Rebuild zerfällt wenn du einen unrecoverable error hast kannst du z.B. hier nachlesen: https://holtstrom.com/michael/blog/post/588/RAID-5-URE-Failures.html
Tl;dr: Ein Raid kennt Blockdevices und hat keine Ahnung von Dateisystemen, geschweige denn einzelnen Dateien. Ein Fehler und das Blockdevice ist somit hinüber, da ursprünglicher Wert nicht mehr errechenbar.
Eben aus diesem Grund empfiehlt ja auch kein vernünftiger Mensch ein Raid 5 bei solchen Datenmengen.
"Laien" sollten aber nicht mit nicht belastbaren Zahlen und Einzelschicksalen in die Irre treiben lassen.
Ich weiß ja nicht, was du als übertrieben ansiehst aber schönreden von Ausfallwahrscheinlichkeiten ist halt witzlos. Entweder man ist sich der Gefahr bewusst und geht die Wette ein oder eben nicht. Vergleichbar zu einer Versicherung. Wie wahrscheinlich ist ein Blitzeinschlag im eigenen Haus? Warum sollte ich einen Blitzableiter verbauen? Wie oft ist denn bei dir der Blitz eingeschlagen (vs wie wahrscheinlich ist ein Blitzeinschlag im Vergleich zu allen Häusern ähnlicher Bauart- & höhe im Radius 10km). Da wirst doch wohl auch eher auf die statistisch relevanten Werte zurück greifen anstatt auf die eine Meinung des Nachbarn 3 Häuser und eine Straße weiter, oder?
Ergo gibt es 3 Hauptprobleme:
- Korrupte Daten/Virus/Menschlicher Fehler, der Dateien beschädigt > Backup hilft
- Ausfall einer nicht zentralen Komponente, wie z.B. einer Disk > Raid erhöht Verfügbarkeit, ansonsten Backup
- Ausfall einer zentralen Komponente, wie z.B. Mainboard. Sei es durch defekte ElKos oder äußere Einflüsse (Brand, Wasser, was-auch-immer) > Backup hilft bedingt bzw nur wenn dieses außerhalb der Faktoren aufbewahrt wird. Brand-/Wasserschaden o.ä. ist halt doof, wenn das Backup daneben liegt und nicht im sogenannten guten alten anderen Brandabschnitt/Nachbar/Cloud/wo-auch-immer.
Warum ein komplettes Raid beim Rebuild zerfällt wenn du einen unrecoverable error hast kannst du z.B. hier nachlesen: https://holtstrom.com/michael/blog/post/588/RAID-5-URE-Failures.html
Tl;dr: Ein Raid kennt Blockdevices und hat keine Ahnung von Dateisystemen, geschweige denn einzelnen Dateien. Ein Fehler und das Blockdevice ist somit hinüber, da ursprünglicher Wert nicht mehr errechenbar.
Eben aus diesem Grund empfiehlt ja auch kein vernünftiger Mensch ein Raid 5 bei solchen Datenmengen.