Sebbi schrieb:
ok, der hat für nen Lacher bei mir gesorgt!
Natürlich kann immer irgendwas passieren, da brauchen wir gar nicht diskutieren.
Und vielleicht hattest Du es auch gar nicht so gemeint, aber es kam halt so rüber, als ob jeder Versuch eines Rebuilds notwendigerweise in "Operation gelungen, alle Patienten tot" resultieren müßte. Das hat bei mir nicht minder für ein Grinsen gesorgt.
Eben aus dem von Dir erwähnten Grund eines möglichen Plattensterbens habe ich auch raidz2 anstelle von 1 gewählt, und ja natürlich spielt auch das Gesamtvolumen eine Rolle.
Für ein Terabyte im Desktop brauch ich gar nicht überlegen, da gibt es kein RAID und braucht es auch keins, jedenfalls bei mir nicht.
Aber für ein Sammelbecken aller Daten, die so anlaufen, die per design zusammenlaufen SOLLEN und die daher naturgemäß "nur einmal", nämlich auf dem Fileserver, vorhanden sind?
Fuck yeah gibt es dort Vorkehrungen gegen Datenverlust, und eine Vorkehrung gegen "Platte hops" ist auch sehr viel einfacher zu bewerkstelligen als gegen "hups das war wohl jetzt der "alles löschen" Button und nicht der "alles anzeigen" Button, nein sowas aber auch 😊" .
Dasselbe auch mit ECC RAM, irgendwann ist so viel RAM in einer Kiste verbaut, daß Bitflips statistisch jeden Tag auftreten "müssen", und dann treff ich halt weitere Vorkehrungen, die ich bei weniger verbautem RAM nicht getroffen hätte.
Für den laufenden Betrieb würde ich aus demselben Grund auch nicht auf die Integrität von ZFS verzichten wollen.
Woher soll ich bei einem Datengrab wissen, ob die konkrete Datei noch so exakt aussieht wie sie aussehen soll? Schon ein einzelnes GB kann man als Mensch kaum auf Integrität prüfen, wie soll das bei Tausenden und Abertausenden gehen? In noch viel mehr Dateien? Ausgeschlossen!
Auch das interessiert nicht für ne 1TB große SSD wo außer Windows nur noch Spiele drauf sind, im Zweifel formatiere ich die, pack neues Windows drauf und lade Steam neu runter... das unter der Annahme, daß Steam nicht bereits im Hintergrund selber über Integritätschecks gestolpert ist und "heimlich" beschädigte Dateien automatisch wiederhergestellt hat.
Aber es interessiert hat sehr wohl in einem Datengrab, wo ich eine konkrete Datei buchstäblich "nur einmal im Leben" angucken könnte und von der ich aber "erwarte", daß das, was ich vor Jahren mal draufkopiert habe, in exakt diesem Zustand immer noch vorliegen habe.
Das kann ein nicht-redundantes Dateisystem schlicht nicht liefern. Hier bekomme ich ne Info, Dateisystem beschädigt, mach ein Checkdisk (oder fsck) und kann mich im Anschluß fragen, ob ein Vergleich des reparierten Dateisystemimages noch mit dem letzten Backup übereinstimmt oder nicht (ohne weitere explizit gewünschten Änderungsvorgänge). Das mach ich paar Mal und weiß nach dem 100. Mal überhaupt nichts mehr über die Beschaffenheit "irgendeiner" Datei, wenn ich sie mir nicht grad scharfäugig selber angucke.