Nilson schrieb:
Sehe ich anders. Ein "unzuverlässiges" Backup ist immer noch besser als gar keins.
An der Stelle müssen wir uns darauf einige, uns nicht einigen zu werden. Unzuverlässig ist IMO schlimmer als gar kein Backup: da weiß ich, daß ich
keins hab. Backup was ich hab, das ich nicht wiederherstellen kann, ist weniger als unsinni, das erwischt mich nur kalt, weil ich felsenfest überzeugt war, da war eins... war aber doch nicht. Daten gelöscht, macht ja nix, Backup ist ja da; also paß ich nicht besonders auf.
Ich gehe aber insoweit mit, daß man sich ab einem gewissen Datenvolumen echt hinsetzen und überlegen muß, wie zum Geier das angegangen werden soll.... und ja, das wird dann sehr schnell sehr teuer. Eine Option wäre ein gestaffeltes Backup: erst Daten klassifizieren nach Relevanz und dann entsprechend öfter oder weniger oft wegschreiben. Aufwendig wird es immer, egal wie, auch wenn man sich für die quick+dirty Option entscheidet und sagt, Redundanz und Snapshots zusammen müssen reichen, der Rest ist kalkuliertes Risiko.
Halt je nachdem, wie wichtig das alles ist. ISOs von Win10 muß ich nicht ins Backup schreiben.
R0 fiele bei mir zb nicht unter Backupspeicherort, sondern unter Arbeitskopie wie zB /tmp; ist die weg, na und, gibt schlimmeres, aber ich kann ggfs von der extra Performance profitieren. NVME dasselbe, das ist einfach zu teuer für Backupspace, außer ich muß das Zeug binnen kürzester Zeit restaurieren können, in welchem Fall die zusätzliche Ausfallzeit womöglich noch teurer wäre. Aber zuhaus? Eher nicht.