Vorab, um zu vermeiden dass der falsche Eindruck entsteht:
Ich will nicht versuchen dich zu überreden, odee so, sondern da das hier öffentlich ist, ist alles was ich hier schreibe (und bisher geschrieben habe) auch an die Allgemeinheit gerichtet: Z. B. wenn sich jemand ein neues System einrichten, oder eine neues Hauptlaufwerk kaufen will. - Ich möchte einfach meine Erfahrungen posten, um anderen bei der Entscheidung zu helfen, wie sie es einrichten sollen.
Andere haben andere Erfahrungen, andere Ansprüche, nutzen ihren PC anders und haben auch andere Prioritäten: Wer was wie nutzen will, kann jeder selbst entscheiden. - Das ist ja nichts lebensgefährliches wie: Ich brauche mich nicht anschnallen. Mir ist noch nie was passiert. (hätte ich so gedacht, hätte ich am 22.05.04, 17:02 Uhr diese Existenzebene verlassen: Nach 17 Jahren "nie was passiert"…)
Die Features von btrfs, wie Snapshots und Subvolumes, usw. hören sich wirklich toll an und auch ich wollte die unbedingt nutzen, nur die ganzen Bug-Meldungen haben mich lange davon abgehalten, btrfs mal ausprobieren.
Als es dann auch noch zstd unterstützte und ich schon länger nicht gravierend negatives gehört hatte, wurde es zu verlockend und ich habe meine Systempartition umformatiert. *)
Zuerst war ich davon begeistert, welche Möglichkeiten mir Subvols boten, aber dann kam schnell die Ernüchterung:
Wenn ich die Partition wie gewohnt per rsync sichere, werden (wie gewünscht) die Subvols, wie Mountpunkte anderer Partitionen (rsync-Option "-x"), nicht mitgesichert: Endlich konnte ich das Laufwerk als ganzes nutzen und musste nicht mehr abwägen wie viel ich jeder Partition gebe - und vielleicht zu knapp kalkulieren.
Aber wenn ich die Sicherung wiederherstelle, waren aus den Subvols plötzlich zu normalen Verzeichnissen geworden: Nach jeder Wiederherstellung (ich "bastle" viel) hätte ich jedes einzelne erst wieder von Hand als Subvol einrichten müssen. - Ich konnte weder bei rsync eine Option finden, um Subvols als solche zu sichern und wiederherzustellen, noch ein gleichartige Tools, dass es konnte.
Damit waren Subvols für mich gestorben. - Über die ganzen anderen Nachteile, alles auf einer Partition zu haben, hatte ich mir da noch keine Gedanken gemacht.
Von Snapshots habe ich dagegen noch nie was gehalten: Man "sichert" nicht mal auf dem selben Laufwerk, geschweige denn der selben Partition!
Dass der MichlFranken dass immer wieder als großen Vorteil darstellt (gerade bei einem so "wackeligen" FS wie btrfs), empfinde ich als verantwortungslos, da er die Gefahr, dass wenn die Partition beschädigt wird, auch alle "Sicherungen" weg sind, nicht mal erwähnt. (von einem Laufwerksausfall ganz zu schweigen)
Wie schnell werden dann keine "richtigen" Backups gemacht: "Es kann ja nichts passieren, das System sichert sich ja automatisch." - Genau wie "Mir kann nichts passieren: Ich habe einen Virenkiller." vermittelt das falsche (nicht gerechtfertigte) Sicherheit und verleitet Otto*in Normalo (an den/die/das sich MF-Videos primär richten) zu Unvorsichtigkeiten.
*) Übrigens ein weiterer Vorteil einer eigenen Homepartition: Die Systempartition ist schnell im RAM gesichert, umformatiert und zurückgespielt. Dann noch grub neu installieren und fertig. -
Alles auf eine Partition zu knallen, finde ich sowas von falsch: Wie kann man sich freiwillig nur dermaßen einschranken?
Kuristina schrieb:
Ich versteh dich. So eine Verwechslung ist natürlich tragisch. Ist mir bisher aber bei meinem Arch System noch nicht untergekommen, dass die Laufwerke anders verteilt wurden.
Wie gesagt: Das passiert ausschließlich unter Ubuntu, einschließlich aller getesteten Derivate. Bei jeder anderen Distribution, die ich mir angesehen habe, ließ sich das nicht mal mutwillig provozieren.
Und tragisch war es auch nicht, da ich ja nur ein paar GiB wiederherstellen musste.
Übrigens auch nach den "dd"-Unfall: Da ich
per Terminal partitioniere und mir die Befehlszeilen sichere, brauchte ich sie nur nochmal ausführen und alles außer dem Inhalt der ersten Partition war wieder da: Deshalb war das früher die Swap, da die nur neu formatiert werden musste: Die Befehlszeile hatte ich inkl. UUID natürlich auch gesichert.
Dann gerade noch Grub installieren (auch die Befehlszeile ist natürlich mit gesichert) und fertig. - Wie gut, dass es das Terminal gibt.
Das gibt mir die Sicherheit, beliebig zu experimentieren, ohne jeden Schritt erst doppelt und dreifach kontrollieren zu müssen: Geht was schief, ist es schnell wiederhergestellt. - Das ist angenehm.
Da ich viel experimentiere, finde ich auch schnell Fehler und Probleme, auf die andere vielleicht erst stoßen, wenn sie es (wie üblich) am wenigsten gebrauchen können.
Kuristina schrieb:
Für Backups nehme ich auch SSDs, also da ist das zurückspielen auch nicht so wirklich ein Problem für mich. Geht fix. Aber ich kann verstehen, dass man da vorsichtig wird, wenn einem mal sowas passiert ist. Nutzerfehler hin oder her, man will das nicht nochmal erleben.
Als Quick&Dirty-Backup sichere ich die Systemapartition mehrstufig (gleiches wird per Hardlinks übernommen) auf der mittlerweile vorhandenen zweiten int. SSD, so dass ich zu jedem dort gesicherten Stand zurückkehren kann: Dauert normalerweise nur 15-20 Sek., aber selbst wenn ich die Systempartition neu formatieren musste, ist alles in ca. 50 Sek. kopiert: Trotz billiger
Intenso "High" SATA-SSDs. (ich habe für die 960 GB noch 52€ bezahlt)
Das System auf der ext. SSD (s. Link zur Partitionierung oben) ist sozusagen auch gleich ein komplettes Backup, aber meine "richtigen" Sicherungen sind auf HDs, da SSDs für Langzeitarchivierung ungeeignet sind: Mit jeder Generation (TLC, QLC, …) werden die inkontinenter.
Hochleistungs-SSDs sollen schon nach einem Monat ohne Strom anfangen die Daten zu verlieren. - Consumer-SSDs sind natürlich nicht so anfällig, aber konkrete Fristen habe ich dazu noch nicht gesehen.
Ach ja:
Beim wiederherstellen großer Datenmengen verursacht das natürlich auch entsprechende Schreiblast, die ich den SSDs gerne erspare, außerdem geht das über den SLC-Cache hinaus und wird entsprechend langsam.
Am extremsten war das bei der 480 GB Patriot Burst eines Bekannten: Die hatte nur ca. 2 GiB SLC-Cache und ließ sich anschließend nur noch mit 33 MiB/s beschreiben! Obwohl die Daten nur von einer Samsung F3 kamen (max. 100 MiB/s), war die SSD der limitierende Faktor: Es mussten ca. 250 GiB drauf…
Als die nach nicht mal 3 Mon. schon anfing Probleme zu machen (Trim dauerte plötzlich fast 1 Min. und blockiere das ganze System, so dass er jeden Tag dachte, der PC wäre abgestürzt (fstrim-Timer war auf täglich gesetzt), ging die zurück und ich habe ihm stattdessen eine 480 GB BX500 empfohlen (war damals noch eine v1): Ca. 27 GB SLC-Cache und anschließend noch 70 MiB/s, so dass diesmal die Sicherungsplatte das Nadelöhr war.
P. S.: Solche Beiträge speichere ich als Lesezeichen, da man ja immer mal wieder darauf verweisen kann.