Rickmer schrieb:
Klar, Deduplizierung ist geil, aber auch nicht ganz ohne. Die Performance leidet deutlich sofern das System nicht dafür ausgelegt ist.
Die rsync-basierten Backups machen das i.d.R. auf Dateiebene. Ändert sich eine Datei, wird die halt als neue Datei im System abgelegt. Das bedeutet: Wenn Du eine 1GB große Datei hast und da wird nur ein Byte geändert, dann führt das dazu, das Du halt ein weiteres GB belegst. Das ist in der Tat dann recht speicherplatz-ineffizient. Wobei man dazu sagen muss, das diese rsync-basierten Backups ihren Schwerpunkt darauf haben, das Du ohne besondere Software auf Deine Backups zugreifen kannst und die Übertragung effizient ist.
Die Speichereffizienz kannst Du aber z.B: auch damit erhöhen, in dem Du ein Dateisystem wie ZFS verwendest was Deduplication auf Blockebene anbietet. Da ist dann Dein Verschnitt maximal so groß wie die Blockgröße. Das ist i.d.R. verschmerzbar. Und Du hast ja Verschnitt auch bei klassischer inkrementeller Backup-Software. Auch da bedeutet ja nicht 1 Byte Änderung das Dein Backup um lediglich 1 Byte größer wird.
Noch effizienter bist Du natürlich, wenn Du alles ZFS-only hast. Das Dateisystem selbst führt dann Buch darüber, wo was geändert wird und die Backup-Software muss nicht erst umständlich nachgucken.
Aber sowas lässt sich natürlich nicht überall realisieren.
Rickmer schrieb:
Wenn mit der dahinterliegenden Datenbank passiert ist auch Schluss mit lustig.
Der rsync-basierte Kram legt viel Wert darauf, das Du eben keine Datenbank oder sonstiges im Hintergrund hast. Alles soll so "plain" wie möglich sein ohne das Du für irgendwas spezielle Tools oder spezielle Formate brauchst.
Rickmer schrieb:
Wenn du dem Medium nicht traust, dann helfen nur mehr Kopien vom Backup.
Klar. Nur muss man halt auch aufs konkrete Szenario gucken. Wenn Du ne große Firma bist, wirst Du das Problem natürlich einfach mit mehr Hardware/Kopien erschlagen.
Bist Du kleiner oder gar nur ein Privatmann hast Du wahrscheinlich nicht irgendwie ne gechainte Riege von Backupservern irgendwo rumstehen.
Die Diskussion war mal irgendwie gestartet mit nem PC und der soll irgendwie per Image gesichert werden, was man machen kann ich aber aus genannten Gründen suboptimal finde. Inzwischen ist das aufgeblasen zu Enterprise-Datacenter mit Active-Directoy und allen zipp und zapp, nur um anhand dessen zu "beweisen", das meine Vorschläge ja nicht wirklich gut funktionieren. Das war aber auch nie deren Anspruch.
Rickmer schrieb:
Was Spezialformate angeht: Kann ich zwar irgendwo nachvollziehen, aber genau diese Spezialformate bringen halt auch meistens große Vorteile mit sich.
Ja. Alles hat so seine Vor- und Nachteile. Man muss dann gucken, was für einen selbst wirklich wichtig ist. Daher hab ich ja auch meine Kriterien dargelegt.
Und selbst die können sich ja widersprechen und man muss Kompromisse finden. Wie bei der rsync-Geschichte. Von der Zugreifbarkeit her top. Von der Speicherplatzeffizienz her nicht optimal.
Rickmer schrieb:
Ich würde auf ein Systemlevel-Backup niemals verzichten. Wenn mir ein Rechner wegen, keine Ahnung - defekten Windows Updates - nicht mehr bootfähig ist, will ich nicht die Büchse neu installieren müssen, ich will nur das OS-Backup von gestern einspielen und weitermachen können.
Das verstehe ich. Images und Co sind in der Wiederherstellung natürlich unnacharmlich schnell. Bei mir brauch ich das aber nicht. Es geht schnell genug und es funktioniert auf unterschiedlichster Hardware. Das ist, was für mich mehr zählt.
Das Problem, das Systeme nicht mehr booten und auch nicht mehr dazu zu bewegen sind, ist mir irgendwie fremd (muss aber dazu sagen, das ich mich kaum noch in der Windows-Welt bewege). Aber ja. Updates können manchmal andere Probleme machen. Die Möglichkeit eines step-backs habe ich natürlich auch.
Rickmer schrieb:
Das ist für mich das einfachste Handling
Meine Devise ist eher: Keep it simple and stupid.
Umso einfacher was ist, umso weniger kann auch kaputt gehen. Umso weniger brauche ich irgendein Spezialwissen/Spezialtool um was zu realisieren.
Das bedeutet, das es manchmal zu mehr Aufwand kommt. Es versetzt mich aber in die Lage, das ich mir bei Problemen in der überwältigenden Mehrheit der Fälle auch selbst helfen kann.
davidzo schrieb:
Ja mit einer ordentlichen Paketverwaltung verstehe ich wieso das Programme sichern dir nicht wichtig ist.
Wobei es bei Windows mit dem Microsoft-Store ja vergleichbare Möglichkeiten gibt.
Paketverwaltungen haben natürlich einen großen Nachteil. I.d.R. braucht man eine Internetverbindung, um Programme installieren zu können. Ich hab daher ein Proxy wo dann quasi eine Kopie des Programms liegt. Insofern ist es strenggenommen nicht ganz korrekt, als ich gesagt habe, das ich Programme nicht mitsichere.
Wenn ich jetzt also ein Recovery-Fall hätte, wo sowohl der Proxy kaputt ist als auch die Internetverbindung, hätte ich ein Problem.
Allerdings hab ich dann noch die Möglichkeit ne Notfall-Internetverbindung aufzubauen. Schlägt auch das fehl, hab ich noch ein Zweitgerät. Das ist zwar nicht ganz so leistungsfähig wie mein normaler Arbeitsrechner, aber für den Notfall langt das.
Insofern bilde ich hier jetzt einfach mal ein, das ich für den Fall der Fälle einigermaßen gerüstet bin. :-)
davidzo schrieb:
Das Problem bei Windows ist dass viele Programme halt nicht ordentlich Einstellungen in den richtigen Pfaden speichern und auch nicht darauf ausgelegt sind wiederhergestellt zu werden.
Ja. Und mit der Registry hat man ja zusätzlich noch was im Spiel, was einem das erschwert. Man kann dort zwar Dinge partiell exportieren/importieren. Aber wirklich schön/elegant ist das nicht.
Insofern kann ich Deine Vorgehensweise absolut verstehen.
davidzo schrieb:
Und viele Windowseinstellungen sind auch so einfach weg weil Microsoft das Format oder die Funktionen gewechselt hat, mit nicht selten teilzerschossener Windowsfunktion als Ergebnis. Zumal ich nicht weiß wie gut das klappt von Win10 auf Win11 wieder einzuspielen. Ich habe da leider kein Vertrauen mehr in Microsoft über die Jahre, die kriegen es hin selbst die Basisfunktionen durch irgendwelche künstlichen Beschränkungen oder Lizenzmanagement zu verkacken.
Ich hatte jetzt angenommen, das Windows über die Jahre robuster und auch freundlicher geworden ist, was Wiederherstellung angeht. Liegt vielleicht auch daran, das ich es nicht mehr so häufig benutze. Die Windows-Instanzen die ich habe sind eher Test-Systeme wo es dann auch gar nicht darauf ankommt, ob die funktionieren oder nicht (dementsprechend werden die weder voll- noch teilweise gesichert).
Aber ja. Künstliche Beschränkungen sind natürlich immer besonders nervig. Mit technischen Beschränkungen kann man meist noch gut leben. Aber wenn das nur Ergebnis einer Firmenpolitik ist, dann fühlt sich das natürlich nicht gut an. Ich finde es schon allein bei den Testsystemen nervig, wenn ich da eine "Activate me"-Meldung bekomme. Zumal diese Systeme nicht am Internet hängen und ich auch keine Lust hätte mich an irgendeiner Hotline für irgendwelche Aktivierungsversuche zu rechtfertigen.
davidzo schrieb:
Das Image funktioniert nur auf demselben Rechner auf dem es angelegt wurde.
Ja. Das ist mein großes Problem, was ich mit Images habe.
davidzo schrieb:
Wenn solche Hintergrundsicherungen auf Kernel und Dateisystemebene gehandhabt werden und alle Programme darauf ausgelegt sind, sollte das keine Probleme mit Inkonsistenzen geben.
It depends on. WIndows kennt ein exklusiv-lock. Da merkst Du, wenn ein anderes Programm drauf zugreifst. UNIX-basierte Systeme kennen das nicht. Du könntest natürlich die list-of-open-files durchgehen. Nur nutzt Dir das ja wenig. Als Hintergrund-Backup-Software willst Du ja nicht dauernd Meldungen aufploppen lassen a-la "Mach mal Programm XYZ zu".
Dann hast Du manchmal noch andere Effekte. Nicht wenige Programme überschreiben nicht einfach die Ursprungsdatei. Sondern schreiben zunächst in eine neue temporäre Datei und machen dann ein "mv" zur Orginaldatei. Das wenn beim schreiben was schief geht, man wenigstens noch die alte intakte Kopie hat.
All diese Sachen wirken sich aber i.d.R. nicht dramatisch aus. Wenn es müssen ja zwei Fälle zusammen kommen: Einmal das ausgerechenet genau dann die Backup-Software an der Datei vorbei kommt. Und zum zweiten das Du ausgerechnet die Datei Du dann fürs Recovery brauchst.
Wirklich problematisch sind konstant geöffnete Dateien wie z.B: bei Datenbanken die dann auch noch "in-place" geschrieben werden. Da hat dann auch der Kernel bzw. der Dateisystemtreiber kaum Chancen, weil der den Zustand der Datei nicht sieht. Der kann nur sehen, ob die Datei offen oder geschlossen ist oder ob noch was im Write-Buffer ist. In einem solchen Fall würde ich aber eh nicht die Datenbankdateien direkt sichern, sondern das Programm anweisen ein Dump zu machen und das Dumpfile sichern. Dann hast Du ein konsistenten Zustand und solche Dumps sind in der Regel auch versionsübergreifend lesbar.
davidzo schrieb:
Siehst du, kostet doch Zeit 😉 das wolltest du mir gegenüber aber nicht zugeben dass es schon Arbeit ist.
Naja. Die Arbeit besteht aber nicht darin seine Installatiosndatenträger zurecht zu machen (worum es ging), sondern die Daten entsprechend zu organsieren. Das sind ja unterschiedliche Dinge.
davidzo schrieb:
Ist es mit MacOS aber auch, denn ich verwende ja nicht nur timemachine auf dem NAS, sondern eben zusätzlich wechselnde externe Datenträger.
Klingt ja auch absolut sinnvoll.
Und überhaupt: Ich will Dir da in Dein Backup-Konzept auch gar nicht reinreden. Es soll weniger ein Kampf der verschiedenen Möglichkeiten sein, sondern eher ein Austausch, um so mal über die spezifischen Vor- und Nachteile zu reden.
davidzo schrieb:
Ist zwar alles auch auf dem NAS, aber wenn das einen defekten Ram hat und dann einen resync startet kann halt auch mal eben alles weg sein.
Ja. "Syncen" insbesondere beo Two-Way-Sync ist eine eher schelchte Idee. One-Way und dann noch versioniert (falls es doch mal ne Datacorruption gibt) sollte ein Backup schon bieten.
davidzo schrieb:
Es wäre so verlockend wenn es eine Cloud gäbe die wirklich gute Sicherungen acht ohne dass man sich einen Kopf drum machen muss
Ja. Aber so als Zusatzangebot taugt es schon. Denn die lokale Kopie + die Offside-Kopie + die Cloudkopie mit einmal kaputt geht, ist schon ziemlich unwahrscheinlich.
davidzo schrieb:
Das ist der Luxus der oben source Welt, es ist quasi alles jederzeit verfügbar und auch alte Versionen sind leichter noch zu finden.
Ja. Wobei man sich auch nicht hart darauf verlassen sollte. ZUmal eine alte Programm-Version alleine Dir im Zweifel ja nix nützt, sondern wegen der Abhängigkeiten häufig auch auf ein altes System angewiesen ist.
Man kann ja über die Windows-Programme sagen was man will, aber die bringen das benötigte Zeug im sehr viel stärkeren Maße selbst mit und sind deshalb unempfindlicher gegenüber der aktuellen Gegebenheiten auf dem System.
Wenn man mal so auf alles draufguckt, was hier im Thread zur Sprache kam, sieht man deutlich das Backup ein komplexes Thema ist.
KeLcO schrieb:
Okay. Dein vorheriger Beitrag suggerierte ein wenig, dass du von inkrementellen BackUps so gar nichts hältst.
Naja. Bei inkrementellen Backup hast Du ja zwei Aspekte. Einmal die Tatsache das Du nur Änderungen vom Source-System ziehen musst. Zum zweiten: Das Du das ans Backup anhängen musst, so das Du alles davor einlesen musst damit Du wieder beim Endzustand bist.
Den ersten Aspekt finde ich gut. Den zweiten finde ich nicht so gut. Der Punkt ist, das ich nicht zwangsläufig inkrementelle Backups machen muss um Punkt 1 zu kriegen.
Klassische inkrementelle Backups wurde ja nicht erfunden, weil das Prinzip so geil ist, sondern war auch das Ergebnis von technischen Gegebenheiten. Früher hat man, salopp gesagt, sein Backup auf Band gemacht. Und so ein Band lässt sich nur sequenziell beschreiben. Wenn Du also schnelle Backups haben wolltest in dem Du nur Deltas schreibst, muss das also inkrementel sein. Geht nicht anders.
Heutzutage machen wir unsere Backups aber nicht mehr auf Band. Sondern auf NAS-Systeme, externe Festplatten Cloud-Storages. Es gibt einfach nicht mehr in dem Maße die Notwendigkeit sich der Beschränkung des Inkrementellen zu unterwerfen. Ungeachtet dessen, das es natürlich nach wie vor Fälle gibt, wo das sinnvoll ist.
KeLcO schrieb:
Ordner mit Dokumenten, Bilder usw
Deine Aufzählung ist wenig erhellen. Die Notwendigkeit Ordner mit Dokumenten, Bildern etc. zu sichern habe ich auch. Nur warum sollte ich das in Form eines inkrementellen Backups machen?
Das ist doch die Frage, auf die es ankommt. Nicht die Frage, ob man es machen kann, sondern die Frage nach dem Warum.