MaverickM schrieb:
Weil es keine 15 Minuten dauert, ein System Image einzuspielen
Die Geschwindigkeit hatte ich ja bereits als Vorteil von Images genannt.
MaverickM schrieb:
während es bei mir mindestens einen Arbeits-Tag dauert, bis ich ein Windows aufgesetzt habe, Treiber und Programme installiert, und alles so eingerichtet habe, wie ich es brauche.
Das ist aber in erster Linie ein Windows-Nachteil. Das war ja genau mein Punkt. Windows nötigt einem zu komischen Backup-Konzepten (deshalb ist man ja auch teilweise auf Dritt-Tools angewiesen) weil das System nicht straight-forward ist.
Bei mir brauche ich für das Neuaufsetzen vielleicht ne Stunde. Es funktioniert auch an jedem Computer.
Und das Neuaufsetzen funktioniert auch weitgehend unbeaufsichtigt, weil man nix klicken muss oder so.
Die Backup-Zeit ist Im Gegensatz aber recht kurz. Das war ist mir wichtig. Denn Backups macht man sehr viel öfter als Recovery. Daher sollte vorallem das Backup schnell sein. Weil es so schnell geht und den Computer nicht belastet, könnte ich es theoretisch sogar z.B. alle 10 Minuten machen. Wenn dann mal das crasht, dann sind maximal nur die letzten 10 Minuten weg.
MaverickM schrieb:
eine Betriebssystem-Installtion kaputt ist.
Das ist auch so ne Windows-Krankheit, glaub ich. :-)
MaverickM schrieb:
wenn das Programm nur auf eingebundene Netzlaufwerke zugreift, statt direkt auf den SMB Share via Anmelde-Daten.
Wieso sollte das Backup-Programm zwingend nur auf eingebundene Netzlaufwerke zugreifen?
Es ist ohnehin nicht gut, wenn man das Backup-Laufwerk fest eingebunden hat, weil ein Zugriff (durch versehen, durch Bugs, durch Schadsoftware) ja auch Backup-Daten kaputt machen kann.
Idealerweise bindet man das SMB-Share ein, wenn man das Backup macht. Und man bindet das idealerweise so ein, das der normaler User der an dem Rechner sitzt auch während des Backups nicht drauf zugreifen kann.
MaverickM schrieb:
Gründe, warum, habe ich ja bereits genannt.
Dann hab ich den Grund immer noch nicht so ganz verstanden.
Also warum muss jetzt Programmcode doppelt vorhanden sein? Das bedeutet doch nur potentielle Fehleranfälligkeit.
Wo eine solche Redundanz sinnvoll ist, wenn ich irgendwie ein Problem mit dem System selbst hab. So ne Rettungskonsole oder sowas. Die bringen gerne ihren eigenen Kram mit, weil man damit rechnen muss, das die Libs auf dem System kaputt sind und deshalb nicht mehr ordentlich funktionieren.
MaverickM schrieb:
Es "das" Linux nicht gibt, und daher auch nicht "die" Linux-OnBoard-Lösung.
Ja gut. So gesehen hast Du natürlich Recht. :-)
Aber es gibt so ein Set an Basistools, die so ziemlich jede Linux-Distribution mitbringt (jetzt mal von irgendwelchen Spezial Embedded-Distributionen die auf geringstmöglichen Speicherplatzverbrauch hin optimiert sind). Das heißt, Du hast irgendwie immer ein Paketmanager, womit Du die Programminstallation automatisch ablaufen lassen kannst. Du hast sowas wie tar, rsync und Co, womit Du Dir ein Backup bauen kannst.
Im Prinzip ginge das so ähnlich mit Windows auch. Aber die Windows-Eigenheiten machen es dann doch letztendlich schwierig. Unter Linux reicht es ja im Prinzip /home/ zu sichern und von mir aus noch die globalen Einstellungen, die unter /etc/ zu finden sind. Und da reicht es auch einfach die Dateien zu sichern. Im Prinzip würde es sogar ein primitives
copy tun.