Backup-Tool für einzelne Ordner gesucht

WilliTheSmith

Lt. Commander
Registriert
Dez. 2008
Beiträge
1.183
Hallo,

ich bin aktuell auf der Suche nach einem Backup-Tool, mit dem ich einzelne Ordner packen, komprimieren und auf einem anderen Laufwerk sichern kann. Bei der Sicherung soll es sich immer um ein Vollbackup handeln, welches nur ausgeführt wird, wenn es Änderungen in dem Ordner gab. Das Backup soll regelmäßig getriggert werden, ob über die Windows Aufgabenplanung oder über andere Methoden ist hierbei nicht so entscheidend.

Die Archiv-Datei muss in einem breit unterstützten Format wie z.B. zip oder tar.gz gespeichert werden, damit ich vollkommen unabhängig von der Backup Software bin und die Archive auch auf meinem Hauptsystem unter Linux öffnen kann.

Es wundert mich, dass ich bisher nicht wirklich was gefunden habe. Das, was meinen Anforderungen bisher am nächsten kam, war Personal Backup. Allerdings konnte ich ihm nicht beibringen, ein Vollbackup nur dann zu machen, wenn es Änderungen gab. Es war lediglich möglich, jedes mal ein Vollbackup zu machen unabhängig davon, ob es Änderungen gab. Alternativ konnte ich bei Änderungen ein differentielles Backup machen. Habe ich evt. etwas übersehen?

Kennt jemand eine Software, die meinen Anforderungen gerecht wird? Bevorzugt eine aktiv unterstützte FOS Software, allerdings bin ich auch proprietärer Software nicht abgeneigt, wenn sie meine Anforderungen zu 100% erfüllt.
 
Eventuell hilft ein selbstgeschriebenes script mit robocopy und einem cmdline ziptool... Alternativ danach mal googeln...
 
  • Gefällt mir
Reaktionen: pizza4ever
Wie wäre es mit Acronis True Image (oder jeder andere Backupprogramm mit guten Funktionsumfang).
Da musst du dann nur noch den Ordner bzw. laufwerk wählen und ab wieviel Uhr das Backup starten soll.
Bzgl. backup bei änderrungen im Ordner - das nennt sich inkrementelles backup.
https://kb.acronis.com/de/content/19639
 
Zuletzt bearbeitet:
Duplicati werfe ich mal in den Raum. Soweit ich mich erinnere speichert es das Backup auch als gpg verschlüsselte zip ab.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: memmex
Bezüglich Robocopy: Dort habe ich das Problem, dass ich nicht mehr schauen kann, ob es in dem Ordner Änderungen gab, da Robocopy ja die Quelle mit dem Ziel vergleicht. Und wenn ich das Ziel nachträglich ändere (packe), wird Robocopy jedesmal alles synchronisieren. Ich bin gerade am überlegen, ob es evt. über die Archivbits funktionieren könnte. Also wenn im Ordner ein Archivbit gesetzt ist, mache ein Vollbackup und setze die Archivbits zurück. Wobei ich dann auch kein Robocopy mehr brauche. Dann erstell ich das Archiv einfach lokal und schiebe es zum Ziel. :)


Tada100 schrieb:
Bzgl. backup bei änderrungen im Ordner - das nennt sich inkrementelles backup.
https://kb.acronis.com/de/content/19639
Nein, ich möchte explizit ein Vollbackup bei Änderungen. Hintergrund ist: Ich möchte das Archiv einfach öffnen und alle Files, aus dem gesicherten Ordner zu dem Zeitpunkt der Sicherung sehen und nutzen können. Insbesondere auch, weil ich auf die Archive von meinem Hauptsystem (Linux) aus zugreifen will. Acronis habe ich allerdings noch nicht getestet. Werde ich heute Abend ggf. mal nachholen, wenn jemand bestätigen kann, dass dieser auch als Zip o.ä. sichern kann?

@DaZpoon Die Seite von Duplicati hatte ich gestern schon einmal auf. Irgendwie habe ich es aus dem Auge verloren. Ich werde heute Abend mal schauen, ob es meine Anforderungen erfüllt. Danke für den Tipp/Erinnerung. :)

//edit: Duplicati ist leider auch raus, da es auf Block-Level sichert. Ich möchte allerdings, dass ich den Inhalt ohne weiteres sehen und nutzen kann.
 
Zuletzt bearbeitet:
Wie logisch ist ein Vollbackup wenn ich andererseits auf einzelne Dateiänderungen prüfe?

Ein Skript (das regelmäßig auf verdacht aufgerufen wird) müsste alles Files aufs A-Bit prüfen, dieses rücksetzen (ggf. zuletzt) und den Ordner selbst dann ZIPen, ans Backup-Ziel.
Man könnte auch alles gespiegelt vorhalten, ROBOCOPY ansetzen und dann das Ziel ZIPen, und aufs A-Bit pfeifen.

Effektiv weiß ja ich wohl wann sich da was geändert hat und drücke aufs Knöpfchen? Ansonsten ist es für mich Luxus bei automatischen Backups unbedingt zu prüfen ob sie nötig sind. Mir prallen da zwei Konzepte aufeinander.

CN8
 
cumulonimbus8 schrieb:
Wie logisch ist ein Vollbackup wenn ich andererseits auf einzelne Dateiänderungen prüfe?
Ganz einfach: Archive, die nur die veränderten Dateien enthalten, machen für mich keinerlei Sinn. Wenn ich dann den Stand von letzten Monat haben will, muss ich alle vorigen Archive durchgehen.

cumulonimbus8 schrieb:
Ein Skript (das regelmäßig auf verdacht aufgerufen wird) müsste alles Files aufs A-Bit prüfen, dieses rücksetzen (ggf. zuletzt) und den Ordner selbst dann ZIPen, ans Backup-Ziel.
Eine Backup-Software würde genauso vorgehen. Daher sehe ich da jetzt kein Problem. Das größte Problem wäre wohl eher, dass in CMD/Powershell zu realisieren. Bin dann doch eher in der Bash und Python Welt zu Hause. :)

cumulonimbus8 schrieb:
Man könnte auch alles gespiegelt vorhalten, ROBOCOPY ansetzen und dann das Ziel ZIPen, und aufs A-Bit pfeifen.
Habe ich auch dran gedacht. Es gefällt mir jedoch nicht, die Ordner dann ein zweites mal nicht gepackt vorzuhalten. Fraglich ist auch, ob man von Robocopy eine Rückmeldung bekommt, dass Dateien kopiert/aktualisiert wurden. Aber mal abwarten, vielleicht kennt ja noch jemand eine elegantere Lösung.

Mit Personal Backup gäbe es übrigens auch eine Lösung: Jedes mal ein Voll-Backup machen und nach Abschluss den Inhalt des letzten Archives mit dem aktuellen vergleichen. Bei gleichem Inhalt lösche ich das aktuelle Archiv wieder. Hier ist fraglich, ob es mir performant genug wäre, auch wenn es sich hauptsächlich um Ordner mit vielen kleinen Files handelt.

cumulonimbus8 schrieb:
Effektiv weiß ja ich wohl wann sich da was geändert hat und drücke aufs Knöpfchen? Ansonsten ist es für mich Luxus bei automatischen Backups unbedingt zu prüfen ob sie nötig sind. Mir prallen da zwei Konzepte aufeinander.

CN8
Genau das weiß ich eben nicht mit absoluter Gewissheit. Daher soll es automatisch passieren, idealerweise bei jeder Abmeldung.
 
Ich weiß zwar nicht was du unter "Block-Level" verstehst, aber soweit ich Duplicati kenne, arbeitet das Ordner-basiert. Daher kann man auch Dateifilter setzen. Es erzeugt im Prinzip ZIP's welche zusätzlich verschlüsselt werden können. Zusätzlich kann Duplicati diese ZIP's splitten.

Ein weiterer Trick wäre ein GIT Repository. Da bringen die GIT Tools die notwendigen Mechanismen zum überprüfen auf Veränderungen mit.
 
Wenn ich dann den Stand von letzten Monat haben will, muss ich alle vorigen Archive durchgehen.
Von sprechenden Namen hast du noch nie was gehört?? :o

Fraglich ist auch, ob man von Robocopy eine Rückmeldung bekommt, dass Dateien kopiert/aktualisiert wurden.
Effektiv: nein. Es gibt zwar ein Log, aber das wiederum müsstest du filzen.

Aber hier kapiere ich jetzt was nicht: warum interessieren dich geänderte Dateien? Was tust du mit dieser Info?
Ein volles Backup stellt alle Files zur Verfügung..! Wenn es nur um geänderte geht ist die Pfadstruktur lästig. Kein Backup-Tool das ich kenne legt den Pfad (der auch eine Informationsquelle ist) an einem Ankerpunkt an und dann dort nur die geänderte[n] Datei[en].
Das wäre wohl das was du haben wolltest. Lässt sich programmieren, aber nicht in simplem Batch. (Behaupte ich jetzt.)

idealerweise bei jeder Abmeldung
Also eher das als Trigger denn einen tumben Zeitplaner.
Da lohnt sich wohl wirklich all A's zu filtern und wie oben mit Pfadinfo abzulegen.

CN8
 
WilliTheSmith schrieb:
Bezüglich Robocopy: Dort habe ich das Problem, dass ich nicht mehr schauen kann, ob es in dem Ordner Änderungen gab, da Robocopy ja die Quelle mit dem Ziel vergleicht. Und wenn ich das Ziel nachträglich ändere (packe), wird Robocopy jedesmal alles synchronisieren. .

Doch das geht.

Um wieviel MB Daten handelt es sich denn?

Erstens gibt es bei Robocopy den L Parameter zum simulieren, zweitens gibt es bei Powershell genug Möglichkeiten Ordner zu vergleichen compare-objekt.

Da du danach Packst und wegsicherst, würde ich den letzten weggesicherten Stand einfach stehen lassen.

1.) MIt Compare Objekt den weggesicherten Ordner und den aktuellen Stand vergleichen.

2.) Falls Ziel =/= Quelle Ziel mit ZIel per robocopy /MIR überschreiben

3.) Prüfen, ob alles geklappt hat (nur ein sicherheitsstep, falls nein --> exception handling)

4.) Packen (würde 7zip command line nehmen) und wegkopieren.

Falls speicherplatz ein Problem ist könntest du du auch das Ergebnis von get-childitem als flat-file speichern und darauf vergleichen, spart dann natürlich den doppelten speicherplatz.
 
DaZpoon schrieb:
Ich weiß zwar nicht was du unter "Block-Level" verstehst, aber soweit ich Duplicati kenne, arbeitet das Ordner-basiert. Daher kann man auch Dateifilter setzen.
Ich hatte es getestet. In den gesicherten Zip-Dateien sind die Dateien als solche nicht zu finden, was eine zwingende Anforderung von mir war, damit ich unabhängig von der Backup-Software die Dateien wieder herstellen kann. Dann hatte ich mal gegoogelt und folgendes gefunden: https://forum.duplicati.com/t/zip-file-structure/1246 und https://github.com/duplicati/duplicati/wiki/FAQ

Auszug aus der FAQ:
https://github.com/duplicati/duplicati/wiki/FAQ schrieb:
Q: Can Duplicati store plain files instead of inside compressed folders?
A: No. Duplicati is a backup tool, not a file sync tool.

cumulonimbus8 schrieb:
Von sprechenden Namen hast du noch nie was gehört?? :o
Natürlich habe ich das, als Software-Entwickler ist mir dies mit eines der wichtigsten Dinge, damit man nicht raten muss, was sich hinter einem File (oder einer Funktion, Klasse, etc.) befindet. Ich glaube, wir haben aneinander vorbei gesprochen. :)
Mit Files Durchgehen meinte ich was anderes: Wenn ich Differenziell sichere, kann ich nicht einfach Archiv vom 1.12.2018 nehmen und habe den Stand von diesem Tag. Ich muss zusätzlich noch das erste Vollbackup suchen und die Änderungen auf dieses anwenden. Zugegeben, wenn ich das gerade so schreibe, könnte ich mich fast doch damit anfreunden. :)

cumulonimbus8 schrieb:
Aber hier kapiere ich jetzt was nicht: warum interessieren dich geänderte Dateien? Was tust du mit dieser Info?
Mich interessiert die Info, dass sich Dateien geändert haben. Denn nur in diesem Fall will ich ein Vollbackup machen. Im anderen Fall (nichts hat sich geändert) mache ich nichts.


Ich habe mittlerweile eine Lösung gefunden:
Ich habe eine kleine CMD-Zeile geschrieben, welche vor einem Backup-Job ausgeführt wird. Dies prüft, ob sich im zu sichernden Ordner eine Datei mit gesetztem Archivbit befindet. Wenn ja, setzt es in allen anderen Files ebenfalls das Archivbit. In Personal Backup führe ich lediglich folgendes vor dem Backup-Auftrag aus:
Code:
%sysdir%\cmd.exe /c dir C:\Users\Benutzer\Desktop\"Neuer Ordner" /s /a:a && attrib +A C:\Users\Benutzer\Desktop\"Neuer Ordner"\* /S || echo ""
Leider muss hier noch der Pfad für jeden zu sichernden Ordner angepasst werden, da Personal Backup für die Source-Folder keine Variable erstellt. Da ich jedoch für jeden Ordner eh einen neuen Task anlegen muss, ist das Vertretbar. Ich muss nur dran denken.


@pizza4ever Ja, aber nur, wenn ich die Daten doppelt vorhalte (Original + Kopie). Wäre ehrlich gesagt kein allzu großer Overhead, da die zu sichernden Ordner zum Großteil recht klein sind. Evt verfolge ich das weiter, wenn mir die aktuelle Lösung doch nicht zusagt.
 
Jein, es wäre zwar die einfachste Lösung, du kannst aber wie gesagt auch einfach den Inhalt von get-childitem abspeichern:

Falls speicherplatz ein Problem ist könntest du du auch das Ergebnis von get-childitem als flat-file speichern und darauf vergleichen, spart dann natürlich den doppelten speicherplatz.
 
Die Info um geänderte Dateien - da haben wir wohl wiederum aneinander vorbei gedacht: ich hatte im Fokus welche Dateien es sind, du die Tatsache, dass es geänderte Dateien gibt ;)
Und sprechende Namen… Selber Softwareentwickler stauen ich über Kollegen. Die haben so sprechende Namen, die werden glatt zum Roman. :)
CN8
 
Wenn es sich eh nicht so große Datenmengen handelt, wäre ein Blick auf tortoiseSVN oder ein ähnliches System vielleicht sinnvoll.
 
Ich schmeiße mal Cobian Backup in den Raum. Nutze ich seit Jahren und es funktioniert bestens. Ich vermisse lediglich eine automatische Sicherung bei neuen Dateien oder Änderungen.
 
Zurück
Oben