Website-Backup automatisieren

silent_sil

Ensign
Registriert
Okt. 2005
Beiträge
163
Hallo zusammen,

ich habe nach einer Möglichkeit gesucht wie ich eine Website (PHP) die bei einem Freehoster (nur FTP Zugriff) gelagert wird inklusive Datenbank (MySQL, Zugriff per phpMyAdmin) möglichst automatisiert sichern kann.

Mir würde es reichen wenn alle Dateien einfach auf meine Festplatte übertragen werden, aber eben ohne dass ich einen FTP-Client starten muss, alle Dateien auswählen usw... und dann das ganze auch noch für die Datenbank, ohne dass ich mich einloggen muss und Die Daten in eine .sql Datei exportieren.

Ist sowas mit einer normalen Batchdatei möglich? Wenn nötig, kann ich auch Perl programmiern. Ich wollte nur ein paar Anregungen von euch hören, ob ich nicht irgendwas übersehe und das garnicht auf die Art realisierbar ist...

Vielen Dank schon mal und Frohe Weihnachten euch allen!!!
 
Sowas lässt sich wunderbar mit 'nem Batch-Skript automatisieren. Stell einfach ne Verbindung mit dem FTP-Client von Windows zum Server her und lass ne Schleife durchlaufen, die alle Dateien mittels "get" in dein ausgewähltes Verzeichnis lädt.
 
Nur die Datenbank wirst du so nicht sicher können. Dafür müsstest du einen Cronjob einrichten, der ganz sicher nocht unterstützt wirde.
 
Um die Datenbank zu sichern, brauchst du doch nur per Batch-Skript wget aufzurufen, mit der URL, die phpMyAdmin dazu veranlasst die Datenbank als sql-Datei zu exportieren.

wget gibt es auch für Windows. Das benutze ich hier selber für solche Zwecke.
 
Du kannst dir doch ein simples PHP Skriptchen schreiben, dass den gesamten Verzeichnisinhalt in ein .zip oder .gzip speichert, die Datenbank in eine Datei sichert und dir beides zum Download anbietet. ;)
 
Zurück
Oben