Backup-Strategie - HDD auf NAS klonen?

obzervatör

Cadet 4th Year
Registriert
Sep. 2008
Beiträge
98
Hallo,
aufgrund eines "Warnschusses" (HDD defekt; logisch, nicht physisch; Daten gerettet) möchte ich dringend eine Backup-Lösung (für DAUs) einrichten. Der grobe Plan ist folgender:

1. ein NAS soll täglich zu festgelegtem Zeitpunkt einen PC aufwecken
2. das NAS soll die HDD des PC klonen und im NAS ablegen
3. im besten Fall alle 4 Wochen wird zusätzlich das NAS manuell auf eine externe HDD gespiegelt


Meine Fragen hierzu:

a) Ist ein NAS überhaupt in der Lage, einen vollständigen Live-Clone zu ziehen?
b) Wie kann so ein Klon abgelegt werden? Direkt als live-Platte, die einfach aus dem NAS in den PC zu stecken wäre? Oder geht das nur über Container aus dem dann ein Restore vom NAS auf eine neue HDD im PC erfolgt?

c) Könnt ihr konkrete Empfehlungen für ein 2-bay-NAS abgeben?
 
Ohne Software wird das nicht gehen und dann benötigt man auch noch die entsprechenden Berechtigungen. Vielleicht mit teuren Managed Lösungen aber nicht so direkt von einem NAS aus.

Einfachste wäre es im Client per Aufgabenverwaltung entsprechende Tasks mit passender Software zu definieren, einige der Clone Programme (z.B. Acronis) sind auch in der Lage nach Abschluss die Kiste wieder herunterzufahren. Aber so könnte man es dann auch gleich mit einem per USB3 angeschlossenen Speicher/Stick machen (schneller, keine Berechtigungsgebastel, etc) und der müsste bloss noch regelmässig manuell ausgewechselt werden (hier unterstützen einige Backup Programme die Möglichkeit den Speicher/Stick nach Beendigung "auszuwerfen" damit kein Crypto Trojaner drauf wüten kann).
 
So geht das, was du vorhast, IMO nicht.
Sicherung erfolgt PC -> NAS. Auf dem Rechner muss die Sicherungssoftware laufen, die dann im Netzwerk speichert.

Zurückspielen erfolgt dann wieder über die Image-Software, wobei man da i.d.R. das entsprechende Rescue-System von CD/DVD/USB Stick braucht.

NAS: QNAP oder Synology.

Was du bei deinem Backupvorhaben nicht berücksichtigst: Alle Geräte hänge bei dir dauerhaft am Netz, so dass etwa eine Überspannung im Worst-Case alle Daten vernichten kann.
 
Bei mir ist es derzeit so eingerichtet:
Veeam-Agent startet automatisch um 0:30 den Backup Prozess und legt ein Image der Festplatte auf dem NAS ab und fährt den PC automatische herunter.
Der Backup-Prozess wird nur gestartet wenn der PC eingeschaltet ist oder im Standby-Modus befindet.
D. h. wenn ich was gearbeitet habe, bleibt der PC im Standby-Modus bis er sich nach dem Backup selbst ausschaltet

Zusätzlichwird ein Recovery USB-Stick erstellt, darauf werden auch die Treiber für die Netzwerkkarte installiert, damit ist es möglich den PC vom NAS wieder komplett herzustellen.
 
Okay, danke euch zunächst mal! Etwas enttäuschend, aber auch interessant.

Fange ich mal anders an:

- Überspannungsschutz ist grundsätzlich vorhanden
- ext. HDD hängt nicht dauerhaft am Netz, sondern lagert in anderem Gebäude

Zum Backup-Vorgang:
Vorhanden ist Paragon Festplatten Manager. Damit dürfte ich via Taskplaner ein Image der HDD erstellen können und diese gleich ins NAS schreiben lassen.
Zusätzlich wird ein Rettungsstick mit LAN-Treibern erstellt, welcher das Image vom NAS wieder auf eine interne HDD ziehen kann.
Manuell erfolgt alle 4 Wochen ein Backup des NAS auf eine externe HDD, welche ansonsten an einem anderen Ort lagert.

Klingt das praktikabler?

Jetzt muss ich nur dafür sorgen, dass das tägliche Image zur rechten Zeit gestartet wird, bzw. der Rechner dann auch eingeschaltet ist.
 
Insgesamt sollte es so recht gut gehen.

2 Optimierungsmöglichkeiten: Es muss nicht jeden Tag ein neues Recovery-Medium erstellt werden und bei den täglichen Sicherungen kann man viel Zeit und (Platz) sparen indem man nicht jeden Tag ein Vollback macht, sondern inkrementell (nur die Änderungen). Dann geht das alles viel schneller und gleichzeitig hat man auch immer noch Zugriff auf Sicherungen der letzten Tage. Je nach Image-Software kann man das entsprechend konfigurieren (Alle X Tage eine neue Komplettsicherung und danach die nächsten X Tage immer nur die Änderungen.)

Man möchte ja nicht den Fall haben, dass die Automatik einem die letzte Sicherung löscht und bei der neuen / aktuellen Sicherung vielleicht ein Teil / alle Daten z.B. von einem Verschlüsselungstrojaner heimgesucht wurden.
 
  • Gefällt mir
Reaktionen: Raijin
M@rsupil@mi schrieb:
So geht das, was du vorhast, IMO nicht.
Sicherung erfolgt PC -> NAS. Auf dem Rechner muss die Sicherungssoftware laufen, die dann im Netzwerk speichert.
So weit ich weiß, sollte das aber schon gehen, und wäre sogar die sicherste und professionellste Methode, dass der Backup Rechner (hier das NAS) von sich aus das Backup startet und die Daten aktiv vom anderen Rechner holt.
Auf die Art und Weise kann er sich nämlich hinterher wieder komplett trennen und steht beispielsweise nicht für Verschlüsselungs-Trojaner offen, wie das der Fall ist, wenn das NAS nur als Datenträger eingebunden ist und vom PC aus mit dem Backup beschrieben wird.

Aber ob und wie das funktioniert, kann ich leider auch nicht sagen. Ich glaube schon mal gelesen zu haben, dass solche Backup-Server, die sich aktiv mit den zu sichernden Rechnern verbinden, das über FTP tun. Bin mir aber nicht mehr sicher.
 
Man muss das System ja nicht so einrichten, dass der Rechner dauerhaft Zugriff aufs NAS bzw. den Sicherungsordner im Netzwerk hat. So etwas kann man z.B. direkt in die Sicherungssoftware eintragen und dann verbindet und beendet die Software den Netzwerkzugriff.

Risiken und Gefahren gibt es immer. Man kann (und IMO sollte) auch einiges tun, damit Software und Scripte auf dem Rechner generell nichts / möglichst wenig machen können, auf den NAS Geräten gibt es auch die Möglichkeit gelöschte Dateien in einen Papierkorb zu verschieben, die nur der Admin (auf dem Gerät) einsehen kann, man könnte den Netzwerksicherungsordner ausblenden, so dass er im Netzwerk nicht angezeigt wird, etc.

Ansonsten, wenn du weiß, dass es auch anders herum geht, dann her damit. Der TE wird sich bestimmt freuen. Allerdings ging es bei seiner Frage nicht nur um ein schlichtes Datenbackup, sondern es soll direkt ein Clone erstellt werden.
 
Gut, das hieße dann zwei Tasks zu planen - z.B. einmal Volles Image jeden Donnerstag, alle anderen Tage inkrementielles Backup in den Sicherungscontainer.

Klar, der Stick wird natürlich nur einmal erstellt und wird ggf. berücksichtigt, falls sich an der LAN-Hardware etwas ändert.

Die externe HDD soll für erhöhte Sicherheit gegenüber Brand- u. Wasserschäden sorgen. Insbesondere durch die Lagerung an einem anderen Ort. Gleichzeitig dürfte der damit erhöhte Sicherheit gegenüber Verschlüsselungstrojanern erreicht werden, da ja immerhin 4 Wochen zurückgegriffen werden kann. Ggf. werden hier zwei externe HDDs zum Einsatz kommen, die dann im 8 Wochen-Takt einmal absaugen.
Ergänzung ()

Ach ja richtig - die Möglichkeit, das NAS direkt einen Clone vom PC abholen zu lassen, wäre noch immer der Königsweg für mich.

Ein direktes Clone-Backup soll des eben deswegen sein, damit die Ausfallzeiten minimiert werden können. So wäre es ohne mühsame Neuinstallation möglich, innerhalb weniger Minuten oder Stunden wieder einsatzbereit zu sein.
 
Du brauchst für ein OS-Image kein NAS.
Dafür kannst du entweder eine extra Partition auf der selben HDD anlegen oder gleich eine zweite Platte verbauen.
Selbst Daten kannst du darauf lokal sichern.
Das Netzlauferk ist dann quasi eine zusätzliche Sicherung.
Und vom NAS kannst du dann auch noch extern runtersichern.
 
Grundsätzlich muss eine Backup-Strategie immer an die persönlichen Bedürfnisse angepasst werden. Auch muss man unterscheiden zwischen Verfügbarkeit/Ausfallzeit und Datensicherung. Wenn man davon spricht "wie lange es dauert bis man wieder einsatzbereit ist", dann deutet das ganz klar in die Richtung der Verfügbarkeit und nicht Datensicherung. Das heißt aber nicht, dass sich beides ausschließt, aber für beide Szenarien gibt es verschiedene Herangehensweisen.

Um die Ausfallzeiten zu minimieren bzw. eine hohe Verfügbarkeit zu gewährleisten, eignet sich ein RAID ganz hervorragend. So könnte man beispielsweise das Betriebssystem auf einem RAID 1 vorhalten und im Falle eines Defekts einer Platte würde die zweite Platte den PC am Laufen halten bis die defekte Platte ersetzt wurde. Ein Backup des Betriebssystems an sich, erfolgt einmalig bei der Installation und dann sporadisch bei größeren Änderungen (Softwareinstallation, Konfigurationsänderungen, etc). Betriebssystem und Daten kann man dabei strikt trennen (zB RAID 1 mit 2 Platten für das OS + xxx Platten für die Daten) oder aber man packt alles (OS+Daten) in ein RAID 1 bzw. besser ein RAID 5.

Um die Daten zu sichern, richtet man je nach Veränderlichkeit (schönes Wort) einen passenden Backup-Zyklus ein. Stark veränderliche Daten (zB Doktorarbeit, o.ä.) sollten natürlich häufiger gesichert werden als weitestgehend statische Daten (zB Film-Datenbank).

Anstoßen würde ich das Backup stets auf dem Client selbst, zB per Taskplaner. Es ist wenig sinnvoll, dies von außen zu steuern, weil dann zB während des Urlaubs der PC täglich geweckt wird, dann 1:1 dasselbe Backup erstellt wird und im worst case die alten Backups aus der Pipeline rutschen und überschrieben/entfernt werden - Stichwort: Generationenprinzip.
 
Vielleicht hätte ich anfangs die Ausgangssituation genauer beschreiben und zudem darlegen sollen, warum wir hier gerade auf ein kombiniertes OS+Daten Image setzen wollen.

Die Trennung von Daten und OS ist hier im aktuellen Fall weder ohne großen Aufwand möglich, noch wirklich gewünscht. Das liegt unter anderem daran, dass die eingesetzte Software zu sehr ins OS integriert ist und zudem aufgrund ihrer Architektur und Sicherheitsanforderungen nicht wirklich vom OS trennbar ist bzw. sein soll.

Weiterhin steht der hausinterne Grundsatz im Raum, alle Systeme so simpel und so nah am Standard, wie nur irgendmöglich zu halten und auf aufwändige Konfigurationen zu verzichten. Dies hauptsächlich mit dem Hintergedanken, im Falle einer Havarie schnell und einfach sowie ohne Spezialisten eine neue, arbeitsfähige Standardkonfiguration herstellen zu können. Notfalls auch ohne Daten.

Insofern soll hier, trotz aller gerechtfertigter Einwände, ein tägliches Totalbackup (idealerweise zudem nach Generationenprinzip) das Mittel der Wahl darstellen.
Da der Backupvorgang den Betrieb der Systeme in keiner Weise einschränken soll, wird Wert darauf gelegt, dass das Backup möglichst selbsttätig außerhalb der Betriebszeiten anläuft.
Klar, letzters ließe sich auch realisieren, indem der Client das Backup selbst veranlasst. Doch muss er dann etwa nachts von allein "erwachen" und aktiv werden.

Das Thema Urlaub ist im übrigen auszuschließen - das System muß unabhängig davon weiterlaufen.
Im Hinblick auf künftige Ausweitung des Backups auf weitere Systeme, wäre es eben auch wünschenswert, dass die Clients etwa von einem NAS selbstätig "abgesaugt" werden. Auch im Sinne der zentralen Steuerbarkeit, ohne jedem einzelnen Client das Backup einrichten und ggf. überwachen zu müssen.


Aktuell ist die Überlegung folgende:

- Client bekommt zweite HDD (bzw. HDD hinter der SSD), worauf der Client das Image seiner SSD ablegt.
- das Image auf der Image-HDD muss ins NAS gesichert werden.
- die Image-HDD wird zwischen sieben und 14 Backup-Generationen beherbergen
- parallel beherbergt das NAS einen Dokumentenpool, welcher separat gesichert wird (nur Randnotiz, Vorgang unproblematisch).
- wöchentlich wird das NAS komplett auf eine externe HDD gespiegelt.

Bleibt die Frage, wie und wann die Image-HDD ins NAS geschleust wird...
 
Versteh mich nicht falsch, aber reden wir hier eigentlich von Firmendaten? Wenn ja, kann ich nur dringend(st) dazu raten, ein Systemhaus mit ins Boot zu holen. Bei geschäftsrelevanten Daten sollte die Sicherung und die Wartung solcher Systeme von einem Profi vorgenommen werden, wenn die eigene IT aus welchen Gründen auch immer dazu nicht imstande ist.

Nichtsdestotrotz klingt das für mich u.a. nach einem Einsatzgebiet für ein RAID. Damit läuft der PC dann auch weiter, wenn eine der Platten ausfällt.

Datensicherung und Verfügbarkeit sind zwei grundverschiedene Dinge und man kann das eine nicht durch das andere ersetzen. Wenn hohe Verfügbarkeit erforderlich ist, sind "häufige Backups" nicht das richtige Mittel. Auf der anderen Seite ersetzt die Verfügbarkeit kein Backup.

Verfügbarkeit: Das System bzw. die Daten sind weiterhin direkt und ohne Verzögerung zugreifbar, wenn eine Festplatte ausfällt. Die defekte Platte wird zeitnah ersetzt (im Idealfall hat man Ersatz bereits im Schrank) und das RAID wird wiederhergestellt.

Backup: Wenn Daten verloren gehen - also zB wenn eine Non-RAID-Platte stirbt oder ein RAID zu viele Platten verliert - wird ein Backup nach Stand X wieder eingespielt.

Deinen Ausführungen entnehme ich, dass eben gerade Verfügbarkeit bei dir eine große Rolle spielt und du diese nun durch Vollbackups irgendwie von hinten durch's Auge in die Brust gewährleisten willst.
 
Fragen die bleiben.
Warum man die Daten nicht auf einem Server ablegt der gegen Ausfallsicherheit geschützt ist.
Denn sonst sind die Daten im Falle eines Fehlers womögich eines ganzen Tages weg.

Geht es nur um 1 PC dann könnte man dort ein RAID verwenden.
Sind es aber mehrere Clients dann würde ich auf jeden Fall eine Serverlösung bevorzugen.
Wobei natürlich auch am Server eine Datensicherung stattfinden muss.

Also mal alles nochmals durchdenken und abwägen.
 
Ein Backup ist wichtig, sowas würde ich nur händisch machen und nicht automatisiert über ein Nas, einmal im Monat sollte man das manuell hinbekommen.
Würde es auch auf eine externe HDD sichern, die Abseits vom restlichen PC/Nas aufbewahrt wird, um Fehler zu vermeiden.
Am besten als komplettes Systemabild sichern, das gleichzeitig direkt bootbar ist, so könnte man die externe Sicherungs HDD einschieben und direkt von dieser booten, bzw. die Sicherung wieder auf die System HDD/SSD spiegeln.
 
Zurück
Oben