Backup-Planung

D

=DarkEagle=

Gast
Moin,
ich muss mein Datensicherungskonzept überdenken:
Es müssen 2 Notebooks (200 GB und 30 GB) und 1 Desktop PC (200 GB) regelmäßig gesichert werden. Das Ganze läuft in einem Gigabit-Ethernet.
Die Sicherung erfolgt auf einen Server (Quadcore-CPU, mehrere 2,5" HDDs und eine 1 3TB HDD).
Ich installiere gerade den Server neu und will automatisierte Backupverfahren auf
den Computern laufen lassen.
Ich habe viele verschiedene Produkte ausprobiert und verschiedene NAS- und Servervarianten. Bei vielen Produkten gab es Probleme beim Zugriff der Backupsoftware auf das Zielsicherungsverzeichnis auf dem NAS/Server.
Das Einzige, was funktionierte, war Acronis True Image auf ein Western Digital (Buffalo) NAS via SMB. Via FTP hat nie wa sgeklappt.

Meine Frage an euch:

Was sind eure Backupverfahren für regelmäßige Sicherungen, die zuverlässig laufen.
Verwendet ihr normale Netzwerkfreigaben von NAS-Geräten oder einen FTP-Server?
Welche Software setzt ihr ein?
Ist die Windows-Sicherung eine Alternative?

Ich würde am liebsten die Sicherung so einrichten, dass ich immer 2 volle Backups habe und wichtige Dateien noch extra via robocopy oder so gesichert werden.

Ist es sinnvoll, WIndows Server 2012 statt Windows Server 2008 R2 in einer Windows 7 Umgebung einzusetzen? WIndows Server 2012 hat ja ne neuere SMB-Version (2.2 glaube ich). Aber lohnt das? Windows 7 wird es ja nicht unterstützen, aber evtl, ist Windows Server2012 performanter bei gleichzeitigen Netzwerkzugriffen.
 
Willst du lediglich Daten vom Laptop sichern oder das gesamte System?
Bei Dateien kannst du ja auch die Ordner welche gewünscht sind auf den Server spiegeln lassen. Hier wäre ein ständiger Abgleich vorhanden wenn du im Netz bist. Wäre die sicherste Variante.

Windows Server 2008 R2 hat die volle Unterstützung zu Windows 7. Zumindest bei Gruppenrichtlinien und dergleichen wirst du keinen Mehrwert haben durch die Version 2012. Hier natürich vorausgesetzt du setzt es überhaupt ein ;)

Viel mehr Vorteil als mit der neuen SMB Version wirst du durch das neue Dateisystem haben. http://technet.microsoft.com/de-de/library/hh831724.aspx
Hier natürlich auch die Frage ob du es überhaupt brauchst.

Software kann ich dir leider nicht weiterhelfen da ich mich nur im Bereich der Serversicherung gut auskenne und alles andere Halbwissen wäre :D
 
Ich will das komplette System sichern und für den Fall, dass die backups defekt sind,
will ich wichtige Arbeitsdokumente noch auf Netzlaufwerken gespiegelt haben.

ReFS hat mich überzeugt. ich nehme den Windows Server 2012.
Bekommt man als Student zum Glück kosten los :-)

Als Backup Programm teste ich am WE mal Paragon.
 
Okay, dann bin ich raus da ich nur die Businesslösungen kenne :)
Ich kenne im Bekanntenkreis einige die das mit Acronis TrueImage und solchen Programmen machen. Wird bestimmt auf Chip und Konsorten einiges in den Charts angeboten :)

Sagst mal Bescheid wie sich das Dateisystem so verhält, da ich noch nicht dazu gekommen bin mir einen Server zum testen aufzuziehen.
 
Na wie es sich im Alltag verhält. Wir haben zum Beispiel ab und an das Phänomen dass er auf dem Server Dateien nicht löschen lässt. Die Erscheinen dann einfach nach dem löschen wieder.

Klappt es reibungslos Dateien darauf zu kopieren, verschieben, löschen und sonstiges. Einfach mal so die allgemeinen Erfahrungen Performance und was auch immer...
Bei uns laufen die auch im Hintergrund....
 
Bei mir werden 4 Rechner auf einem SMB-Share von meinem Server gesichert.
Und der Server wird auf eine externe Platte gesichert.

Der Trick dabei ist: Auf dem Server ist ein Dummy-User angelegt, und alle Rechner melden sich unter diesem Dummy am Server an. So kann es kein Gefrickel mit Zugriffs-Berechtigungen geben :-)

Und das alles mach ich auf den Rechnern zeitgesteuert mit Allways Sync und auf dem Server automatisch sobald die externe Platte erkannt wird, auch mit Allways Sync.
 
Allways Sync kenne ich auch aber damit kann man doch keine kompletten Rechner sichern oder?
Ich verstehe unter kompletten Rechner sichern ein Image welches ich bei einem kompletten Ausfall des Systems einfach wieder zurückspiele, da sind wir auf gleicher Welle oder?
 
Nein, meine Antwort war auf den Datei-Backup-Teil der Frage bezogen.
Komplett-Backups mache ich mit Clonezilla auf den SMB-Share, aber das ist wohl nicht jedermanns Sache, lieber Kohle in Acronis investieren^^
 
r3m4 schrieb:
Na wie es sich im Alltag verhält. Wir haben zum Beispiel ab und an das Phänomen dass er auf dem Server Dateien nicht löschen lässt. Die Erscheinen dann einfach nach dem löschen wieder.

Das hat mit Sicherheit nichts mit dem Dateisystem zu tun. Microsoft hätte ein Problem, wenn das auf den Servern nicht funktionieren würde.

Ich habe ReFS auf den Fileservern und den Hyper-V Hosts laufen. Performancetest finde ich etwas witzlos, da man einen Vergleich mit anderen Dateisystemen bräuchte, und ich habe nicht zweimal die gleiche Hardware. ReFS basiert auf NTFS, sollte somit aber ähnlich sein.
 
Und keinerlei Kompatibilitätsprobleme damit gehabt?
Ich bin selbst bei MS ein wenig skeptisch wenn die schreiben dass alles reibungslos funktionieren soll :D
Gerade bei unseren Fileservern möchte ich da nicht einfach ins blaue hinein was probieren. Sicherlich passiert das nicht immer mit den Fehlversuchen beim löschen. Sonst würde hier das Telefon sturmklingeln, aber es ist durchaus ein paar mal vorgekommen, dass ich auch auf dem Fileserver selbst nicht löschen konnte. Hier hat es vielleicht auch mit den Vorgängerversionen zu tun.
Naja mal schauen was sich alles noch tut, will den thread nicht weiter zumüllen ;-)

Acronis True Image ist auf jeden Fall eine Investition Wert. Hatten wir vor ein paar Jahren mal ausgiebig getestet und es hat reibungslos und "Idiotensicher" funktioniert.

Ich würde mir jedoch im privaten Umfeld die Frage stellen ob ich es wirklich brauche. Glaube dass ein Laptop oder Rechner heutzutage genausoschnell einfach wieder installiert ist wie das Image draufgezogen :P Bei der Gelegenheit macht man dann auch gleich mal wieder sauber und hat die volle Performance.
 
Das, was gesichert wird, sind schon Firmendaten. Mein Bruder macht seine Abrechnungen über seinen Laptop, mein Vater seine ganze Finanzverwaltung, etc. und meine Mutter Sozialverischerungskrams.
Ich hatte bis vor 3 Monaten auch alles in einer Domäme laufen mit servergespeicherten Profilen. Allerdings kam es dann oft dazu, dass die Profile nicht richtig synchronisiert werden konnten und so dann auf einmal Daten weg waren.
Also läuft wieder ein P2P-Netzwerk und der Server soll redundant Daten sichern.
Ich habe auch schon Clonezilla, etc. durchprobiert, allerdings war Acronis True Image das beste Programm für dieses Vorhaben. Clonezilla muss ja immer manuell gesichert werden.
Die Windows-Sicherung hat nicht soviele Optionen, wie ich sie gerne hätte.

"Der Trick dabei ist: Auf dem Server ist ein Dummy-User angelegt, und alle Rechner melden sich unter diesem Dummy am Server an. So kann es kein Gefrickel mit Zugriffs-Berechtigungen geben :-)"

Das habe ich auch gemacht. Allerdings meckert Acronis da in diversen Fällen doch mal rum.
Ich schaue mir mal das Allways Sync an. Und am WE wird endlich Server2012 aufgespielt.
 
Ich würde das auch nicht mit servergespeicherten Profilen, sondern per Folder Redirection machen. Dann hast Du alles auf dem Server und sicherst diesen dann per Windows Backup und ggf. nochmal mit Robocopy oder einem anderen Synctool.

Wenn Du Laptops noch per Agent sichern möchtest, kannst Du Dir Backup Exec anschauen. Das ist aber nicht billig.
 
Bei der Ordnerumleitung solltest du nur bedenken dass sich viele Programme dann außerhalb deiner Domäne nicht mehr ohne weiteres installieren lassen.
Wir hatten zum Beispiel früher die eigenen Dateien auf Z: gelegt und bei Installation ohne Mapping auf Z: hat er dann gemeckert.
Kannst du dann zwar einfach umgehen indem du das einfach auf c: subst aber die feine englische geht anders. Die Ordnerumleitung ist also meiner Meinung nach nur wirklich gut wenn man die überwiegenste Zeit am Server arbeitet und die Dateien auch nicht offline benötigt.
 
Die Ordnerumleitung benutzt keine Laufwerksbuchstaben. Außerdem werden Redirected Folders standardmäßig offline verfügbar gemacht.
 
Wir hatten die Ordnerumleitung eben auf ein gemapptes Laufwerk gemacht, dadurch kamen die Probleme auf.

Seit Windows 7 ist die Ordnerumleitung dann auch nicht auf eine einzelne Richtlinie sondern für jede Bibliothek verteilt worden. Das war der Punkt an dem ich es gelassen habe :)
 
Na wenn du wüsstest. Zu der Zeit war das ganze noch auf Novell mit einer e-Directory. Da waren das die kleinsten Probleme.

Die oben genannten Probleme sind aber erst nach der Migration in unsere AD aufgetaucht ;-)
 
Backup Exec dachte ich immer, sei nur für Server.
Oder kann man das wirklich ohne Probleme für Clients einsetzen?
Wikipedia und Symtanecs Seiten alssen eher drauf schließen,d ass es für Server ist.
 
Zurück
Oben