Notiz MiniTool ShadowMaker Free 4.5: Backup-Tool mit neuer Anzeige für den Backup-Fortschritt

@andy_m4
Wie schon geagt mache ich nur Systembackups/images von der Systempartition C und seltener auch mal von den Partitionen D Spiele und E Sonstiges weil die nicht so wichtig sind. Backups von Fotos, Dokumenten, Musik usw. mach ich keine extra weil das wenige das ich da habe, jedes Mal bei der Sicherung von C mitgesichert wird. Anbei ein Bild welches zeigt, wie wenig ich eigentlich unter Eigene Dateien habe:
Unbenannt.png
 
Zuletzt bearbeitet:
jamesatlick schrieb:
Ist das eine ernst gemeinte Frage?

Ja, war es. Ich habe weiter oben bereits geschrieben, dass ich keine Apple Geräte besitze und daher keine Erfahrung damit habe.

jamesatlick schrieb:
Kann es sein, dass du sehr viel Meinung, aber ziemlich wenig Ahnung hast?

Kann es sein, dass Du sehr viel redest, aber noch weniger Ahnung hast? Das hier ist ein Diskussionsforum, zum Meinungs- und Erfahrungsaustausch. Ich habe nie behauptet, alles zu wissen. Und Gott bewahre, dass ich nicht jedes Detail zu jedem beknackten Stück Software auswendig weiß... :rolleyes:

Finde es ziemlich unverschämt hier direkt jemandem Kompetenz abzusprechen. Bin aus der Diskussion raus und Du landest auf der Ignore Liste. Schönen Tag noch.
 
MaverickM schrieb:
Das halte ich für groben Unsinn. Datei-Backups kann man immer noch separat fahren... Aber wozu, wenn ich System-Images habe, bei denen ich die Dateien auch extrahieren kann?
Wieso "noch separat"?
Das System sichere ich gar nicht (wozu auch?).
Ich hab ein (semi-)scripted Install, womit ich mein System inkl. der darauf installierten Programme neu installieren kann. So spare ich mir das jedes Mal mit zu sichern, was Speicherplatz spart und auch das Backup enorm beschleunigt (ein Tagesbackup dauert deutlich weniger als eine Minute).

MaverickM schrieb:
Nein, wie kommst Du darauf?
Weil das keine Funktionalität des Backup-Programms sein sollte. Wozu auch? Das heißt ja, das Dinge doppelt da sein müssen.

MaverickM schrieb:
Das Mounten von SMB Shares kann unter Windows auch einfach mal borked sein.
Was auch immer "borked" bedeutet.

MaverickM schrieb:
Oder man will den Share mit einem anderen Nutzer ansprechen.
Ich kapiere nicht das Problem, das darin liegen soll.

MaverickM schrieb:
wenn man halt nicht nur auf ein Netzwerk-Share sichern will, braucht man eine Authentifikation so oder so.
Und nu?

MaverickM schrieb:
Microsofts Lösung ist, alles nach OneDrive zu sichern.
Sozusagen Android-Style. :-)

MaverickM schrieb:
Macht Apple das ganze besser?
Keine Ahnung.

MaverickM schrieb:
Von Linux brauchen wir ja sowieso gar nicht erst reden.
Weil ... ?
 
andy_m4 schrieb:
Das System sichere ich gar nicht (wozu auch?).

Weil es keine 15 Minuten dauert, ein System Image einzuspielen, während es bei mir mindestens einen Arbeits-Tag dauert, bis ich ein Windows aufgesetzt habe, Treiber und Programme installiert, und alles so eingerichtet habe, wie ich es brauche.

Selbst wenn ich nicht mit meinem Rechner auch arbeiten würde (Was ich tue), hätte ich keinen Bock, einfach einen Tag zu verplempern, nur weil eine Festplatte ausgefallen ist, oder eine Betriebssystem-Installtion kaputt ist.

andy_m4 schrieb:
Wozu auch? Das heißt ja, das Dinge doppelt da sein müssen.

Gründe, warum, habe ich ja bereits genannt.

andy_m4 schrieb:
Was auch immer "borked" bedeutet.

https://www.urbandictionary.com/define.php?term=borked ;)

Hattest Du noch nie den Fehler, dass Netzlaufwerke zwar eingebunden, aber nicht ansprechbar sind? Und zwar nicht, weil Netzwerk oder das Ziel nicht verfügbar sind. In aller Regel durch einen Neustart behoben, aber das Backup kann dann natürlich nicht durchlaufen, wenn das Programm nur auf eingebundene Netzlaufwerke zugreift, statt direkt auf den SMB Share via Anmelde-Daten.

andy_m4 schrieb:
Ich kapiere nicht das Problem, das darin liegen soll.

Ich auch nicht. Wenn Du nicht bereit bist, für jeden Nutzer einzeln die Netzlaufwerke einzubinden, um darauf dann als Laufwerk zuzugreifen, ist es halt sinnvoller, dass das Programm direkt auf SMB Shares zugreift... Unter Eingabe der Benutzerdaten, die verwendet werden sollen.

andy_m4 schrieb:

Es "das" Linux nicht gibt, und daher auch nicht "die" Linux-OnBoard-Lösung. Alles was Du dir unter Linux installierst, ist per se schon Drittanbieter-Software, wenn es nicht gerade direkt von den Machern der Distro kommt. ;)
 
MaverickM schrieb:
Weil es keine 15 Minuten dauert, ein System Image einzuspielen
Die Geschwindigkeit hatte ich ja bereits als Vorteil von Images genannt.

MaverickM schrieb:
während es bei mir mindestens einen Arbeits-Tag dauert, bis ich ein Windows aufgesetzt habe, Treiber und Programme installiert, und alles so eingerichtet habe, wie ich es brauche.
Das ist aber in erster Linie ein Windows-Nachteil. Das war ja genau mein Punkt. Windows nötigt einem zu komischen Backup-Konzepten (deshalb ist man ja auch teilweise auf Dritt-Tools angewiesen) weil das System nicht straight-forward ist.

Bei mir brauche ich für das Neuaufsetzen vielleicht ne Stunde. Es funktioniert auch an jedem Computer.
Und das Neuaufsetzen funktioniert auch weitgehend unbeaufsichtigt, weil man nix klicken muss oder so.
Die Backup-Zeit ist Im Gegensatz aber recht kurz. Das war ist mir wichtig. Denn Backups macht man sehr viel öfter als Recovery. Daher sollte vorallem das Backup schnell sein. Weil es so schnell geht und den Computer nicht belastet, könnte ich es theoretisch sogar z.B. alle 10 Minuten machen. Wenn dann mal das crasht, dann sind maximal nur die letzten 10 Minuten weg.

MaverickM schrieb:
eine Betriebssystem-Installtion kaputt ist.
Das ist auch so ne Windows-Krankheit, glaub ich. :-)

MaverickM schrieb:
wenn das Programm nur auf eingebundene Netzlaufwerke zugreift, statt direkt auf den SMB Share via Anmelde-Daten.
Wieso sollte das Backup-Programm zwingend nur auf eingebundene Netzlaufwerke zugreifen?
Es ist ohnehin nicht gut, wenn man das Backup-Laufwerk fest eingebunden hat, weil ein Zugriff (durch versehen, durch Bugs, durch Schadsoftware) ja auch Backup-Daten kaputt machen kann.
Idealerweise bindet man das SMB-Share ein, wenn man das Backup macht. Und man bindet das idealerweise so ein, das der normaler User der an dem Rechner sitzt auch während des Backups nicht drauf zugreifen kann.

MaverickM schrieb:
Gründe, warum, habe ich ja bereits genannt.
Dann hab ich den Grund immer noch nicht so ganz verstanden.
Also warum muss jetzt Programmcode doppelt vorhanden sein? Das bedeutet doch nur potentielle Fehleranfälligkeit.

Wo eine solche Redundanz sinnvoll ist, wenn ich irgendwie ein Problem mit dem System selbst hab. So ne Rettungskonsole oder sowas. Die bringen gerne ihren eigenen Kram mit, weil man damit rechnen muss, das die Libs auf dem System kaputt sind und deshalb nicht mehr ordentlich funktionieren.

MaverickM schrieb:
Es "das" Linux nicht gibt, und daher auch nicht "die" Linux-OnBoard-Lösung.
Ja gut. So gesehen hast Du natürlich Recht. :-)
Aber es gibt so ein Set an Basistools, die so ziemlich jede Linux-Distribution mitbringt (jetzt mal von irgendwelchen Spezial Embedded-Distributionen die auf geringstmöglichen Speicherplatzverbrauch hin optimiert sind). Das heißt, Du hast irgendwie immer ein Paketmanager, womit Du die Programminstallation automatisch ablaufen lassen kannst. Du hast sowas wie tar, rsync und Co, womit Du Dir ein Backup bauen kannst.

Im Prinzip ginge das so ähnlich mit Windows auch. Aber die Windows-Eigenheiten machen es dann doch letztendlich schwierig. Unter Linux reicht es ja im Prinzip /home/ zu sichern und von mir aus noch die globalen Einstellungen, die unter /etc/ zu finden sind. Und da reicht es auch einfach die Dateien zu sichern. Im Prinzip würde es sogar ein primitives copy tun.
 
andy_m4 schrieb:
Das ist aber in erster Linie ein Windows-Nachteil.

Nein, wieso? Das was am meisten frisst, ist das Einstellen der Programme selbst, nicht die reine Installation. Die könnte man ja automatisieren... Für was gibt es winget.

Aber viele Programme liefern keine Möglichkeit mit, Einstellungen zu Exportieren, erfordern Anmeldungen weil Abo oder Lizenz etc...

andy_m4 schrieb:
Die Backup-Zeit ist Im Gegensatz aber recht kurz.

Ich nutze Acronis, ein inkrementelles System-Backup mit 7 vorgehaltenen Versionen wird bei mir Montags und Freitags gefahren. Das läuft im Hintergrund, ich kriege da überhaupt nichts von mit. Das zieht auch keine Leistung irgendwo ab, zumindest nicht, dass es mir auffallen würde.

Meine Dateien lagern ohnehin alle auf dem NAS, wo sie alle 3h gesichert werden, mit Versions-Archiv 6 Monate zurück.

Im Falle eines Ausfalls bin ich somit innerhalb von maximal 15-30 Minuten wieder an der Arbeit.

andy_m4 schrieb:
Das ist auch so ne Windows-Krankheit

Als ob man sich ein Linux nicht zerschießen könnte...

andy_m4 schrieb:
Wieso sollte das Backup-Programm zwingend nur auf eingebundene Netzlaufwerke zugreifen?

Wenn es nicht direkt auf SMB Shares zugreift, wie denn sonst!? Bleibt doch nur der Zugriff über "lokale" Laufwerke, sprich dann ein eingebundenes Laufwerk.

andy_m4 schrieb:
Idealerweise bindet man das SMB-Share ein, wenn man das Backup macht.

Und dafür nutzt Du dann ein extra Script in der Aufgabenplanung!? Also doch wieder etwas extra? :rolleyes:

andy_m4 schrieb:
Im Prinzip ginge das so ähnlich mit Windows auch. Aber die Windows-Eigenheiten machen es dann doch letztendlich schwierig. Unter Linux reicht es ja im Prinzip /home/ zu sichern und von mir aus noch die globalen Einstellungen, die unter /etc/ zu finden sind.

Das würde auch unter Windows funktionieren, wenn nicht ein Rattenschwanz an Altprogrammen und -Architektur mitgezogen werden müsste, inklusive Entwickler, die sich an keine Konventionen halten. Gibt genug Programme, die nach wie vor außerhalb der users\ und %appdata% Ordner speichern.
 
MaverickM schrieb:
Das was am meisten frisst, ist das Einstellen der Programme selbst, nicht die reine Installation
Ja. Schon klar. Nur bei UNIX-artigen System liegen die Einstellungen einfach in Deinem Home-Verzeichnis. Wenn Du das "kopierst", sicherst Du die Einstellungen gleich mit. Wenn Du das zurück kopierst, sind alle Einstellungen wieder da.
Da gibts keine kruden Speicher an die man nicht richtig rankommt wie unter Windows beispielsweise die Registry.

MaverickM schrieb:
erfordern Anmeldungen weil Abo oder Lizenz etc...
Ja. Das ist in der Tat echt ne Seuche. Das haben sich die entsprechenden User aber auch selber eingebrockt.
Wenn ihr den Herstellern das durchgehen lasst, das die euch mit so nem Sch**ß behelligen, dann lassen die das halt drin (und machens immer schlimmer).

MaverickM schrieb:
Ich nutze Acronis, ein inkrementelles System-Backup
Inkrementell ist eher doof, weil man dann ja das Basis-Backup plus alle nachfolgenden Änderungen zurückspielen muss.

MaverickM schrieb:
Meine Dateien lagern ohnehin alle auf dem NAS, wo sie alle 3h gesichert werden, mit Versions-Archiv 6 Monate zurück.
Nad as ist ja jetzt ein wenig gecheatet. Die eigentlich wichtigen Daten liegen also gar nicht auf einer klapprigen Windows-Mühle. Verstehe. :-)

MaverickM schrieb:
Als ob man sich ein Linux nicht zerschießen könnte...
Kann man durchaus. Allerdings kann man mit entsprechenden Maßnahmen die Möglichkeiten doch recht eindämmen.
Aber selbst ohne die hat man gute Chancen sein System wieder gerade ziehen.

MaverickM schrieb:
Wenn es nicht direkt auf SMB Shares zugreift, wie denn sonst!?
Wie schon gesagt: Man holt sich das Share, wenn man es braucht und bindet es nicht fest ein.
Unglücklicherweise hat ja Windows das Konzept mit den Laufwerksbuchstaben. Unter UNIX-like-Systemen kann man das irgendwo hin mounten. Das kann auch ein separater Namespace sein, den der User nicht sieht und wo es dann auch keine Kollisionen geben kann mit bereits vergebenen Namen.

MaverickM schrieb:
Und dafür nutzt Du dann ein extra Script in der Aufgabenplanung!? Also doch wieder etwas extra?
Gegen extra hab ich gar nix gesagt.
Im Gegenteil. Das ist völlig in Einklang mit dem, was ich sagte. Das Backup-Tool kümmert sich nur um Backups. Das zur Verfügung stellen des Backup-Spaces übernimmt das System.

MaverickM schrieb:
Das würde auch unter Windows funktionieren, wenn nicht ein Rattenschwanz an Altprogrammen und -Architektur mitgezogen werden müsste,
Sag ich ja.
 
andy_m4 schrieb:
Das ist völlig in Einklang mit dem, was ich sagte. Das Backup-Tool kümmert sich nur um Backups. Das zur Verfügung stellen des Backup-Spaces übernimmt das System.

Das erscheint mir umständlich und fügt aus meiner Sicht einen weiteren Point-of-Failure hinzu. Da kann ich auch genausogut das Mounten/den Zugriff der Backup-Software überlassen.
 
Wie kommst Du darauf, das das die Backup-Software besser kann als das "System" ?

Noch mal ne Bemerkung zum zerschossenen System und so, weil mir das grad noch eingefallen ist. Ich hab nämlich noch mal überlegt, wann es mir zuletzt passiert ist, das ich mir ein System so zerschossen hab, das ne Neuinstallation notwendig war (oder zumindest die Reparatur droht zeitintensiv zu werden, so das eine Neuinstallation besser war). Diese Fälle sind ziemlich selten.
Im Gegenteil. Ich hatte sogar mal eine Desktop-Installation die einen Wechsel von 32-Bit auf 64-Bit mitmachen sollte. Also aus dem laufenden System heraus. Nur mal um zu gucken: Wie weit kann mans treiben. :-)
Und selbst das hat geklappt.

Apropos Architekturwechsel. Mein Recovery-Konzept funktioniert, dadurch das keine Systemdateien/Programme gesichert werden, auch architekturübergreifend. Hab hier noch ein Raspberry Pi rumfliegen (ist zwar vergleichsweise langsam, aber im Notfall besser als gar nichts zu haben). Wenn ich also jetzt irgendwie Kaffee übers Mainboard kippe und will aber zeitnah einen funktionstüchtigen Rechner haben, dann recovere ich einfach da drauf. Wie gut würde das denn mit Deinem Acronis-Image funktionieren? ;-)
 
Ich nutze Acronis, ein inkrementelles System-Backup
Inkrementell ist eher doof, weil man dann ja das Basis-Backup plus alle nachfolgenden Änderungen zurückspielen muss.
Vorab: ich nutze kein Linux und habe bestimmt nicht so viel Ahnung wie ihr zwei. Ich mache meine Windows Backups/Images immer manuell wenn ich gerade Lust dazu habe so ungefähr alle 2 Wochen und ich mache immer sog. Vollbackups/images von Windows die dann ungefähr 32-35 GB groß werden und wenn ich ein solches mit dem Boot Medium einspiele, dauert das ungefähr 20 Minuten geschätzt(hab die Zeit noch nie gemessen)und dann ist Windows wieder mit dem Zeitpunkt wo das Backup/image gemacht wurde und ich muss mir kein Basis Backup/image aufbewahren so wie bei inkrementiellen Backups. Eines noch: andy_m4: ich zeigte dir ja kürzlich die Verzeichnisse von Eigene Dateien die immer mitgesichert werden. Dazu wollte ich noch sagen bei Dokumente ist da SimBin drin von meinen Race 07 Rennsimulationen und alleine das belegt bei Dokumente 11,1 GB weil ich da so viele Fahrzeugskins drin habe und auch ReplayData darin bläht sich immer mehr auf mit der Zeit bis dich die Replay Daten wieder mal lösche weil ich die nicht mehr brauche.
 
Jeder muss natürlich für sich sein eigenes Backup-Konzept finden. Denn die Voraussetzungen als auch die Anforderungen sind ja individuell durchaus unterschiedlich.

Ich hab ja so ein paar Regeln, an dem ich mich orientiere, wenn ich mir ein Backup-Konzept überlege. Die werden zwar nicht alle strikt eingehalten und manche widersprechen sich auch, aber so als Richtschnur hat sich das bewährt.

Die für das Backup benötigten Programme sollten möglichst simpel sein. Umso komplexer die Geschichte wird, umso mehr Raum für Fehler ist da. Außerdem ist sollte der Prozess als Solches transparent sein.

Das Backup selbst sollte möglichst "plain" sein (Idealfall sind einfach nur Dateien). Denn ich möchte ans Backup möglichst problemlos ran kommen. Wenn ich da irgendwie auf ein Spezialtool angewiesen bin und sich das Backup auch gar nicht anders zugänglich ist, dann gibt das schon mal "Punktabzug". Möchte nicht im Notfall ohne Daten da stehen, nur weil das Backup/Recovery-Tools nicht funktioniert oder es aus Gründen gerade nicht zur Hand ist. Oder nicht funktioniert, weil irgendeine Lizenz abgelaufen ist oder so ein Sch**ß.

Die Software sollte flexibel sein. Ich möchte nicht in bestimmten Aspekten davon abhängig sein, was das BackupProgramm kann (siehe dazu auch die Backup-Ziel-Diskussion).

Das Backup sollte versioniert sein. Wenn mir ne Datei kaputt geht, soll die nicht die intakte Datei in meinem Backup überschreiben.

Das Backup muss zeit-effizient sein. Wenns lange dauert, ists doof weil dann mache ich das evtl. weniger oft.
Das Backup muss space-effizient sein. Umso weniger Speicherplatz es verbraucht, umso einfacher ist das Handling.

Das Backup muss einfach zu verifizieren sein. Mir nützt kein Backup was, wenn das Recovery daran scheitert, das das Backup nicht sauber funktioniert hat.

Im Backup sollten wirklich nur die Daten enthalten sein, die sicherungswürdig sind. Irgendwelche temporären Geschichten haben nix darin verloren. Systemdateien (also Dateien, die man sich problemlos wieder besorgen kann; und die im Zweifel eh veraltet sind) auch nicht. Das hilft auch bei der Space-effizienz und macht die Sache übersichtlicher.

Das Recovery sollte unabhängig von der Computer funktionieren. Wenn ich es bloß auf die selbe Hardware zurücksichern kann ist doof, weil das Backup ja auch den Fall abdecken soll, das mein Computer "geschrottet" ist.

Das Backup soll sicher sein. Was mein ich damit? Naja. So die typischen Backup-Vorgehensweisen a-la "ich schließe meine externe Festplatte an und mach darauf mein Backup" sind eher suboptimal. Was ist, wenn ich eine Malware hab und die bleibt schön im Hintergrund bis dann meine Backup-Platte dran ist und zerstört dann gleichzeitig mein Backup und meine Daten? Wäre doof. Ganz ideal löst man das als Pull-Backup. Das der zu sichernde Rechner sich gar nicht darum kümmern muss.
Eine mögliche Alternative ist ein Live-System das ich zum Zwecke des Backups boote. Wo ich weiß, das System ist sauber und deren einziger Zweck ist auch nur das Backup. Oder man nimmt einen Kompromissweg. Das man so was wie ein Backup-User-Account hat.

An all das angeschlossen sind natürlich noch organisatorische Maßnahmen (Backup-Redudanz etc. damit man z.B: nicht nur ein Backup im eigenen Haus hat).
 
Zuletzt bearbeitet:
Wenn ich da irgendwie auf ein Spezialtool angewiesen bin und sich das Backup auch gar nicht anders zugänglich ist, dann gibt das schon mal "Punktabzug". Möchte nicht im Notfall ohne Daten da stehen, nur weil das Backup/Recovery-Tools nicht funktioniert oder es aus Gründen gerade nicht zur Hand ist. Oder nicht funktioniert, weil irgendeine Lizenz abgelaufen ist oder so ein Sch**ß.
Wie du ja mittlerweile weisst, nutze ich Aomei Backupper Pro und das gerade mit der Version 7.3.3 und ich habe hier noch ein Linux basiertes Boot Medium das bei meinem alten PC noch geladen wird, von der Version 4.0.6 und mit dem alten Boot Medium(habe auch neuere Version da und welche als Windows PE Boot Medium)kann ich noch Windows Systembackups erfogreich einspielen die mit neueren Backupper Versionen gemacht wurden.
 
Es fängt mit dem falschen Gebrauch des Worts rudimentär an, und beim darauf hinweisen kommt ne Ausrede.
MaverickM schrieb:
Vielleicht war es etwas falsch ausgedrückt. Aber ich habe ja erklärt, was ich gemeint habe.
Dann werden falsche Dinge behauptet
MaverickM schrieb:
Aber mein Punkt ist, dass Veeam halt eine Server-Struktur voraussetzt. Es braucht zweingend einen SQL Server, um zu funktionieren
nochmals falsch
MaverickM schrieb:
Und hat aber eben gleichzeitig einige Funktionen nicht, die Tools für Endanwender/Workstations aber bieten.
und nochmals falsch
MaverickM schrieb:
Man kann damit auch nur einfache Images erstellen
Dann folgt ein falsches Verständnis der Produkte
MaverickM schrieb:
und nochmals daneben
MaverickM schrieb:
Dinge wie die Integration in die Windows-Reparaturumgebung
plus noch bisschen Apple anzweifeln und Linux Kritik, vermutlich weil man einfach keinen Plan hat wie Linux funktioniert (Einstellungen in ini gesichert, da braucht es nicht wie bei dir einen Tag um Windows zu konfigurieren)
MaverickM schrieb:
Von Linux brauchen wir ja sowieso gar nicht erst reden.
Und dann zum krönenden Abschluss
MaverickM schrieb:
Ich habe nie behauptet, alles zu wissen.
dafür haben wir aber ziemlich viele falsche Behauptungen von Dir gehört.
MaverickM schrieb:
Und Gott bewahre, dass ich nicht jedes Detail zu jedem beknackten Stück Software auswendig weiß... :rolleyes:
Schau Maverick, es gäbe einen einfachen Trick. Stelle Frage, anstatt Behauptungen aufzustellen.
Zwischen
"Kann Veeam nur images?"
und
"Veeam kann nur images!"
besteht ein Unterschied.

Ist zudem auch nicht fair anderen Forenusern gegenüber. Die könnten noch meinen, das wäre eine fundierte Aussage und nicht einfach eine leere Behauptung über eine Software, die du nicht auswendig kennst.
 
andy_m4 schrieb:
Diese Fälle sind ziemlich selten.

Es ist Jahre her, dass ich ein Backup einspielen musste. Auch ein Defekt ist schon länger her, im NAS. Ersatzplätze eingesetzt, Rebuild des Arrays angeschlossen und gut.

Mir ist auch eine der SSDs im Arbeitsrechner letzteres Jahr abgeschmiert. Da waren aber nur Spiele Installationen drauf, die einfach nur von Steam neu installiert wurden.

Aber nur weil ich es nicht oft brauche, heißt das nicht, dass kein Backup zu machen eine gute Idee ist. Denn wenn man keines hat, braucht man es garantiert... ;)

andy_m4 schrieb:
Wie gut würde das denn mit Deinem Acronis-Image funktionieren? ;-)

Wiederherstellung auf abweichender Hardware kann fast jede Software dieser Art. Und ja, das funktioniert auch.

Und zum Thema unabhängig/universell: Ein Recovery Medium sollte man natürlich immer haben, egal welches Tool man verwendet. Es ist unsinnig davon auszugehen, dass man es nicht zur Hand hat. Das wäre das gleiche Argument wie "Ich hab aber keinen Schraubenzieher"...

Abgesehen davon kann Acronis bspw. auch andere Formate, wie etwa VHD als Backup Container erstellen. Damit ließen sich die Backups auch mit Windows Boardmitteln öffnen oder man kann das Image mit einer VM wie Virtual Box booten.
 
MaverickM schrieb:
Aber nur weil ich es nicht oft brauche, heißt das nicht, dass kein Backup zu machen eine gute Idee ist. Denn wenn man keines hat, braucht man es garantiert...
Wie gesagt: Ich habe ein Backup. Nur liegt mein Schwerpunkt nicht so sehr darauf, das das Recovery schnell ist. Die Wiederherstellung läuft - wie bereits gesagt - semiautomatisch. Ich muss also nicht daneben stehen.
Muss ich jetzt sofort weiter arbeiten können, hab ich auch noch ein Ausweichgerät.

MaverickM schrieb:
Wiederherstellung auf abweichender Hardware kann fast jede Software dieser Art. Und ja, das funktioniert auch.
Ich bezweifle jetzt erst mal bis zur Belegung des Gegenteils, das Ein Windows-Image von nem x86-PC auf nem Raspberry Pi wiederherstellbar ist.

MaverickM schrieb:
Ein Recovery Medium sollte man natürlich immer haben, egal welches Tool man verwendet.
Sollte man. Erfahrungsgemäß ist es aber so, das im Fall des Falles sich nicht unbedingt alles so verhält, wie man es vorher überlegt hat. Und dann ist es gut, wenn man trotzdem reagieren kann.

MaverickM schrieb:
Abgesehen davon kann Acronis bspw. auch andere Formate, wie etwa VHD als Backup Container erstellen. Damit ließen sich die Backups auch mit Windows Boardmitteln öffnen oder man kann das Image mit einer VM wie Virtual Box booten.
Ich will vielleicht nur ne einzelne Datei rausholen, weil genau die ich jetzt brauche und das Backup-System nötigt mich dann zum booten oder irgendwie ein Image in einem lauffähigen Windows (was ich ja nicht unbedingt habe; insbesondere im Fall wo ich Recovery brauche). Ähm .. really?

Wie gesagt. Du kannst es ja gerne so machen und ist ja auch alles in Ordnung. Aber versuche mir das nicht an Stellen, wo es offensichtlich kein Vorteil ist noch als Vorteil zu verkaufen.
 
andy_m4 schrieb:
Nur liegt mein Schwerpunkt nicht so sehr darauf, das das Recovery schnell ist.

Das ist keine Option für jemanden, der mit dem Gerät arbeiten und seine Brötchen verdienen will/muss.

Selbst Privat habe ich besseres zu tun, als meine Zeit mit der Wiederherstellung von Backups zu verschwenden, sofern nicht unbedingt notwendig.

andy_m4 schrieb:
Ein Windows-Image von nem x86-PC auf nem Raspberry Pi wiederherstellbar

Seit wann läuft x86 Windows auf einem Pi? Wieso sollte man so etwas machen? :watt:

andy_m4 schrieb:
Erfahrungsgemäß ist es aber so

Erfahrungsgemäß haben die meisten Leute nicht mal Backups irgendeiner Art. Zur Backup-Vorbereitung gehört auch, dass man ein Wiederherstellungsmedium erstellt. Was man natürlich auch genauso gut nachher machen kann, spielt ja keine Rolle. Viele der gängigen Tools haben sogar die Option, eine Kopie der Software lauffähig direkt auf dem Backup-Medium zu erstellen, während das Backup durch läuft.

andy_m4 schrieb:
Ich will vielleicht nur ne einzelne Datei rausholen

Was Du bei dein meisten Tools (Wie eingangs erwähnt, bei Minitool Shadowmaker hier geht das nicht) jederzeit kannst. Dazu muss bei bspw. Acronis nur das Programm installiert sein und schon kann ich ohne Probleme im Explorer die Backup Datei öffnen und einzelne Dateien rausziehen. Versionierung inklusive, wenn das Backup-Schema richtig eingestellt ist.
Und wenn ich das anstatt als Hersteller-eigenes Format in bspw. VHD abspeichere, muss ich nicht einmal irgendwas installieren. Windows kann seit geraumer Zeit VHD direkt als Laufwerk mounten und ich habe vollen Zugriff auf meine Dateien.
 
MaverickM schrieb:
Selbst Privat habe ich besseres zu tun, als meine Zeit mit der Wiederherstellung von Backups zu verschwenden, sofern nicht unbedingt notwendig.
Na was machst Du denn konkret, wenn bei Dir zum Beispiel das Mainboard kaputt geht? Hast Du immer ein vollwertiges Ersatzgerät zur Verfügung?
Und Zeitverschwendung ist halt die Art der Betrachtungsweise. Wenn ich mit meinem Hauptrechner mal nicht arbeiten kann, dann ist das das verschmerzbar. Wie bereits gesagt: Zur Not kann ich auch an nem Raspberry Pi meine Sachen erledigen.
Einen wirklichen Ersatzrechner vorzuhalten mache ich auch, wenns drauf ankommt. Aber so im privaten Rahmen eher nicht.

MaverickM schrieb:
Seit wann läuft x86 Windows auf einem Pi? Wieso sollte man so etwas machen?
Ja eben.
Und wenn Du was nicht verstehst, dann lies vielleicht noch mal die ganzen Postings dazu. Und wenn Du dann immer noch nicht verstehst, dann darfst Du gerne noch mal nachfragen.
Ich hatte nämlich schon beim letzten Posting das Gefühl, das Du die Beiträge nicht wirklich richtig liest. Und dann bringt es ja auch nichts, wenn ich alles NOCHMALS schildere.

MaverickM schrieb:
Erfahrungsgemäß haben die meisten Leute nicht mal Backups irgendeiner Art.
Ja. Das ist ja auch unbestritten.
Und natürlich ist es immer besser irgendwas zu haben als gar nichts.

MaverickM schrieb:
Zur Backup-Vorbereitung gehört auch, dass man ein Wiederherstellungsmedium erstellt. Was man natürlich auch genauso gut nachher machen kann, spielt ja keine Rolle.
Wie gesagt. Es können verschiedenste Sachen schief gehen. Ich hab da schon die dollsten Dinger erlebt. Das da das Recovery nicht funktioniert hat, weil die "Image"-Datei beschädigt war und solche Sachen.
Spezialformate sind halt immer eine zusätzliche Sollbruchstelle. Wenn man die vermeiden kann, vermeidet man die. Backups sollten robust wie möglich sein, so das die auch zugreifbar sind, wenn die Dinge nicht glatt laufen.

MaverickM schrieb:
Dazu muss bei bspw. Acronis nur das Programm installiert sein
Jaja. Nur das Programm installiert. Siehste. Genau sowas mein ich.

MaverickM schrieb:
Und wenn ich das anstatt als Hersteller-eigenes Format in bspw. VHD abspeichere, muss ich nicht einmal irgendwas installieren. Windows kann seit geraumer Zeit VHD direkt als Laufwerk mounten und ich habe vollen Zugriff auf meine Dateien.
Ist irgendwie doof wenn Du meine Postings nicht richtig liest und ich mich ständig wiederholen muss:
Wenn ich erst ein funktionstüchtiges Windows haben muss, dann ist das im Fall des Falles ungünstig. Der Recovery-Fall ist ja häufig genau der, wo ich gar nichts habe weil mir mein Rechner den ich "recovern" will, kaputt gegangen ist. Da habe ich also in dem Moment selbstredend kein lauffähiges Windows.
 
  • Gefällt mir
Reaktionen: ElisaMüller
andy_m4 schrieb:
Na was machst Du denn konkret, wenn bei Dir zum Beispiel das Mainboard kaputt geht? Hast Du immer ein vollwertiges Ersatzgerät zur Verfügung?

Ich bestelle per Express ein Mainboard, das dann am nächsten Tag da ist. Oder - wenn terminlicher Zeitdruck - beisse ich in den sauren Apfel und kaufe in einem Lokalen Laden dann etwas... Meisst dann ja zu überzogenen Preisen.

Das sind aber eher unwahrscheinliche Fälle. Und wenn es sooo dringend wäre, hätte ich wahrscheinlich tatsächlich einen vollwertigen Ersatz für den Fall der Fälle hier. Das erscheint mir aber persönlich für mich zu viel... Einen Tag lang kann ich auch die Arbeit verschieben oder etwas anderes erledigen, was mit einem anderen Gerät auch funktioniert.

andy_m4 schrieb:
Ich hatte nämlich schon beim letzten Posting das Gefühl, das Du die Beiträge nicht wirklich richtig liest.

Vielleicht solltest Du das lieber selber beherzigen? Ich hab mir jetzt extra nochmal den gesamten Kontext angeschaut... Und meine Aussage steht. Wenn Du ein Image auf Abweichende Hardware wiederherstellen willst, macht man das in aller Regel nicht mit komplettem Architekturwechsel. Und wenn Du nur die Backup-Dateien brauchst, kannst Du auch nur einzelne Dateien aus dem Image ziehen.

Mein Argument wäre hier sogar, dass die Dateien eigentlich ohnehin eher auf ein NAS gehören, als eine Workstation... Aber nicht jeder hat so einen Workflow, also lasse ich das mal einfach so dahingestellt.

andy_m4 schrieb:
Das da das Recovery nicht funktioniert hat, weil die "Image"-Datei beschädigt war und solche Sachen.

Dafür werden die Backup-Dateien regelmäßig verifiziert. Das ist ein Haken in den Einstellungen des Backup-Jobs und gut ist. Und dafür, dass das Backup-Medium nicht kaputt ist (Defekte HDD/SSD oder was auch immer), musst Du halt selbst sorgen. Das nimmt dir niemand ab. Egal, wie Du deine Backups erstellst.

andy_m4 schrieb:
Wenn ich erst ein funktionstüchtiges Windows haben muss, dann ist das im Fall des Falles ungünstig.

Wieso brauchst Du ein funktionstüchtiges Windows? Es reicht ein bootbares Medium... Egal ob ein WinPE, ein Live-Linux oder sonstiges. Oder willst Du deine Daten analog irgendwo mit Morse-Zeichen wiederherstellen...!? :rolleyes:

andy_m4 schrieb:
Da habe ich also in dem Moment selbstredend kein lauffähiges Windows.

Siehe oben. Welches OS ist egal. Und wenn Du da gar nichts hast, dann kannst Du auch keine Daten wiederherstellen.


Mir kommt es eher so vor, als würdest Du krampfhaft versuchen, hier irgendwelche Gegenargumente an den Haaren herbei zu ziehen. Laufwerk-Imaging ist gängige Praxis seit vielen Jahrzehnten, nicht nur im Privatbereich, sondern vor allem auch im Business-Umfeld, wo man keine Zeit hat, manuell rumzuhantieren. Wenn Du mit deiner Methode klar kommst, und für dich das ausreichend ist, ist das ja schön und gut, aber versuch nicht zu behaupten, dass alles andere falsch sei... Denn das stimmt schlichtweg nicht.
 
MaverickM schrieb:
Ich glaube, ich muss da wirklich noch mal was klar stellen:

Egal wie man das Backup macht, jede Vorgehensweise hat ihre Vor- und Nachteile. Und je nach der eigenen Situation, kommen die Nachteile entweder nicht zum tragen oder man nimmt sie (aus was für Gründen auch immer) in Kauf (beispielsweise weil ne praktikablere Alternative insgesamt noch schlechter dar steht oder weil man keine Lust hat die Backup-Vorgehensweise umzustellen oder oder oder).
Das ist auch alles in Ordnung, aber die Nachteile bleiben halt trotzdem unter gewisser objektiver Betrachtungsweise Nachteile. So weit, so undramatisch.

Meine These ist, das Images als Sicherung nur einen Vorteil haben. Nämlich die schnelle Geamt-Wiederherstellbarkeit. Und das aber auch nur, wenn man gewisse Voraussetzungen erfüllt (nämlich funktionstüchtige Hardware zur Verfügung hat, die zum Image kompatibel ist; muss nicht notwendigerweise identische Hardware sein). Sonst haben Images nur Nachteile. Wobei Windows Images etwas besser darstehen lässst, weil Windows sich schwer "backupen" lässt.
Jedenfalls das war meine These. Und um die zu untermauern, hab ich halt nach ein paar Nachteile aufgezählt und erklärt warum die Nachteile Nachteile sind.

Wenn jetzt also von Dir Argumente kommen a-la "der Nachteil ist nicht so schlimm, weil ...". Dann würde ich Dir den Punkt zugestehen. Ändert aber nix daran, das es ein Nachteil bleibt (auch wenn der im individuellen Fall nicht so schlimm ist). Und ist auch für mich für die Diskussion nicht interessant, weil ich es nie in Abrede stellen würde, das ein einzelner Nachteil im Einzelfall nicht so schlimm ist.

Mir ging es eher darum, grundsätzliche Vorteile/Nachteile aufzuzeigen.
Wenn ich da was nicht richtig erzähle, dann darf man mich gerne korrigieren. Alles andere finde ich jetzt aber eher unspannend weil da keine wirkliche Differenz besteht.
 
  • Gefällt mir
Reaktionen: ElisaMüller
Um trotzdem noch auf paar Deiner Punkte einzugehen:
MaverickM schrieb:
Wieso brauchst Du ein funktionstüchtiges Windows?
Brauchst Du. Du behauptest ja auch nix anderes. Und sei es nur ein Live-Boot-System.
Aber ja. Da hast Du Recht.
Aber wie gesagt: Selbst wenn Du Dinge abmilderst, bleibt die Grundproblematik. Nämlich umso mehr Formate involviert sind, umso größer die Chance das etwas unter Umständen nicht klappt. Das lässt sich auch nicht wegdiskutieren.

MaverickM schrieb:
Laufwerk-Imaging ist gängige Praxis seit vielen Jahrzehnten, nicht nur im Privatbereich, sondern vor allem auch im Business-Umfeld, wo man keine Zeit hat, manuell rumzuhantieren.
Ja. Mag ja sein. Das ist aber den Besonderheiten/Ungünstigkeiten von Windows geschuldet und liegt nicht daran, das Images grundsätzlich(!) eine tolle Sache wären.

MaverickM schrieb:
wo man keine Zeit hat, manuell rumzuhantieren.
Im Grunde könnte ich die Reinstallation auch vollautomatisieren. Das ist eher eine bewusste Entscheidung dies nicht zu tun. Wenn schnelle Wiederherstellung wichtig ist (z.B. im Businessumfeld) würde man das noch weiter automatisieren und dann haben Images selbst beim Recovery kaum noch Geschwindigkeitsvorteile.

Man darf ja auch nicht vergessen, das es neben Hardwaredefekt auch noch viele andere Vorkommnisse gibt, weshalb man Recovery braucht. Zum Beispiel eine Infektion mit Schadsoftware. Das verbietet dann das letzte Image wiederherzustellen (was möglicherweise schon verseucht war). Man muss also ein altes Image wieder herstellen. Das muss man dann erst softwaremäßig updaten, damit es auf den neusten Stand ist. Dann muss man noch die Daten aus dem aktuellsten Image herausfischen, weil man ja nicht uralt Daten haben will.
Und schon ist der Geschwindigkeits- und Recovery-Komfort-Vorteil von Images wieder weg.

;) Mir kommt es so vor, als würdest Du Images krampfhaft verteidigen wollen und deshalb ständig Nachteile relativieren und Szenarien ausblenden. ;)
 
  • Gefällt mir
Reaktionen: ElisaMüller
Zurück
Oben