Hallo Leute,
ich schlage mich seit Tagen mit einem Problem herum und komme doch nicht auf einen grünen Zweig. Jetzt hatte ich gehofft, dass mir vielleicht jemand mit mehr Erfahrung in der Materie ein paar gute Denkanstöße geben könnte. Deshalb bin ich hier im Forum gelandet.
Gleich vorweg, ich bin kein IT-Profi. Bitte um Nachsicht. Mein "Wissen" habe ich mir in Forenbeiträgen und Wikipedia-Artikeln angelesen und ist rein theoretischer Natur. Mir ist auch bewusst, dass meine bisherige Lösung nicht optimal ist. Es ist halt eine Heimanwenderlösung, die sich über die Jahre als für mich praktikabel erwiesen hat, ob sie auch sinnvoll ist, sollt ihr mir sagen.
Meine aktuelle Situation schaut so aus, dass mein Hauptrechner an seine Speicherkapazitätsgrenze stößt. Alle Laufwerke sind über 90% voll. Wenn ich zusätzliche Speicherkapazität in meinem Hauptrechner hinzufüge, reicht auch die Kapazität meiner Backup-Laufwerke nicht mehr aus. Also muss ich auch da Geld in die Hand nehmen. Kurzum, es wird Zeit zu investieren und das ganze Speicher- und Backupkonzept neu zu überdenken.
Ich beschreibe mal kurz, wie ich bisher vorgegangen bin und hätte dann gerne Feedback, ob die Strategie grundsätzlich in Ordnung ist bzw. wo noch Verbesserungspotential besteht. Dann würde ich meine Strategie entsprechend anpassen und passende Hardware anschaffen.
Auf meinem Hauptrechner (reines Linux Mint-System) liegen ca. 4 TB Daten. Teilweise archivierte Videos und Fotos, an denen sich eigentlich nichts mehr ändert, und teilweise Nutzdaten, wo ständig was dazu und weg kommt. Bisher hatte ich für jedes Laufwerk mit Daten eine mindestens gleich große Festplatte im Rechner verbaut, die nur zum Datensichern gemountet wurde. Verwendet wird dafür das Programm BackInTime, das mit Hardlinks arbeitet. Es erzeugt Snapshots, wo nur die geänderten Dateien neu gesichert werden müssen, auf die unveränderten Daten werden Hardlinks gesetzt. Vorteil: jeder Snapshot enthält alle Daten und kann mit einem normalen Dateimanager durchsucht werden. Einzelne Dateien oder ganze Ordner können einfach kopiert und wiederhergestellt werden. Die Festplatte mit den gesicherten Daten kann an jedes System angestöpselt und ohne spezielle Hardware (z.B. Raidcontroller) oder Software ausgelesen werden. Die Sicherungsdaten sind aktuell unverschlüsselt und unkomprimiert. Durch die Snapshots habe ich hier immer zumindest eine, meist mehrere Stände der Originaldaten. Da jede Datei durch die Verwendung von Hardlinks nur ein Mal tatsächlich gespeichert wird, weiß ich nicht, was z.B. bei bit rot passieren würde. Das Sicherungsintervall liegt hier bei ca. 1x je Woche.
Zusätzlich habe ich für jedes Datenlaufwerk noch eine externe, über eSATA-angeschlossene externe Festplatte mit mindestens 3-facher Kapaziät der Datenplatte. Hierauf werden min. 1-2x im Monat die Daten gesichert. Aufgrund der Größe der Sicherungsplatten, verfüge ich über Snapshots mehrerer Monate oder sogar Jahre.
Bei jedem Sicherungsvorgang kontrolliere ich die SMART-Werte der Festplatten. Auffälligkeiten werden notiert, um einen Plattenausfall vielleicht vorhersagen zu können.
Bisher fühlte ich mich mit der Strategie halbwegs sicher, das Ganze hat aber auch so seine Nachteile:
Mein erster Gedanke war also, ein externes Gehäuse mit 4 Laufwerksschächten, das über eSATA angeschlossen werden kann (z.B. gibt es bei Fantec ein 4-fach Gehäuse mit eSATA und USB 3.0 für ca. 110 €). Laut Handbuch muss der eSATA Controller allerdings Port Multiplier unterstützen, um alle Festplatten zu erkennen. Meine bisherigen Recherchen deuten darauf hin, dass meiner das nicht tut. Außerdem unterstützen neuere Rechner nur mehr selten eSATA. Also bliebe noch USB. Früher hieß es ja, dass USB fürs Datenübertragen eher fehleranfällig sei - speziell bei längeren Kabeln, also für Backups nicht unbedingt ideal. Stimmt das bzw. hat sich das inzwischen geändert? Auch die Reviews des externen Gehäuses sind nicht 100% vertrauenserweckend, um diesem meine gesamten Daten anzuvertrauen.
Nächster Gedanke war, meinen jetzigen Rechner möglichst rasch zu ersetzen, in den alten Rechner 1-2 große HDDs rein geben und quasi als Backup Server zu verwenden. Wobei Server etwas übertrieben ist, da ich den Rechner nur zum Backup-Erstellen hochfahren würde. Falls ich dann im Hauptrechner in Zukunft wieder mal eine neue Datenplatte hinzufügen würde, könnte ich nach bisheriger Manier auch in diesem Rechner wieder entsprechende Backup-Platten hinzufügen.
Da ich zukünftig keine Sicherungen mehr im Hauptrechner machen möchte, müsste ich mir noch einen zweiten Backup-Server (neben meinem alten Rechner) zulegen. Schön wäre natürlich eine Lösung, die vollautomatisch Backups macht - lokal auf einem Server und vielleicht sogar extern in der Cloud oder auf einem anderen Server. Am besten täglich oder sogar alle paar Stunden.
Dafür bräuchte ich Hardware für einen Server, der zumindest immer läuft, wenn mein Hauptrechner eingeschaltet ist, sich vielleicht sogar automatisch damit hoch und runter fährt. Das Teil müsste nicht 24/7 laufen.
So ein Server wäre auch praktisch zum Bereitstellen von Mediadaten (Musik, Fotos, Videos) und zum Aufnehmen von TV-Sendungen. Oder würdet ihr davon abraten, Backup- und Medienserver auf dem gleichen Rechner zu mischen? Wie beschrieben ist eine zuverlässige Backup-Lösung mein Hauptziel. Alles andere wäre nice-to-have.
Ich habe mal so rumgesucht, für ca. 5-600 € könnte man sich einen schönen "Selbstbau-Server" mit B560M-Mobo (6 x SATA + 2,5 Gigabit-Lan), einer Intel i5-10400 CPU, 16 GB RAM und einem Gehäuse für min. 6 x 3,5" HDDs mit ausreichend Lüftung anschaffen. Leider noch ohne ECC-Unterstützung, mit ECC-Unterstützung wird's dann deutlich teurer. So ein Rechner könnte dann sicher schon deutlich mehr als nur Backups machen und hätte immer noch einen vertretbaren Stromverbrauch ;-)
Was denkt ihr? Was wäre für meinen Heimanwender-Fall eine vernünftige Backupstrategie, die mit vertretbarem Aufwand möglichst hohe Sicherheit bietet. In welche Hardware macht es für mich Sinn zu investieren, um eine vernünftige Backup-Strategie hinzubekommen?
Gedanken, Anregungen und Vorschläge sind herzlich willkommen! Vielen Dank schon mal im Voraus!
Viele Grüße
Enzian
ich schlage mich seit Tagen mit einem Problem herum und komme doch nicht auf einen grünen Zweig. Jetzt hatte ich gehofft, dass mir vielleicht jemand mit mehr Erfahrung in der Materie ein paar gute Denkanstöße geben könnte. Deshalb bin ich hier im Forum gelandet.
Gleich vorweg, ich bin kein IT-Profi. Bitte um Nachsicht. Mein "Wissen" habe ich mir in Forenbeiträgen und Wikipedia-Artikeln angelesen und ist rein theoretischer Natur. Mir ist auch bewusst, dass meine bisherige Lösung nicht optimal ist. Es ist halt eine Heimanwenderlösung, die sich über die Jahre als für mich praktikabel erwiesen hat, ob sie auch sinnvoll ist, sollt ihr mir sagen.
Meine aktuelle Situation schaut so aus, dass mein Hauptrechner an seine Speicherkapazitätsgrenze stößt. Alle Laufwerke sind über 90% voll. Wenn ich zusätzliche Speicherkapazität in meinem Hauptrechner hinzufüge, reicht auch die Kapazität meiner Backup-Laufwerke nicht mehr aus. Also muss ich auch da Geld in die Hand nehmen. Kurzum, es wird Zeit zu investieren und das ganze Speicher- und Backupkonzept neu zu überdenken.
Ich beschreibe mal kurz, wie ich bisher vorgegangen bin und hätte dann gerne Feedback, ob die Strategie grundsätzlich in Ordnung ist bzw. wo noch Verbesserungspotential besteht. Dann würde ich meine Strategie entsprechend anpassen und passende Hardware anschaffen.
Auf meinem Hauptrechner (reines Linux Mint-System) liegen ca. 4 TB Daten. Teilweise archivierte Videos und Fotos, an denen sich eigentlich nichts mehr ändert, und teilweise Nutzdaten, wo ständig was dazu und weg kommt. Bisher hatte ich für jedes Laufwerk mit Daten eine mindestens gleich große Festplatte im Rechner verbaut, die nur zum Datensichern gemountet wurde. Verwendet wird dafür das Programm BackInTime, das mit Hardlinks arbeitet. Es erzeugt Snapshots, wo nur die geänderten Dateien neu gesichert werden müssen, auf die unveränderten Daten werden Hardlinks gesetzt. Vorteil: jeder Snapshot enthält alle Daten und kann mit einem normalen Dateimanager durchsucht werden. Einzelne Dateien oder ganze Ordner können einfach kopiert und wiederhergestellt werden. Die Festplatte mit den gesicherten Daten kann an jedes System angestöpselt und ohne spezielle Hardware (z.B. Raidcontroller) oder Software ausgelesen werden. Die Sicherungsdaten sind aktuell unverschlüsselt und unkomprimiert. Durch die Snapshots habe ich hier immer zumindest eine, meist mehrere Stände der Originaldaten. Da jede Datei durch die Verwendung von Hardlinks nur ein Mal tatsächlich gespeichert wird, weiß ich nicht, was z.B. bei bit rot passieren würde. Das Sicherungsintervall liegt hier bei ca. 1x je Woche.
Zusätzlich habe ich für jedes Datenlaufwerk noch eine externe, über eSATA-angeschlossene externe Festplatte mit mindestens 3-facher Kapaziät der Datenplatte. Hierauf werden min. 1-2x im Monat die Daten gesichert. Aufgrund der Größe der Sicherungsplatten, verfüge ich über Snapshots mehrerer Monate oder sogar Jahre.
Bei jedem Sicherungsvorgang kontrolliere ich die SMART-Werte der Festplatten. Auffälligkeiten werden notiert, um einen Plattenausfall vielleicht vorhersagen zu können.
Bisher fühlte ich mich mit der Strategie halbwegs sicher, das Ganze hat aber auch so seine Nachteile:
- Die Backups müssen manuell angestoßen werden, d.h., man muss daran denken und Zeit dafür einplanen. Das beste Backup ist das, das man auch gemacht hat ;-)
- Derzeit keine Backups off-site, d.h., außerhalb meiner Wohnung.
- Die Sicherungsintervalle sind relativ groß. Auch wenn ich PC-intern jede Woche die Daten sichere. Hat der Hauptrechner einen Totalausfall, verliere ich möglicherweise die Daten eines gesamten Monats, was auf jeden Fall sehr ärgerlich, im schlimmsten Fall auch eine mittlere Katastrophe sein könnte.
- BackInTime sichert nur veränderte Dateien, diese aber zur Gänze. Virtual Machines werden somit immer neu gespeichert und belegen viel Speicherplatz.
- Derzeit überprüfe ich nicht, ob die kopierten Daten auch richtig auf dem Backupmedium ankommen (Stichwort Prüfsummen) oder sich gesicherte Daten durch bit rot verändert haben.
- Ich nutze als Dateisystem überall ext4, kein BTRFS oder ZFS, weil ich mich schlichtweg zu wenig damit auskenne und Angst habe, etwaige Vorteile durch Fehler meinerseits zunichte zu machen. Gleiches gilt für RAID-Konfigurationen, die ich bisher vermieden habe. Ich kann bei einem Plattencrash warten bis ich eine Ersatzplatte besorgt habe. Die höhere Verfügbarkeit würde ich mir, aus meiner Sicht, durch höhere Komplexität erkaufen und müsste wahrscheinlich auch in bessere Hardware investieren. Oder sehe ich das falsch?
Mein erster Gedanke war also, ein externes Gehäuse mit 4 Laufwerksschächten, das über eSATA angeschlossen werden kann (z.B. gibt es bei Fantec ein 4-fach Gehäuse mit eSATA und USB 3.0 für ca. 110 €). Laut Handbuch muss der eSATA Controller allerdings Port Multiplier unterstützen, um alle Festplatten zu erkennen. Meine bisherigen Recherchen deuten darauf hin, dass meiner das nicht tut. Außerdem unterstützen neuere Rechner nur mehr selten eSATA. Also bliebe noch USB. Früher hieß es ja, dass USB fürs Datenübertragen eher fehleranfällig sei - speziell bei längeren Kabeln, also für Backups nicht unbedingt ideal. Stimmt das bzw. hat sich das inzwischen geändert? Auch die Reviews des externen Gehäuses sind nicht 100% vertrauenserweckend, um diesem meine gesamten Daten anzuvertrauen.
Nächster Gedanke war, meinen jetzigen Rechner möglichst rasch zu ersetzen, in den alten Rechner 1-2 große HDDs rein geben und quasi als Backup Server zu verwenden. Wobei Server etwas übertrieben ist, da ich den Rechner nur zum Backup-Erstellen hochfahren würde. Falls ich dann im Hauptrechner in Zukunft wieder mal eine neue Datenplatte hinzufügen würde, könnte ich nach bisheriger Manier auch in diesem Rechner wieder entsprechende Backup-Platten hinzufügen.
Da ich zukünftig keine Sicherungen mehr im Hauptrechner machen möchte, müsste ich mir noch einen zweiten Backup-Server (neben meinem alten Rechner) zulegen. Schön wäre natürlich eine Lösung, die vollautomatisch Backups macht - lokal auf einem Server und vielleicht sogar extern in der Cloud oder auf einem anderen Server. Am besten täglich oder sogar alle paar Stunden.
Dafür bräuchte ich Hardware für einen Server, der zumindest immer läuft, wenn mein Hauptrechner eingeschaltet ist, sich vielleicht sogar automatisch damit hoch und runter fährt. Das Teil müsste nicht 24/7 laufen.
So ein Server wäre auch praktisch zum Bereitstellen von Mediadaten (Musik, Fotos, Videos) und zum Aufnehmen von TV-Sendungen. Oder würdet ihr davon abraten, Backup- und Medienserver auf dem gleichen Rechner zu mischen? Wie beschrieben ist eine zuverlässige Backup-Lösung mein Hauptziel. Alles andere wäre nice-to-have.
Ich habe mal so rumgesucht, für ca. 5-600 € könnte man sich einen schönen "Selbstbau-Server" mit B560M-Mobo (6 x SATA + 2,5 Gigabit-Lan), einer Intel i5-10400 CPU, 16 GB RAM und einem Gehäuse für min. 6 x 3,5" HDDs mit ausreichend Lüftung anschaffen. Leider noch ohne ECC-Unterstützung, mit ECC-Unterstützung wird's dann deutlich teurer. So ein Rechner könnte dann sicher schon deutlich mehr als nur Backups machen und hätte immer noch einen vertretbaren Stromverbrauch ;-)
Was denkt ihr? Was wäre für meinen Heimanwender-Fall eine vernünftige Backupstrategie, die mit vertretbarem Aufwand möglichst hohe Sicherheit bietet. In welche Hardware macht es für mich Sinn zu investieren, um eine vernünftige Backup-Strategie hinzubekommen?
Gedanken, Anregungen und Vorschläge sind herzlich willkommen! Vielen Dank schon mal im Voraus!
Viele Grüße
Enzian