Langzeitbackup auf Server-SSD?

daniel987

Ensign
Registriert
Aug. 2014
Beiträge
150
Hi zusammen,

ich verwende einen einen Mini-PC als Mini-Server für verschiedene Dienste. Einer davon ist Backups. Es wird ja immer gesagt, dass man ssd nicht zum Langzeitlagern verwenden sollte, ohne sie regelmäßig anzuschließen. In dem Fall lasse ich die ssd ja nun dauerhaft meistens im Powersave rum-idlen. Ist ne nvme mit ext4.

Kann man sagen, dass die Daten nun sicher gespeichert sind. Also auch nach Jahren die Integrität passen sollte?
Zusätzlich habe ich einen älteren Mini-PC, den ich alle 1-2 Monate anschließe, und dann mittels ssh-rsync alle Daten nochmal 1:1 spiegle.

LG Daniel
 
solange die ssd strom hat, kann sie auch einen refresh der daten machen, falls nötig. es empfiehlt sich trotzdem, regelmässig die daten zu prüfen und dafür ist ext4 das falsche dateisystem. nimm btrfs oder zfs und lass regelmässig (z.b. per cron) einen scrub laufen.
 
  • Gefällt mir
Reaktionen: daniel987
Zum Verständnis: Werden die Backups regelmäßig geschrieben (also z.B. in Form einer Backup-Rotation)? Oder sind das Backups, die über Jahre unverändert dort abgelegt werden?
 
  • Gefällt mir
Reaktionen: daniel987
  • Gefällt mir
Reaktionen: daniel987
Danke für die antworten. Dateisystem stell ich um, wenn ich nächstes mal reinstalliere bzw. Zeit finde. Dafür bin ich gerade zu faul, da auf der ssd auch das OS ist.
Die backups werden von Mac Clients über ein eigenes rsync-basiertes-Script über ssh erstellt. Daher jedes neue Backup greift über Hard-Links auf das vom Vortag etc zurück. Somit rotiert ein Großteil der Daten gerade nicht und alles ist auch nur singulär gespeichert. Von der Performance schlägts die echte Time Machine um riesige Welten. Bin sehr zufrieden

Im Nas-Server ist eine WD SN570, weil der Server so bei 1.2 Watt idled. Im Spiegel-Server (also der immer wieder manuell angeschlossen wird und dann den Backup-Server spiegelt), ist eine Kioxia Excercisa 2G Plus 2TB. Dieses System idled bei 3.8 Watt deshalb und wegen Spannungspitzen, wird es nur periodisch angeklemmt.
 
  • Gefällt mir
Reaktionen: tollertyp
Anhand des Thread-Titels könnte man meinen, dass Du eine Server SSD einsetzten möchtest. Das ist die WD SN570 natürlich nicht. Sollte der "Mini-Server" nicht selbst das Sicherungsziel sein, macht es natürlich Sinn, die Daten regelmäßig zu sichern.

OT: 1,2W idle... darf ich fragen welchen MiniPC du verwendest?
 
  • Gefällt mir
Reaktionen: chillking
Achso. Denke für nen Privatuser lohnt solche Hardware nicht. Bin locker im Rahmen der TBW. Und der Spiegelserver hat ja dann alle Backups nochmal in 1:1. Somit existieren alle Daten 3 fach. Und sogar noch ein 4tes mal, weil ich alles 1/Jahr noch auf ne normal hdd kopiere, die bei meinen Eltern lagert. Diese wird jährlich auch neu beschrieben.

Ich verwende einen Mele Quiter 4C, mit deaktiviertem wifi, Bluetooth und Debian Bookworm. Wichtig ist noch ein eigenes usb-c Netzteil zu nehmen. Und die nvme. z.B mit ner Samsung Evo 970 Plus ist der verbrauch gut 3 Watt im idle.
 
  • Gefällt mir
Reaktionen: DaKill3r185
Eine „übliche Consumer-SSD“ refresht nicht „mal eben so“ ihre Daten nur weil sie an Spannung angelegt wird oder dauerhaft angelegt ist - sie kennt bzw. holt sich ja nicht mal die momentane Zeit und Datum und hatsomit keinen Anhalt, wie alt ihre jeweiligen Daten sind.
Hier wird erst blockselektiv refresht bzw. intern umkopiert, wenn beim Lesevorgang Grenzwerte erreicht bzw. CRC-Fehler erkannt werden (erkennbar an dann sehr langsamen Lesegeschwindigkeiten.
Bei heutigen Consumer-SSDs kann das aber mittlerweile mehr als 2 Jahre dauern, bis dieser Fall eintritt.

Eine SSD mit Firmware für NAS (und NAS mit SSD-Unterstützung) kennt dieses Problem nicht (protokollunterstützter Refresh).
 
FarmerG schrieb:
Hier wird erst blockselektiv refresht bzw. intern umkopiert, wenn beim Lesevorgang Grenzwerte erreicht bzw. CRC-Fehler erkannt werden (erkennbar an dann sehr langsamen Lesegeschwindigkeiten.
Bei heutigen Consumer-SSDs kann das aber mittlerweile mehr als 2 Jahre dauern, bis dieser Fall eintritt.
das geschieht nicht erst, wenn der user auf die daten zugreift (denn dann ist es potentiell zu spät) - die ssd macht auch scrubs im hintergrund wenn sie gerade idle ist. die data retention nimmt mit dem anstieg der p/e-zyklen ab, daher muss die ssd selbst prüfen, wann wieder ein refresh ansteht. genau das hat samsung ja z.b. damals bei der 840 evo gemacht.
 
Ich fände es echt schlecht, wenn die ssd-firmware nicht hin und wieder checken würde und ggfs. Sektoren sperrt bzw. intern umkopiert. Vermutlich müsste man dann mal beim Hersteller nachfragen. Ich werd WD mal schreiben. Es liegt ja auch noch ne evo 970 rum. Wenn die sowas sicher kann verwende ich vl. doch wieder die und dann auch gleich mit btrfs. Um die Weihnachtszeit ist immer Zeit für sowas.

Bis dahin drücke ich mal die Daumen, dass ne WD das auch mit ext4 schafft knapp ein Jahr die Daten zu halten.
 
Das Thema Backup und Integrität ist immer schwierig. Persönlich sehe ich dazu nicht nur die Hardware in der Pflicht, sondern auch die Backup-Software sollte prüfen können, ob dem Backup nichts passiert ist.

Veeam z.B. erstellt zusammen mit dem Backup auch eine Prüfsumme und kann später checken, ob Datenkorruption aufgetreten ist:
1706965716438.png



Ein schwierigeres Thema ist Datenkorruption auf Clients, weil dann werden korrupte Daten ins Backup geschrieben. Dagegen lässt nur schwer was machen... :/

Sowas wie Multipar existiert zwar, aber ohne tiefe Integrations ins Betriebssystem ist es extrem unbequem.

daniel987 schrieb:
Denke für nen Privatuser lohnt solche Hardware nicht. Bin locker im Rahmen der TBW.
Die TBW dürfte da deine geringste Sorge sein.

Wie stark die Daten degradieren ist primär eine Frage des Controller bzw. der Firmware. Siehe diesen oder diesen Thread. Besonders auffällig sind da z.B. die WD Blue 3D und die Corsair MP510.
Ich hatte da auch mal meine Server-SSDs getestet und keine Probleme mit denen festgestellt.
 
Die Sache scheint komplexer zu sein, als gedacht :D. Prinzipiell könnte ich auch einfach selbst ein Script schreiben, dass die Checksum, Date, Name von neuen Dateien z.B. in ne sqlite speichert. Und dann würde man periodisch Nachts immer wieder mal alle Files gegen die Checksum laufen lassen. Dadurch würde automatisch auch ein Read getriggert. Oder würde genau das in btrfs sowieso erledigt, wenn man wöchentlich scrubt?
 
Zurück
Oben