Konfekt
Lt. Junior Grade
- Registriert
- Nov. 2020
- Beiträge
- 307
Hallo zusammen,
mein NAS im Eigenbau mit OMV bereitet mit Sorgen, denn auf CLI Ebene meldet es seit gestern mehrere "BTFRS error" inklusive "corrupt" Meldung. Ich habe bereits online gesucht und es kann wieder von-bis alles mögliche sein, aber man sollte es ernst nehmen, da das Dateisystem betroffen ist und OMV die Fehler nicht korrigieren kann. Bevor ich also nachher Datenverluste hinnehmen muss, versuche ich mich daran, etwas zu tun. Hoffentlich kann mir jemand helfen. Backup der Daten liegt vor, aber ich weiß natürlich nicht, ob dieses womöglich schon von der Korruption betroffen ist, wenn womöglich diverse Unterverzeichnisse mit Fotos und Heimvideos nun kaputt sind :-/.
Kurz zum System:
Rechner (auf diesem läuft OMV):
HP KleinPC intel i5, 3.6 GHz
8 GB RAM
SSD 512 GB System-Platte
Angeschlossen ist ein Disk-Array mit 4x6TB HDD Festplatten
RAID-5, wird als "clean" in der GUI angezeigt
SMART zeigt bei keiner HDD etwas Verdächtiges an
OMV Version:
Release: 5.6.10-1
Codename: Usul
Wird von mir regelmäßig auf CLI-Ebene aktualisiert
Auf Kommando-Ebene sehe ich seit gestern folgende Fehlermeldungen:
[46840.590107] BTRFS error (device md127): bdev /dev/md127 errs: wr 0, rd 0, flush 0, corrupt 5, gen 0
[46840.591787] BTRFS error (device md127): unable to fixup (regular) error at logical 691162554368 on dev /dev/md127
[46840.594397] BTRFS error (device md127): bdev /dev/md127 errs: wr 0, rd 0, flush 0, corrupt 6, gen 0
[46840.596083] BTRFS error (device md127): unable to fixup (regular) error at logical 691162558464 on dev /dev/md127
[46840.601380] BTRFS error (device md127): bdev /dev/md127 errs: wr 0, rd 0, flush 0, corrupt 7, gen 0
[46840.603086] BTRFS error (device md127): unable to fixup (regular) error at logical 691162562560 on dev /dev/md127
[46840.608215] BTRFS error (device md127): bdev /dev/md127 errs: wr 0, rd 0, flush 0, corrupt 8, gen 0
[46840.609961] BTRFS error (device md127): unable to fixup (regular) error at logical 691162566656 on dev /dev/md127
[46840.612635] BTRFS error (device md127): bdev /dev/md127 errs: wr 0, rd 0, flush 0, corrupt 9, gen 0
[46840.614415] BTRFS error (device md127): unable to fixup (regular) error at logical 691162570752 on dev /dev/md127
[46840.618900] BTRFS error (device md127): bdev /dev/md127 errs: wr 0, rd 0, flush 0, corrupt 10, gen 0
[46840.620738] BTRFS error (device md127): unable to fixup (regular) error at logical 691162574848 on dev /dev/md127
md127 ist leider die ID meines RAID, nicht die Systemplatte, bzw. eine Erweiterungsplatte, die ich als Zwischenspeicher noch eingebunden hatte.
Dazu hätte ich folgende Fragen:
Kann man ein bestehendes RAID-5 in ein anderes System einbinden? Zum Bleistift in eins von Synology? Der Aufwand für die Fehlersuche bei OMV ist für meine Zwecke inzwischen einfach zu groß und für die CLI/ Shell bin ich vermutlich zu blond. Als typisches Windows-Kind kriege ich nicht die gefühlten 150 Befehle mit ihren endlosen Parametern gelernt. Schon bei grep, Editor und alledem muss ich mir alles mühsam zusammenfriemeln.
Für jeglichen Tipp bin ich dankbar!
Grüße
Courtyard
mein NAS im Eigenbau mit OMV bereitet mit Sorgen, denn auf CLI Ebene meldet es seit gestern mehrere "BTFRS error" inklusive "corrupt" Meldung. Ich habe bereits online gesucht und es kann wieder von-bis alles mögliche sein, aber man sollte es ernst nehmen, da das Dateisystem betroffen ist und OMV die Fehler nicht korrigieren kann. Bevor ich also nachher Datenverluste hinnehmen muss, versuche ich mich daran, etwas zu tun. Hoffentlich kann mir jemand helfen. Backup der Daten liegt vor, aber ich weiß natürlich nicht, ob dieses womöglich schon von der Korruption betroffen ist, wenn womöglich diverse Unterverzeichnisse mit Fotos und Heimvideos nun kaputt sind :-/.
Kurz zum System:
Rechner (auf diesem läuft OMV):
HP KleinPC intel i5, 3.6 GHz
8 GB RAM
SSD 512 GB System-Platte
Angeschlossen ist ein Disk-Array mit 4x6TB HDD Festplatten
RAID-5, wird als "clean" in der GUI angezeigt
SMART zeigt bei keiner HDD etwas Verdächtiges an
OMV Version:
Release: 5.6.10-1
Codename: Usul
Wird von mir regelmäßig auf CLI-Ebene aktualisiert
Auf Kommando-Ebene sehe ich seit gestern folgende Fehlermeldungen:
[46840.590107] BTRFS error (device md127): bdev /dev/md127 errs: wr 0, rd 0, flush 0, corrupt 5, gen 0
[46840.591787] BTRFS error (device md127): unable to fixup (regular) error at logical 691162554368 on dev /dev/md127
[46840.594397] BTRFS error (device md127): bdev /dev/md127 errs: wr 0, rd 0, flush 0, corrupt 6, gen 0
[46840.596083] BTRFS error (device md127): unable to fixup (regular) error at logical 691162558464 on dev /dev/md127
[46840.601380] BTRFS error (device md127): bdev /dev/md127 errs: wr 0, rd 0, flush 0, corrupt 7, gen 0
[46840.603086] BTRFS error (device md127): unable to fixup (regular) error at logical 691162562560 on dev /dev/md127
[46840.608215] BTRFS error (device md127): bdev /dev/md127 errs: wr 0, rd 0, flush 0, corrupt 8, gen 0
[46840.609961] BTRFS error (device md127): unable to fixup (regular) error at logical 691162566656 on dev /dev/md127
[46840.612635] BTRFS error (device md127): bdev /dev/md127 errs: wr 0, rd 0, flush 0, corrupt 9, gen 0
[46840.614415] BTRFS error (device md127): unable to fixup (regular) error at logical 691162570752 on dev /dev/md127
[46840.618900] BTRFS error (device md127): bdev /dev/md127 errs: wr 0, rd 0, flush 0, corrupt 10, gen 0
[46840.620738] BTRFS error (device md127): unable to fixup (regular) error at logical 691162574848 on dev /dev/md127
md127 ist leider die ID meines RAID, nicht die Systemplatte, bzw. eine Erweiterungsplatte, die ich als Zwischenspeicher noch eingebunden hatte.
Dazu hätte ich folgende Fragen:
- Was kann die Ursache sein? Ich hatte nichts geändert, das System wurde immer aktualisiert. Letztes Jahr war die Systemplatte nach einem Stromausfall beschädigt und ausgetauscht worden. Vor Kurzem hatte es eine Art Spannungsabfall gegeben, d.h. die Lichter im Haus waren für 1 Skunde schwächer geworden, aber alle Geräte blieben eingeschaltet. Möglicherweise war das die Ursache
- Ich habe einen Scrub gestartet, der diese Fehler bisher ausgeworfen hat, ggf. kommen noch mehr. Sind diese bereits Zeichen für schwerwiegende Schäden im Dateisystem, oder kann das alles und nichts bedeuten?
- Kann man betroffene Dateien gezielt identifizieren?
- Ganz zentral: Was kann ich tun? Wie behebe ich das? Bin nicht gerade CLI-erfahren... Hilfe mitsamt den Kommandos wäre echt toll...
Kann man ein bestehendes RAID-5 in ein anderes System einbinden? Zum Bleistift in eins von Synology? Der Aufwand für die Fehlersuche bei OMV ist für meine Zwecke inzwischen einfach zu groß und für die CLI/ Shell bin ich vermutlich zu blond. Als typisches Windows-Kind kriege ich nicht die gefühlten 150 Befehle mit ihren endlosen Parametern gelernt. Schon bei grep, Editor und alledem muss ich mir alles mühsam zusammenfriemeln.
Für jeglichen Tipp bin ich dankbar!
Grüße
Courtyard
Zuletzt bearbeitet: