HDD aus Unraid oder Synology NAS nicht lesbar: Dateisystem beschädig?

Rappi789

Lt. Junior Grade
Registriert
Mai 2010
Beiträge
398
Hallo zusammen,

ich habe seit längerem eine 14TB Reserve HDD (WD140EFGX) liegen, die ich nun gerne installieren würde.
Bei mir ist sowohl ein Synology und Unrad NAS im Einsatz, ich weiß jedoch nicht mehr, wo ich die HDD zuletzt im Einsatz hatte.

Um zu prüfen ob sich noch Daten auf der Festplatte befinden, wollte ich die HDD in Unraid mounten. Das Mounten mit Unassigned Devices scheitert jedoch mit dem Fehler:
Code:
log mount/recovery failed: error -117
Jan 7 11:00:22 UnrSrv unassigned.devices: Mounting partition 'sdi1' at mountpoint '/mnt/disks/9MJ9SNLT'...
Jan 7 11:00:31 UnrSrv emhttpd: read SMART /dev/sdi
Jan 7 11:00:31 UnrSrv unassigned.devices: Mount cmd: /sbin/mount -t 'xfs' -o rw,relatime '/dev/sdi1' '/mnt/disks/9MJ9SNLT'
Jan 7 11:00:31 UnrSrv kernel: XFS (sdi1): Mounting V5 Filesystem
Jan 7 11:00:31 UnrSrv kernel: XFS (sdi1): Internal error !uuid_equal(&mp->m_sb.sb_uuid, &head->h_fs_uuid) at line 253 of file fs/xfs/xfs_log_recover.c. Caller xlog_header_check_mount+0x60/0xb4 [xfs]
Jan 7 11:00:31 UnrSrv kernel: CPU: 1 PID: 26225 Comm: mount Tainted: P O 6.1.118-Unraid #1
Jan 7 11:00:31 UnrSrv kernel: Hardware name: To be filled by O.E.M. To be filled by O.E.M./H67, BIOS 4.6.4 03/17/2011
Jan 7 11:00:31 UnrSrv kernel: Call Trace:
Jan 7 11:00:31 UnrSrv kernel: <TASK>
Jan 7 11:00:31 UnrSrv kernel: dump_stack_lvl+0x44/0x5c
Jan 7 11:00:31 UnrSrv kernel: xfs_corruption_error+0x63/0x83 [xfs]
Jan 7 11:00:31 UnrSrv kernel: xlog_header_check_mount+0x8a/0xb4 [xfs]
Jan 7 11:00:31 UnrSrv kernel: ? xlog_header_check_mount+0x60/0xb4 [xfs]
Jan 7 11:00:31 UnrSrv kernel: xlog_find_verify_log_record+0x160/0x1da [xfs]
Jan 7 11:00:31 UnrSrv kernel: xlog_find_zeroed+0x14c/0x1ae [xfs]
Jan 7 11:00:31 UnrSrv kernel: xlog_find_head+0x3a/0x2dd [xfs]
Jan 7 11:00:31 UnrSrv kernel: ? select_task_rq_fair+0xb8f/0xba5
Jan 7 11:00:31 UnrSrv kernel: xlog_find_tail+0x43/0x34d [xfs]
Jan 7 11:00:31 UnrSrv kernel: ? ttwu_queue_wakelist+0x9a/0xcf
Jan 7 11:00:31 UnrSrv kernel: xlog_recover+0x2b/0x178 [xfs]
Jan 7 11:00:31 UnrSrv kernel: ? xfs_trans_ail_init+0xc0/0xd7 [xfs]
Jan 7 11:00:31 UnrSrv kernel: xfs_log_mount+0x131/0x1e9 [xfs]
Jan 7 11:00:31 UnrSrv kernel: xfs_mountfs+0x3ae/0x73b [xfs]
Jan 7 11:00:31 UnrSrv kernel: xfs_fs_fill_super+0x6b9/0x797 [xfs]
Jan 7 11:00:31 UnrSrv kernel: ? xfs_open_devices+0x184/0x184 [xfs]
Jan 7 11:00:31 UnrSrv kernel: get_tree_bdev+0x1d5/0x229
Jan 7 11:00:31 UnrSrv kernel: vfs_get_tree+0x1c/0x8a
Jan 7 11:00:31 UnrSrv kernel: path_mount+0x637/0x715
Jan 7 11:00:31 UnrSrv kernel: do_mount+0x5c/0x8d
Jan 7 11:00:31 UnrSrv kernel: __do_sys_mount+0x100/0x12e
Jan 7 11:00:31 UnrSrv kernel: do_syscall_64+0x65/0x7b
Jan 7 11:00:31 UnrSrv kernel: entry_SYSCALL_64_after_hwframe+0x6e/0xd8
Jan 7 11:00:31 UnrSrv kernel: RIP: 0033:0x154b65ac8eea
Jan 7 11:00:31 UnrSrv kernel: Code: 48 8b 0d 31 1f 0d 00 f7 d8 64 89 01 48 83 c8 ff c3 66 2e 0f 1f 84 00 00 00 00 00 0f 1f 44 00 00 49 89 ca b8 a5 00 00 00 0f 05 <48> 3d 01 f0 ff ff 73 01 c3 48 8b 0d fe 1e 0d 00 f7 d8 64 89 01 48
Jan 7 11:00:31 UnrSrv kernel: RSP: 002b:00007ffcfe9f2858 EFLAGS: 00000202 ORIG_RAX: 00000000000000a5
Jan 7 11:00:31 UnrSrv kernel: RAX: ffffffffffffffda RBX: 000000000040f380 RCX: 0000154b65ac8eea
Jan 7 11:00:31 UnrSrv kernel: RDX: 000000000040f5b0 RSI: 000000000040f630 RDI: 000000000040f610
Jan 7 11:00:31 UnrSrv kernel: RBP: 0000000000000000 R08: 0000000000000000 R09: 00000000004102e0
Jan 7 11:00:31 UnrSrv kernel: R10: 0000000000200000 R11: 0000000000000202 R12: 000000000040f610
Jan 7 11:00:31 UnrSrv kernel: R13: 000000000040f5b0 R14: 0000154b65c5dfa4 R15: 000000000040f498
Jan 7 11:00:31 UnrSrv kernel: </TASK>
Jan 7 11:00:31 UnrSrv kernel: XFS (sdi1): Corruption detected. Unmount and run xfs_repair
Jan 7 11:00:31 UnrSrv kernel: XFS (sdi1): log has mismatched uuid - can't recover
Jan 7 11:00:31 UnrSrv kernel: XFS (sdi1): empty log check failed
Jan 7 11:00:31 UnrSrv kernel: XFS (sdi1): log mount/recovery failed: error -117
Jan 7 11:00:31 UnrSrv kernel: XFS (sdi1): log mount failed
Jan 7 11:00:32 UnrSrv unassigned.devices: Mount of 'sdi1' failed: 'mount: /mnt/disks/9MJ9SNLT: mount(2) system call failed: Structure needs cleaning. dmesg(1) may have more information after failed mount system call.'
Jan 7 11:00:32 UnrSrv unassigned.devices: Partition '9MJ9SNLT' cannot be mounted.

1736507933250.png


Überprüfen des Dateisystems in Unraid spuckt dann einen Log von 5800 Zeilen aus.
Den anschließenden Versuch zum reparieren des Datiesystems mit "xfs_repair -n /dev/sdi" habe ich dann nach 3Stunden abgebrochen, da der Superblock angeblich normalerweise innerhalb von 10Minuten gefunden werden sollte.


Eigentlich hatte ich angenommen, dass ich die Festplatte zuletzt als Parity-Drive in Unraid im Einsatz hatte, nur sollte der Drive dann angeblich gar keine xfs Partition haben.

Mit dem Gedanken, dass ich die Festplatte zuletzt vieleicht doch im Synology NAS gesteckt hatte, habe ich die HDD im Synology NAS installiert:
1736508237050.png

Interessanterweise ist der Partitionsname ident mit der Seriennummer. Ist das etwas, was Synology macht?
Kann ich irgendwie prüfen, ob die HDD aus dem Synology stammt und prüfen, ob noch Daten vorhanden sind?

Eigentlich sollten sich keine Daten auf der Festplatte befinden und ich vermisse auch keine Daten. Trotzdem würde ich gerne auf Nr. sicher gehen.

Vielen Dank euch!
 
Zu Unraid kann ich leider nichts sagen. Wenn die HDD in einem RAID auf der Synology installiert war, dann ist da wahrscheinlich noch ein Teil des Betriebssystems drauf (wird da auf alle Festplatten aufgeteilt). An möglicherweise vorhandene Daten kommst du dann nicht mehr.
 
  • Gefällt mir
Reaktionen: Yesman9277
Je nach Version von unraid könnte es ja noch ReiserFS sein. Ist denn die Parity auch in xfs normalerweise? Weiss ich auswendig gar nicht.
 
Langi1 schrieb:
An möglicherweise vorhandene Daten kommst du dann nicht mehr.
Sollte die HDD aus dem Synology (habe ich SHR mit 3 HDDs aktiv) stammen, kann ich die Daten von einer einzelnen Festplatte natürlich nicht mehr lesen. Brauch ich dann auch nicht.
Ist nur die Frage, ob man irgendwie herausfinden kann, ob die tatsächlich zuletzt in der Synology im Einsatz war...
Ergänzung ()

Falc410 schrieb:
Je nach Version von unraid könnte es ja noch ReiserFS sein. Ist denn die Parity auch in xfs normalerweise? Weiss ich auswendig gar nicht.
Ich glaube zuletzt war die HDD vor ungefähr einem Jahr irgendwo eingebaut.
 
Spielt denn das noch irgendeine Rolle? Wozu der ganze Aufwand? Du vermisst keine Daten und willst die Platte nutzen, also mach sie platt und gut ist.
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: guzzisti, Frettchen!, MonteDrago und eine weitere Person
na klar scheitert der mount.
vermutlich, weil die teil eines raid verbundes war, und der verbund ergibt nur vollständig was funktionerendes.
ausnahme: es war ein raid1, dann hat es vollständige daten.
aber wenn z.b. raid5, dann enthält eine von mindestens dreien oder mehr eben nur fragmente/schnipsel.
und die sind, für sich allein, eben nur datenmüll.
 
  • Gefällt mir
Reaktionen: Arboster
Zurück
Oben