recovering bcache raid1 in debian?

Zornica

Lieutenant
Registriert
Juni 2010
Beiträge
1.005
hey!
wie der titel schon andeutet hab ich auf meinem nas/server eben Debian aufgesetzt, weil er leider von dem xz problem betroffen war.
Dummerweise hab ich nicht großartig über die ursprüngliche Plattenkombination nachgedacht...
kurz zum problem:
ich hab im server aktuell 1 Raid 1 laufen welcher mit einer bcache SSD versehen war
dank der anleitung hier https://askubuntu.com/questions/1458545/how-to-recover-data-from-drives-in-bcache-configuration
hab ich zumindest nun auch wieder zugriff auf den RAID,
Bash:
mount -o loop,offset=8192 /dev/md0p1 /mnt
allerdings nur provisorisch

So meine Frage kurz und knapp: gibts eine gute Möglichkeit den Schaden zu beheben? sprich entweder zusammen mit dem vorhandenen bcache wiederherzustellen? oder ggf den raid wieder zum normalen raid zu machen, und danach bcache erneut hinzufügen?
Mir wäre beides recht

Besten Dank schon mal
 
Bevor du irgendwas machst: Backup anlegen

Glückwunsch, da du jetzt ein Backup hast, erübrigt sich deine Frage.

Du kannst den RAID formatieren, auflösen und ein neues RAID mit BCache anlegen,

oder gleich 2 SSD kaufen und ohne bcache verwenden.

PS: Ich glaube nicht, dass man einen bcache nachträglich erzeugen kann. Lasse mich aber eines Besseren belehren.
 
backup existiert ohnehin,
2 10TB SSDs sind definitiv keine option

formatieren ist ohnehin das letzte mittel, aber zuerst wäre mir jegliche andere option deutlich lieber
 
Was für ein RAID1 hast du denn laufen? mdadm, LVM oder ZFS oder btrfs? (False-)Hardware Raid?
 
wurde mit dem yast tool von suse erstellt, aber ich geh mal davon aus, dass die mdadm nutzen, da der block md0 heißt und XFS formatiert ist. lvm kann ich aber nicht ausschließen

edit: moment, sieht so aus als würde der yast partitioner lvm nutzen. ist schon eine weile her wie das dann mit dem bcache war....

edit2: moooment... scheint als wärs doch mdadm, wenn man dem ende vom guide glauben schenken darf
https://doc.opensuse.org/documentat...ml/book-reference/cha-expert-partitioner.html
 
Zuletzt bearbeitet:
@Iapetos sorry für das delay... hatte das Problem irgendwie aus den Augen verloren
aber nachdem sich die dinge endlich beruhigt haben, hab ich nun auch endlich zeit das problem zu fixen:

Code:
NAME            MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
loop0             7:0    0   3,6T  0 loop  /mnt
sda               8:0    0 465,8G  0 disk 
└─sda1            8:1    0 465,8G  0 part 
sdb               8:16   0   3,6T  0 disk 
└─sdb1            8:17   0   3,6T  0 part  /media/eric/96232a88-0c00-4b9e-96a2-232e9b33d10d
sdc               8:32   0   3,6T  0 disk 
└─sdc1            8:33   0   3,6T  0 part 
  └─md0           9:0    0   3,6T  0 raid1
    └─md0p1     259:8    0   3,6T  0 part 
      └─bcache0 254:0    0   3,6T  0 disk 
sdd               8:48   0 111,8G  0 disk 
├─sdd1            8:49   0   487M  0 part  /boot/efi
├─sdd2            8:50   0   954M  0 part  /boot
├─sdd3            8:51   0 106,6G  0 part  /var/tmp
│                                          /var/spool
│                                          /var/log
│                                          /var/crash
│                                          /var/cache
│                                          /home
│                                          /.snapshots
│                                          /
└─sdd4            8:52   0   3,7G  0 part  [SWAP]
sde               8:64   0   3,6T  0 disk 
└─sde1            8:65   0   3,6T  0 part 
  └─md0           9:0    0   3,6T  0 raid1
    └─md0p1     259:8    0   3,6T  0 part 
      └─bcache0 254:0    0   3,6T  0 disk 
sdf               8:80   1     0B  0 disk 
sdg               8:96   1     0B  0 disk 
sr0              11:0    1   3,9G  0 rom   
nvme0n1         259:0    0   1,8T  0 disk 
└─bcache0       254:0    0   3,6T  0 disk 
nvme1n1         259:1    0 476,9G  0 disk 
├─nvme1n1p1     259:2    0   260M  0 part 
├─nvme1n1p2     259:3    0    16M  0 part 
├─nvme1n1p3     259:4    0 453,8G  0 part 
├─nvme1n1p4     259:5    0   700M  0 part 
├─nvme1n1p5     259:6    0    22G  0 part 
└─nvme1n1p6     259:7    0   200M  0 part

nachdem alle parts nach wie vor vorhanden sind, sollte es doch eigentlich möglich sein den cache wieder zu attachen
https://www.kernel.org/doc/html/latest/admin-guide/bcache.html
hatte mich an der anleitung orientiert, aber ich glaub ich müsste die devices erstmal registrieren mit
echo /dev/sde > /sys/fs/bcache/register
und so weiter, dazu fehlt mir aber anscheinend die permission oO... müsste ich überhaupt sde registrieren? oder md0? muss sagen dass mich die Strukturen definitiv etwas verwirren
 
Zurück
Oben