Hallo Zusammen,
mein Zyxel NAS 540 lief aufgrund von Umzug eine weile nicht mehr.
Nach wieder einschalten hat mir das NAS gemeldet, dass die vierte Platte defekt ist und nicht mehr Teil des RAID5 ist.
Ich habe die 4. Platte ausgebaut und an einem anderen PC angeschlossen um diese zu prüfen.
Es waren wohl einige Sektoren defekt welche reallokiert wurden, abgesehen davon lief die Platte aber.
Da das auf ein baldiges ableben hindeutet habe ich auch bereits gleich zwei neue identische Platten bestellt.
Hielt es aber für eine gute Idee die Platte wieder dem Raid hinzuzufügen und zu syncen.
Das ganze hat er auch versucht, als das recovery fertig war, war die Platte auch wieder im Raid Verbund.
Nach einem Neustart des NAS war aber Plötzlich die erste Platte nicht mehr Bestandteil des Raid.
Raid Fehler konnte ich auf dieser Platte keine erkennen, sehr merkwürdig das Ganze.
Ich habe noch so versucht einen Recovery zu starten, dieser schlug aber direkt fehl ohne Fehlermeldung...
Ich habe nun die erste Platte durch ein neue ersetzt und ein Recovery gestartet, das startete auch und lief.
Nach dem es fertig war, war aber Platte 1 immer noch nicht Bestandteil des Raid, ich vermute auch dass es jetzt wieder Probleme mit der vierten Platte gibt.
Ich bin kein Linux Profi, daher meine Frage wie ich nun vorgehen soll, mit den Bordmitteln (Weboberfläche) komme ich hier nicht weiter.
Und ja, ich habe Backup der wichtigsten Daten (Da nur 2TB Externe Platte statt 4 TB NAS), würde aber gerne probieren das ganze noch so zu retten.
Hier mal ein paar ausgaben aus der Shell:
Warum wird nach dem Recovery SDA1 noch als Spare angezeigt?
Warum steht bei SDD1 Removed?
Mir ist klar dass meine Vorgehensweise nicht gerade Vorteilhaft war, aber würde gerne versuchen jetzt das beste darauf zu machen.
Soll ich die ausgetausche erste PLatte wieder einstecken und versuchen wieder ins Raid einzubinden?
Diese ist ja offensichtlich ohne Grund rausgeflogen. Und zeigt mir auch keine Fehler.
Aber ich weiß natürlich nicht was mit den Daten passiert ist.
Wenn ich das NAS neustarte beginnt er übrigens automatisch wieder mit einem Recovery (Wie kann ich das abstellen?)
Vielen Dank und Gruß
Schiffi
mein Zyxel NAS 540 lief aufgrund von Umzug eine weile nicht mehr.
Nach wieder einschalten hat mir das NAS gemeldet, dass die vierte Platte defekt ist und nicht mehr Teil des RAID5 ist.
Ich habe die 4. Platte ausgebaut und an einem anderen PC angeschlossen um diese zu prüfen.
Es waren wohl einige Sektoren defekt welche reallokiert wurden, abgesehen davon lief die Platte aber.
Da das auf ein baldiges ableben hindeutet habe ich auch bereits gleich zwei neue identische Platten bestellt.
Hielt es aber für eine gute Idee die Platte wieder dem Raid hinzuzufügen und zu syncen.
Das ganze hat er auch versucht, als das recovery fertig war, war die Platte auch wieder im Raid Verbund.
Nach einem Neustart des NAS war aber Plötzlich die erste Platte nicht mehr Bestandteil des Raid.
Raid Fehler konnte ich auf dieser Platte keine erkennen, sehr merkwürdig das Ganze.
Ich habe noch so versucht einen Recovery zu starten, dieser schlug aber direkt fehl ohne Fehlermeldung...
Ich habe nun die erste Platte durch ein neue ersetzt und ein Recovery gestartet, das startete auch und lief.
Nach dem es fertig war, war aber Platte 1 immer noch nicht Bestandteil des Raid, ich vermute auch dass es jetzt wieder Probleme mit der vierten Platte gibt.
Ich bin kein Linux Profi, daher meine Frage wie ich nun vorgehen soll, mit den Bordmitteln (Weboberfläche) komme ich hier nicht weiter.
Und ja, ich habe Backup der wichtigsten Daten (Da nur 2TB Externe Platte statt 4 TB NAS), würde aber gerne probieren das ganze noch so zu retten.
Hier mal ein paar ausgaben aus der Shell:
Code:
~ # mdadm -D /dev/md2
/dev/md2:
Version : 1.2
Creation Time : Sun Sep 6 19:33:54 2015
Raid Level : raid5
Array Size : 5848151040 (5577.23 GiB 5988.51 GB)
Used Dev Size : 1949383680 (1859.08 GiB 1996.17 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Mon Nov 13 14:20:05 2023
State : clean, FAILED
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Name : NAS540:2
UUID : a763b08f:fbf70145:01d9290c:7ee89280
Events : 3811
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 19 1 active sync /dev/sdb3
2 8 35 2 active sync /dev/sdc3
3 0 0 3 removed
4 8 51 - faulty /dev/sdd3
5 8 3 - spare /dev/sda3
Code:
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sdb3[1] sda3[5](S) sdd3[4](F) sdc3[2]
5848151040 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/2] [_UU_]
md1 : active raid1 sda2[5] sdd2[4] sdc2[2] sdb2[1]
1998784 blocks super 1.2 [4/4] [UUUU]
md0 : active raid1 sda1[5] sdd1[4] sdc1[2] sdb1[1]
1997760 blocks super 1.2 [4/4] [UUUU]
unused devices: <none>
Code:
mdadm --examine /dev/sda3
/dev/sda3:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a763b08f:fbf70145:01d9290c:7ee89280
Name : NAS540:2
Creation Time : Sun Sep 6 19:33:54 2015
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 3898767360 (1859.08 GiB 1996.17 GB)
Array Size : 5848151040 (5577.23 GiB 5988.51 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
State : clean
Device UUID : 81a9517f:81e6effe:1fe8a38d:21c1c158
Update Time : Mon Nov 13 15:06:33 2023
Checksum : 6299bd14 - correct
Events : 3813
Layout : left-symmetric
Chunk Size : 64K
Device Role : spare
Array State : .AA. ('A' == active, '.' == missing)
~ # mdadm --examine /dev/sdb3
/dev/sdb3:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a763b08f:fbf70145:01d9290c:7ee89280
Name : NAS540:2
Creation Time : Sun Sep 6 19:33:54 2015
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 3898767360 (1859.08 GiB 1996.17 GB)
Array Size : 5848151040 (5577.23 GiB 5988.51 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
State : clean
Device UUID : 77c7c499:9b27c508:6e0447de:b94ca6b8
Update Time : Mon Nov 13 15:06:33 2023
Checksum : 3769c407 - correct
Events : 3813
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 1
Array State : .AA. ('A' == active, '.' == missing)
~ # mdadm --examine /dev/sdc3
/dev/sdc3:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a763b08f:fbf70145:01d9290c:7ee89280
Name : NAS540:2
Creation Time : Sun Sep 6 19:33:54 2015
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 3898767360 (1859.08 GiB 1996.17 GB)
Array Size : 5848151040 (5577.23 GiB 5988.51 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
State : clean
Device UUID : 4236a352:feca1d50:574a5b9e:5efd070d
Update Time : Mon Nov 13 15:06:33 2023
Checksum : 4c16ccc3 - correct
Events : 3813
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 2
Array State : .AA. ('A' == active, '.' == missing)
~ # mdadm --examine /dev/sdd3
/dev/sdd3:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a763b08f:fbf70145:01d9290c:7ee89280
Name : NAS540:2
Creation Time : Sun Sep 6 19:33:54 2015
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 3898767360 (1859.08 GiB 1996.17 GB)
Array Size : 5848151040 (5577.23 GiB 5988.51 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
State : clean
Device UUID : f5d6438c:9774e363:90d8656d:1573d431
Update Time : Mon Nov 13 09:32:55 2023
Checksum : 8d53ccc6 - correct
Events : 3800
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 3
Array State : AAAA ('A' == active, '.' == missing)
Warum wird nach dem Recovery SDA1 noch als Spare angezeigt?
Warum steht bei SDD1 Removed?
Mir ist klar dass meine Vorgehensweise nicht gerade Vorteilhaft war, aber würde gerne versuchen jetzt das beste darauf zu machen.
Soll ich die ausgetausche erste PLatte wieder einstecken und versuchen wieder ins Raid einzubinden?
Diese ist ja offensichtlich ohne Grund rausgeflogen. Und zeigt mir auch keine Fehler.
Aber ich weiß natürlich nicht was mit den Daten passiert ist.
Wenn ich das NAS neustarte beginnt er übrigens automatisch wieder mit einem Recovery (Wie kann ich das abstellen?)
Vielen Dank und Gruß
Schiffi
Zuletzt bearbeitet: