Openmediavault Nach Stromausfall Software-Raid weg

breckofresh

Ensign
Registriert
Feb. 2009
Beiträge
129
Hallo,

ich hoffe hier kann mir ein Experte helfen.
Seit einem Stromausfall am Dienstag ist das Software-Raid meiner OMv-Installation weg.
In der Web-GUI ist kein Raid sichtbar.

Ich bekomme beim boot auch immer folgende Fehlermeldung per E-Mail.

status failed (1) -- /srv/dev-disk-by-label-Daten is not a mountpoint
 
Wieso nicht im OMV Forum? Da gibt es ähnliche/gleiche Themen, die sogar nur paar Tage alt sind.
 
Hoffentlich hast Du ein Update der Daten. Ansonsten sieht da ma ziemlich schlecht aus bei einem Software Raid.
Einer der Gründe warum man sowas meiden sollte und mit einem Hardwarekontroller arbeiten sollte. Zum einen und wenn es schon nicht anders geht schützt man so einen wichtigen Rechner mit einer USV!
 
nun, jetzt weisst du, warum es USV´s gibt.
und raidcontroller mit battery.
und warum beides sinnvoll ist.

richte das neu ein und spiel das backup wieder ein.--> so sollte es sein.
mir ist klar, daß es mit an sicherheit grenzender wahrscheinlichkeit nicht so ist, und du kein backup hast.

dann schreib wenigstens alles, was du weisst: wie partitioniert?, welches dateisystem etc.
vielleicht fällt ja jemanden was ein. aber ich denke nicht, daß es die einfache lösung gibt.
 
In OMV-Forum hab ich es auch probiert, aber keine Antwort erhalten und selbstverständlich habe ich die anderen Themen gelesen und versucht umzusetzen, aber ohne Erfolg.

Natürlich gibt es kein Backup der Daten :-(

Also Raid 0 mit 2 Festplatten, ext4 formatiert.
Gerne kann ich auch relevante (da müsstet ihr mir helfen) Ausgaben über die Konsole bereitstellen.
 
breckofresh schrieb:
Natürlich gibt es kein Backup der Daten :-(
breckofresh schrieb:
Also Raid 0 mit 2 Festplatten, ext4 formatiert.

Weg ist weg.. und dann von einem Raid0 nicht mal ein Backup.. das Ding ist tot.. du kannst nicht mal Daten einzeln retten, da beim R0 die Daten gesplittet werden..

Schmerzhafte Lehrerfahrung..
 
Das Raid wird wohl hin sein, nur interessenhalber, was sagt der Befehl:

Bash:
mdadm --detail --scan --verbose
 
mdadm: Unknown keyword INACTIVE-ARRAY
ARRAY /dev/md127 level=raid0 num-devices=2 metadata=1.2 name=openmediavault:Raid UUID=cfdd4fab:745a46e8:f4b8f199:3042e20a
devices=/dev/sda,/dev/sdb
 
ein raid0 ohne backup.
das ist wie: mit den badeschlapfen bergsteigen gehen.

damit ein nas überhaupt sinn ergibt, wirst wesentlich mehr aufwand fahren müssen.
hake es ab und lerne daraus.
hättest nur eine usv verwendet, wäre die eingesprungen und hätte das system ordentlich runtergefahren.
und nix, nix, nix wäre passiert.
 
Immer diese Hetze gegen Software Raids kopfschüttel Kein System ist perfekt, weder Hard- noch Software. Raidcontroller haben genau so ihre Macken und Probleme und sind auch nicht der Weisheit letzter Schuss. Für beide Varianten gibt es Argumente dafür und dagegen.

@breckofresh: OMV hat auch das Rad nicht neu erfunden sondern nutzt mdadm:
https://wiki.ubuntuusers.de/Software-RAID/#Problembehebung
Bist du dir wirklich sicher, dass du ein Raid 0 hattest? Oder doch eher ein Raid 1? Oder nur ein JBOD?

Anhand von dem Befehl von @Trase erkennt man, dass noch Informationen vorhanden sind. Ich vermute eher, dass nur die Reihenfolge der HDDs nicht mehr ganz passt. Sprich bei der Einrichtung hast du aus sda und sdb ein Raid erstellt und das OS liegt auf sdc (oder ähnlich). Jetzt ist eben sdc das neue sda und somit kann das Raid nicht mehr passen. Ein Grund warum man eher mit eindeutigen UUIDs arbeiten sollte und eben nicht mit den nicht eindeutigen Laufwerksbeschreibungen.
Bitte liefere die Ausgabe von sudo blkid -o list sofern blkid installiert ist und zusätzlich sudo cat /proc/partitions, dann sehen wir weiter.

@whats4 Ja, eine USV hätte geholfen. Gegen Stromausfall. Was machst bei technischem Defekt der USV oder Netzteil? Ja, im professionellen Umfeld hätte man zwei Netzteile, usw. usf. aber im privaten Umfeld kaum. Vor egal welchem Defekt hätte nur ein Backup geholfen. Ich denke bzw. hoffe, dass es der TE verstanden hat. Hast du denn noch konkrete Lösungsvorschläge?
 
Zuletzt bearbeitet:
Danke für den Link @snaxilian

Nee, wirklich sicher nicht. Wenn ich nochmal überlege, könnte es tatsächlich ein Raid 1 gewesen sein
 
Bevor du irgendwas mit den Festplatten machst, würde ich ein gesamtes Festplattenimage erstellen (dd oder clonezilla). Ein falscher Befehl kann deinen Versuch der Datenrettung unwiederbringlich zunichte machen.

breckofresh schrieb:
Nee, wirklich sicher nicht. Wenn ich nochmal überlege, könnte es tatsächlich ein Raid 1 gewesen sein
Wie groß sind die einzelnen Festplatten und wie viel Speicher hatte das NAS-Volume insgesamt?
Falls es so viel wie eine Festplatte war, dann war es wohl RAID1 und wenn es so viel Speicher wie beide Festplatten gemeinsam war, dann war es RAID0.
 
  • Gefällt mir
Reaktionen: snaxilian
breckofresh schrieb:
mdadm: Unknown keyword INACTIVE-ARRAY
ARRAY /dev/md127 level=raid0 num-devices=2 metadata=1.2 name=openmediavault:Raid UUID=cfdd4fab:745a46e8:f4b8f199:3042e20a
devices=/dev/sda,/dev/sdb
In der Ausgabe steht das es ein RAID 0 ist. Die Ausgabe sagt aber auch, dass es nur Inaktiv ist.
Vielleicht gibt es ja noch Hoffnung..

Leider habe ich bisher nicht viel mit Software Raids gemacht.

Steht denn etwas in der /etc/mdadm/mdadm.conf ?
 
  • Gefällt mir
Reaktionen: snaxilian
Das wäre ja schön, wenn ich wenigstens an die Daten käme
Ergänzung ()

mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
# Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
# To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
# used if no RAID devices are configured.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# definitions of existing MD arrays
/dev/md127 metadata=1.2 name=openmediavault:Raid UUID=cfdd4fab:745a46e8:f4b8f199:3042e20a

# instruct the monitoring daemon where to send mail alerts
MAILADDR xxx
MAILFROM root

Code: cat /proc/mdstat

mdadm: Unknown keyword /dev/md127
ARRAY /dev/md127 level=raid0 num-devices=2 metadata=1.2 name=openmediavault:Raid UUID=cfdd4fab:745a46e8:f4b8f199:3042e20a
devices=/dev/sda,/dev/sdb
root@OMV:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md127 : inactive sda[0] sdb[1]
2441638400 blocks super 1.2

Code: blkid

blkid
/dev/sda: UUID="cfdd4fab-745a-46e8-f4b8-f1993042e20a" UUID_SUB="5565b2f5-0bab-ed98-fe94-10aa5c08006c" LABEL="openmediavault:Raid" TYPE="linux_raid_member"
/dev/sdb: UUID="cfdd4fab-745a-46e8-f4b8-f1993042e20a" UUID_SUB="86a24492-a3c3-07dc-0743-634a99861a36" LABEL="openmediavault:Raid" TYPE="linux_raid_member"
/dev/sdc1: UUID="a0e549b7-7791-481e-b3af-8958e1e95af3" TYPE="ext4" PARTUUID="9ca61718-01"
/dev/sdc5: UUID="5748ab9b-3f02-44ed-8e84-f8d08d0fe1ee" TYPE="swap" PARTUUID="9ca61718-05"

Code: fdisk -l | grep "Disk "

The primary GPT table is corrupt, but the backup appears OK, so that will be used.
The primary GPT table is corrupt, but the backup appears OK, so that will be used.
Disk /dev/sda: 931,5 GiB, 1000204886016 bytes, 1953525168 sectors
Disk identifier: 380783D3-04A5-4CCF-903A-EEFDB740CF31
Disk /dev/sdb: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
Disk identifier: D7A416CF-8294-481D-A2B8-1C1751FA425A
Disk /dev/sdc: 55,9 GiB, 60022480896 bytes, 117231408 sectors
Disk identifier: 0x9ca61718

Code: mdadm --detail --scan --verbose

ARRAY /dev/md127 level=raid0 num-devices=2 metadata=1.2 name=openmediavault:Raid UUID=cfdd4fab:745a46e8:f4b8f199:3042e20a
devices=/dev/sda,/dev/sdb
 
Zuletzt bearbeitet:
Frage ist das dein Foren Eintrag bei OpenMediaVault?
https://forum.openmediavault.org/index.php?thread/32015-status-failed-service-mountpoint/

Falls ja, dann schau dir mal diesen Beitrag an:
https://blog.icod.de/2019/10/10/caution-kernel-5-3-4-and-raid0-default_layout/

In dem Beitrag gibt es wohl Lösungen für dein Problem.
Du verwendest zwei unterschiedlich Große Festplatten für dein RAID. Ist in der Praxis machbar aber nicht empfehlenswert. Deswegen hast du Probleme beim booten.

Bash:
raid0.default_layout=2
beim booten als Kernel Parameter könnte schon helfen. Ich gehe mal davon aus dass dein Raid nach dem Jahr 2015 erstellt wurde.
 
Zuletzt bearbeitet:
Ja, korrekt das ist mein Beitrag.

Danke, ich werde mir den Link anschauen.

Es hat geklappt. Raid ist wieder da und Daten sind auch noch vorhanden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Trase
Leider war die Freunde wohl nicht von Dauer.

Nachdem ich den Link durchgearbeitet habe und das dauerhaft machen wollte, ist der nach dem Reboot wieder weg und dieser Befehl funktioniert nicht mehr "
echo 2 > /sys/module/raid0/parameters/default_layout
-bash: /sys/module/raid0/parameters/default_layout: Datei oder Verzeichnis nicht gefunden
 
himmel, du hattest das online und hast NICHT die daten runterkopiert, bevor du irgendwas anderes machst?
kopfschüttel
 
  • Gefällt mir
Reaktionen: BFF, up.whatever und snaxilian
Zurück
Oben