Systemd-Bootloader Reboot to Firmware Interface

2Stoned

Lieutenant
Registriert
Apr. 2007
Beiträge
680
Ich habe Manjaro mit dem Manjaro-Architect installiert. Fehlermeldungen gab es dabei eigentlich keine, nur musste ich das Root-Verzeichnis händisch auf mein mdadm RAID10 mounten. Es sieht aber so aus, als seien die Dateien korrekt kopiert worden.
Booten kann ich das OS nun allerdings nicht: ich habe den systemd Bootloader gewählt und erhalte nur ein "Reboot to Firmware Interface" als Meldung mit einem Countdown. Anschliessend folgt ein schwarzer Bildschirm mit einem blickenden _.

Hat jemand allenfalls eine Idee, wie ich das System noch retten kann?

##############

Schlussendlich habe ich doch GRUB verwendet, doch auch hierbei gab es einige Probleme zu lösen...
 
Zuletzt bearbeitet: (Lösung gefunden und verlinkt.)
SystemD ist ein Init system und hat soweit ich weiß keinen Bootloader, da ist also irgendwo etwas gewaltig faul.
Es klingt für mich danach, dass du zwar das System installiert hast, aber keinen Bootloader in den MBR /GBT geschrieben hast.

Das RAID10 erschwert auch noch die Konfiguration da der Bootloader falls einer vorhanden sein sollte): MDADM liegt ja erst auf der InitialRamdisk: das Heist dein System kann das RAID erst initialisieren wenn die InitRD aus dem /boot verzeihnis geladen ist - die eben auf jenem RAID liegt...
Bei RAID 1 geht das gerade noch so mit einem Trick, dass eine beliebige HDD Read-Only geladen wird um dort die InitRD ein zu lesen.

Am besten legt man daher das Verzeichnis /boot auf eine separate Partition (oder per RAID1 zusammengeschaltete) mit 1-4GB und legt auch auf der gleichen Festplatte den Bootmanager ab. Mit Grub habe ich bislang immer sehr gute Erfahrung gemacht und noch jedes System hoch bekommen.

Manjaro basiert auf Arch Linux (das ich auch oft einsetze) da kann man relativ viele informationen in deren echt tollem Wiki finden
 
Der Manjaro-Architect (net installer) lässt die Wahl zwischen GRUB, systemd-bootloader und refind. Mit GRUB hat es eben leider auch nicht funktioniert. :/

/ liegt bei mir auf dem RAID (md127), /bootloader/efi aber auf einer anderen Partition. Ich habe es nun mit GRUB versucht, erhalte aber nur folgendes:

Code:
error diskfilter writes are not supported
Press any key to continue...

Aber das Drücken einer Taste bewirkt nichts. Nach einigen Sekunden geht es aber sowieso weiter zu:

Code:
mount: /new_root: can't find UUID=ce3a7710-f904-4f47-be05-015fd81b816e.
You are now being dropped into an emergency shell.
sh: can't access tty: job control turned off
[rootfs ]#

Nur weiss ich nicht so recht, wie ich hier weiterfahren soll. :/

Danke aber schon mal für deine Erläuterungen. :)
 
das klingt für mich so als findet er die root Partition nicht. dass du in die emergency shell geschmissen wirst ist aber schon mal ein guter Fortschritt!

Dort überprüfst du am besten ob deine festplatten und das Raid ansprechbar sind. Also zuerst einmal schauen ob dort ein /dev/md127 existiert.
Falls Ja versuche es manuell irgendwo zu mounten und schu nach der fehlermeldung für das Dateisystem

Falls nein versuche das RAID Manuell mit mdadm -assemle --scan zu starten.

entweder kommt das Raid und müsste sich mounten lassen oder mdadm fehlt in der InitRD - beides kann man relativ einfach mit einer neu Konfiguration retten...
 
  • Gefällt mir
Reaktionen: 2Stoned
Ah, ich sehe das Problem, um das RAID zu sehen müsste er Dinge vom RAID lesen...

Die emergency shell kennt weder lsblk noch mdadm. ein ls /dev zeigt zwar unter anderem meine Platten mit Partitionen, /dev/md fehlt darunter allerdings.
In der /etc/mkinitcpio.conf habe ich zwar die mdmon binaries angegeben, und auch bei den hooks mdadm_udev gesetzt, aber das liegt ja selbst auf root.

Wie würde denn die entsprechende Konfiguration aussehen? Vielen lieben Dank!
 
ja da fehlt offensichtlich einfach nur mdadm im Initial Ram image. der restliche bootvorgang schein ja zu klappen.

Deine Konfiguration mit demm hook mdadm_udev sollte eigentlich richtig sein. Wurde auch eine neue InitRD erstellet?
mkinitcpio -c /etc/mkinitcpio.conf -g /boot/linuxBootImageName.img

Sicherheitshalber kannst du ja auch die anderen RAID/Dateisystem relevanten Hooks [B]dmraid[/B] [B]mdadm[/B] [B]udev[/B] [B]lvm2[/B] [B]block[/B] und [B]fsck[/B] hinzu fügen. Wenn möglich am besten gleich auch noch [B]modconf[/B] hinzufügen und [B]autodetect[/B] entfernen.
dadurch wird das InitRD zwar deutlich größer, aber man hat im zweifel alles drinn um auch auf anderen Systemen zu booten und das System auf der Rettunkskonsole zu administrieren.


Falls das auch nicht funktioniert bin ich aber momentan etwas mit meinem Latein am ende, da das system ja eigentlich bootet. dann musst du auf der rettungkonsole manuell rausfinden was noch fehlt bzw. im Log an welcher stelle du genau hängen bleibst...
 
  • Gefällt mir
Reaktionen: 2Stoned
Ich habe mit mkinitcpio -c /etc/mkinitcpio.conf -g /boot/linuxBootImageName.img (wobei /etc so gemounted war, dass es die die mkinitcpio.conf aus dem RAID array nahm) erstellt und dieses nach auf die Partition wo /boot/efi liegt gelegt, in den /boot/efi ordner und auch in /boot/efi/boot und und /boot/efi/manjaro, doch bei keiner Position zeigte sich eine Besserung. :/

Versuche es nun nochmals mit den von dir genannten hooks, vielleicht ergibt sich da ja etwas. :)
Ergänzung ()

Leider auch mit den zusätzlichen hooks und ohne autodetect keine Veränderung. :/
 
Zuletzt bearbeitet:
Leider bin ich dann mit meinem Latein am Ende. Selbst habe ich zwar auch wie bereits geschrieben Arch/ubuntu etc im einsatz root liegt bei mir aber immer auf ner SSD nur die Datengräber a.la Storage und Home liegen auf nem RAID (oder t.w. auch NAS).

Es wäre noch ggf. zu testen ob Manjaro ohne die Raid Konfiguration startet und ob andere Linux Systeme (z.B (K/L)Ubuntu mit der gleichen Kombination an laufen. Kann gut sein, dass diese relativ ungewöhnliche Kombination für die root Partition von einem Bug betroffen ist...
 
Ich hatte Manjaro zunächst ohne RAID direkt installiert, das hat auf Anhieb ohne Probleme geklappt... :/

Schade, ich hätte gerne ein RAID10 gehabt. Falls sich nicht doch noch eine Lösung auftut, werde ich wohl ein RAID1 machen, dass kann der manjaro Architect nämlich direkt selbst erstellen - das wird wohl hoffentlich funktionieren :p (obwohl, vielleicht nicht für root...)

Aber vielen Dank für deinen Support, @crossblade !
 
Mittlerweile habe ich folgendes gemacht:
Ich habe mit Calamares Manjaro installiert. Hierzu musste ich aber auf /dev/md127 zunächst mit gdisk eine GPT Partitionstabelle anlegen und auch eine [8300] Partition, welche ich anschliessend als ext4 formatiert habe, ich konnte zwar md127 direkt als ext4 formatieren, so wie dies im Arch RAID Guide auch steht, aber dann konnte ich, zumindest im graphischen Installer, md127 nicht als mount-point für / wählen. /md127p1 ging aber. Die Installation lief ohne Probleme durch und ich erhielt oben genannten Fehler.

Anschliessend bin ich dieser Anleitung ab dem Punkt
.

Dabei war schon mal folgendes auffällig: Ich hatte keinen /etc/grub Ordner. Diesen habe ich von Hand erstellt und auch die Datei /etc/grub/default habe ich händisch angelegt. Die weiteren Schritte in diesem Guide gingen dann problemlos, bis update-grub. Das lief zwar durch, spuckte aber unterdessen etliche Fehlermeldungen aus.

Code:
[manjaro-gnome /]# update-grub
Generating grub configuration file ...
Found theme: /usr/share/grub/themes/manjaro/theme.txt
Found linux image: /boot/vmlinuz-5.7-x86_64
Found initrd image: /boot/intel-ucode.img /boot/amd-ucode.img /boot/initramfs-5.7-x86_64.img
Found initrd fallback image: /boot/initramfs-5.7-x86_64-fallback.img
Found linux image: /boot/vmlinuz-5.6-x86_64
Found initrd image: /boot/intel-ucode.img /boot/amd-ucode.img /boot/initramfs-5.6-x86_64.img
Found initrd fallback image: /boot/initramfs-5.6-x86_64-fallback.img
Found linux image: /boot/vmlinuz-5.5-x86_64
Found initrd image: /boot/intel-ucode.img /boot/amd-ucode.img /boot/initramfs-5.5-x86_64.img
Found initrd fallback image: /boot/initramfs-5.5-x86_64-fallback.img
Found linux image: /boot/vmlinuz-4.19-x86_64
Found initrd image: /boot/intel-ucode.img /boot/amd-ucode.img /boot/initramfs-4.19-x86_64.img
Found initrd fallback image: /boot/initramfs-4.19-x86_64-fallback.img
Found linux image: /boot/vmlinuz-4.9-x86_64
Found initrd image: /boot/intel-ucode.img /boot/amd-ucode.img /boot/initramfs-4.9-x86_64.img
Found initrd fallback image: /boot/initramfs-4.9-x86_64-fallback.img
grub-probe: error: cannot find a GRUB drive for /dev/sdb1.  Check your device.map.
grub-probe: error: cannot find a GRUB drive for /dev/sdb1.  Check your device.map.
File descriptor 3 (pipe:[379983]) leaked on vgs invocation. Parent PID 2136: /usr/lib/goa-identity-service
File descriptor 9 (pipe:[349659]) leaked on vgs invocation. Parent PID 2136: /usr/lib/goa-identity-service
  WARNING: Failed to connect to lvmetad. Falling back to device scanning.
File descriptor 3 (pipe:[379983]) leaked on vgs invocation. Parent PID 2136: /usr/lib/goa-identity-service
File descriptor 9 (pipe:[349659]) leaked on vgs invocation. Parent PID 2136: /usr/lib/goa-identity-service
  WARNING: Failed to connect to lvmetad. Falling back to device scanning.
  WARNING: Failed to connect to lvmetad. Falling back to device scanning.
  WARNING: Failed to connect to lvmetad. Falling back to device scanning.
Found Debian GNU/Linux 10 (buster) on /dev/mapper/pve-root
  WARNING: Failed to connect to lvmetad. Falling back to device scanning.
  WARNING: Failed to connect to lvmetad. Falling back to device scanning.
  WARNING: Failed to connect to lvmetad. Falling back to device scanning.
  WARNING: Failed to connect to lvmetad. Falling back to device scanning.
  WARNING: Failed to connect to lvmetad. Falling back to device scanning.
  WARNING: Failed to connect to lvmetad. Falling back to device scanning.
  WARNING: Failed to connect to lvmetad. Falling back to device scanning.
  WARNING: Failed to connect to lvmetad. Falling back to device scanning.
Found memtest86+ image: /boot/memtest86+/memtest.bin
done

Beim Neustart wurde ich zuerst vom "Manjaro Bootloader" begrüsst, wo ich wählen konnte, ob ich Manjaro, Memtest oder Manjaro mit advanced options starten möchte. Bei der Wahl von Manjaro erhielt ich dann wieder den Fehler
Code:
error diskfilter writes are not supported
Press any key to continue...
Nun ging es aber weiter, es blitzte kurz weiterer Konsolentext auf und anschliessend begrüsste mich der frisch installierte Manjaro Desktop.

Nun ein paar Fragen:
  • Sollte es nicht einen GRUB Ordner in /etc erstellt haben? Ich werde wohl nochmals über den Architect neu installieren, denn auch den nächsten Punkt finde ich komisch:
  • Muss ich unter md127 wirklich mit gdisk eine weitere Partition anlegen? Die Guides formatieren alle direkt!?
  • Kann ich den Boot-Vorgang loggen und schauen, was da noch kurz aufgeblitzt hat?
  • Was müsste ich wohl des Weiteren beachten, wenn ich nochmals neu installiere?
  • Kann ich das RAID10 irgendwie "testen", ob auch alles ordnungsgemäss funktioniert?
Vielen Dank für jeglichen Input und alle Rückmeldungen! :)
 
Zuletzt bearbeitet:
2Stoned schrieb:
Sollte es nicht einen GRUB Ordner in /etc erstellt haben?
Ich bin der Meinung ja. Gab es eventuell bei der Installation eine Fehlermeldung deswegen?

2Stoned schrieb:
Kann ich den Boot-Vorgang loggen und schauen, was da noch kurz aufgeblitzt hat?
Sollte eigentlich mit journalctl oder dmesg auslesbar sein
 
  • Gefällt mir
Reaktionen: 2Stoned
DorMoordor schrieb:
Ich bin der Meinung ja. Gab es eventuell bei der Installation eine Fehlermeldung deswegen?

Nein, die Installation lief ohne Probleme durch.
 
DorMoordor schrieb:
Sollte eigentlich mit journalctl oder dmesg auslesbar sein

Mit journalctl sehe ich verschiedene Fehlermeldungen. Die eigentlichen Fehler habe ich mit >>> gekennzeichnet, aber immer vorher und nachher etwas mitkopiert, damit man besser sieht, wann der Fehler auftrat.

Code:
Mai 02 21:07:22 KLArch kernel: PCI: Using ACPI for IRQ routing
Mai 02 21:07:22 KLArch kernel: PCI: pci_cache_line_size set to 64 bytes
>>>Mai 02 21:07:22 KLArch kernel: Expanded resource Reserved due to conflict with PCI Bus 0000:00
Mai 02 21:07:22 KLArch kernel: e820: reserve RAM buffer [mem 0x09e02000-0x0bffffff]
Mai 02 21:07:22 KLArch kernel: e820: reserve RAM buffer [mem 0x0a200000-0x0bffffff]
Mai 02 21:07:22 KLArch kernel: e820: reserve RAM buffer [mem 0xb7999000-0xb7ffffff]
Mai 02 21:07:22 KLArch kernel: e820: reserve RAM buffer [mem 0xba136000-0xbbffffff]
Mai 02 21:07:22 KLArch kernel: e820: reserve RAM buffer [mem 0xbb7af000-0xbbffffff]
Mai 02 21:07:22 KLArch kernel: e820: reserve RAM buffer [mem 0xbbb6e000-0xbbffffff]
Mai 02 21:07:22 KLArch kernel: e820: reserve RAM buffer [mem 0xbf000000-0xbfffffff]
Mai 02 21:07:22 KLArch kernel: e820: reserve RAM buffer [mem 0x103f300000-0x103fffffff]

Mai 02 21:07:22 KLArch kernel: pci 0000:08:00.0: Adding to iommu group 23
Mai 02 21:07:22 KLArch kernel: pci 0000:09:00.0: Adding to iommu group 24
Mai 02 21:07:22 KLArch kernel: pci 0000:0a:00.0: Adding to iommu group 28
Mai 02 21:07:22 KLArch kernel: pci 0000:0a:00.0: Using iommu direct mapping
Mai 02 21:07:22 KLArch kernel: pci 0000:0a:00.1: Adding to iommu group 28
Mai 02 21:07:22 KLArch kernel: pci 0000:0b:00.0: Adding to iommu group 29
Mai 02 21:07:22 KLArch kernel: pci 0000:0c:00.0: Adding to iommu group 30
Mai 02 21:07:22 KLArch kernel: pci 0000:0d:00.0: Adding to iommu group 31
Mai 02 21:07:22 KLArch kernel: pci 0000:0d:00.1: Adding to iommu group 32
Mai 02 21:07:22 KLArch kernel: pci 0000:0d:00.3: Adding to iommu group 33
Mai 02 21:07:22 KLArch kernel: pci 0000:0d:00.4: Adding to iommu group 34
Mai 02 21:07:22 KLArch kernel: pci 0000:0e:00.0: Adding to iommu group 35
Mai 02 21:07:22 KLArch kernel: pci 0000:0f:00.0: Adding to iommu group 36
Mai 02 21:07:22 KLArch kernel: pci 0000:00:00.2: AMD-Vi: Found IOMMU cap 0x40
Mai 02 21:07:22 KLArch kernel: pci 0000:00:00.2: AMD-Vi: Extended features (0x58f77ef22294ade):
>>>Mai 02 21:07:22 KLArch kernel:  PPR X2APIC NX GT IA GA PC GA_vAPIC
Mai 02 21:07:22 KLArch kernel: AMD-Vi: Interrupt remapping enabled
Mai 02 21:07:22 KLArch kernel: AMD-Vi: Virtual APIC enabled
Mai 02 21:07:22 KLArch kernel: AMD-Vi: X2APIC enabled
Mai 02 21:07:22 KLArch kernel: AMD-Vi: Lazy IO/TLB flushing enabled

Mai 02 21:07:22 KLArch kernel: ACPI: \_PR_.C01D: Found 2 idle states
Mai 02 21:07:22 KLArch kernel: ACPI: \_PR_.C01F: Found 2 idle states
>>>Mai 02 21:07:22 KLArch kernel: ACPI: Invalid passive threshold
Mai 02 21:07:22 KLArch kernel: thermal LNXTHERM:00: registered as thermal_zone0
Mai 02 21:07:22 KLArch kernel: ACPI: Thermal Zone [PCT0] (17 C)

Mai 02 21:07:22 KLArch kernel: rtc_cmos 00:02: setting system clock to 2020-05-02T19:07:19 UTC (1588446439)
>>>Mai 02 21:07:22 KLArch kernel: nvme nvme0: missing or invalid SUBNQN field.
Mai 02 21:07:22 KLArch kernel: nvme nvme0: Shutdown timeout set to 8 seconds
>>>>Mai 02 21:07:22 KLArch kernel: nvme nvme1: missing or invalid SUBNQN field.
Mai 02 21:07:22 KLArch kernel: nvme nvme1: Shutdown timeout set to 8 seconds
Mai 02 21:07:22 KLArch kernel: nvme nvme0: 32/0/0 default/read/poll queues

Mai 02 21:07:22 KLArch kernel: Run /init as init process
Mai 02 21:07:22 KLArch kernel:   with arguments:
Mai 02 21:07:22 KLArch kernel:     /init
Mai 02 21:07:22 KLArch kernel:   with environment:
Mai 02 21:07:22 KLArch kernel:     HOME=/
Mai 02 21:07:22 KLArch kernel:     TERM=linux
Mai 02 21:07:22 KLArch kernel:     BOOT_IMAGE=/boot/vmlinuz-5.6-x86_64
>>>Mai 02 21:07:22 KLArch kernel: acpi PNP0C14:02: duplicate WMI GUID 05901221-D566-11D1-B2F0-00A0C9062910 (first instance was on PNP0C14:01)
Mai 02 21:07:22 KLArch kernel: xhci_hcd 0000:07:00.1: xHCI Host Controller
Mai 02 21:07:22 KLArch kernel: xhci_hcd 0000:07:00.1: new USB bus registered, assigned bus number 1
Mai 02 21:07:22 KLArch kernel: xhci_hcd 0000:07:00.1: hcc params 0x0278ffe5 hci version 0x110 quirks 0x0000000000000410

Mai 02 21:07:22 KLArch kernel: hub 4-0:1.0: USB hub found
Mai 02 21:07:22 KLArch kernel: hub 4-0:1.0: 4 ports detected
>>>Mai 02 21:07:22 KLArch kernel: usb: port power management may be unreliable

Mai 02 21:07:22 KLArch kernel: hub 6-0:1.0: USB hub found
Mai 02 21:07:22 KLArch kernel: hub 6-0:1.0: 4 ports detected
Mai 02 21:07:22 KLArch kernel: AVX2 version of gcm_enc/dec engaged.
Mai 02 21:07:22 KLArch kernel: AES CTR mode by8 optimization enabled
>>>Mai 02 21:07:22 KLArch kernel: md: nvme1n1p1 does not have a valid v1.2 superblock, not importing!
>>>Mai 02 21:07:22 KLArch kernel: md: md_import_device returned -22
Mai 02 21:07:22 KLArch kernel: md: md126 stopped.
Mai 02 21:07:22 KLArch kernel: random: fast init done
>>>Mai 02 21:07:22 KLArch kernel: md: nvme1n1p1 does not have a valid v1.2 superblock, not importing!
>>>Mai 02 21:07:22 KLArch kernel: md: md_import_device returned -22
Mai 02 21:07:22 KLArch kernel: md: md126 stopped.
Mai 02 21:07:22 KLArch kernel: md/raid10:md127: active with 2 out of 2 devices
Mai 02 21:07:22 KLArch kernel: random: lvm: uninitialized urandom read (4 bytes read)
Mai 02 21:07:22 KLArch kernel: random: lvm: uninitialized urandom read (4 bytes read)
Mai 02 21:07:22 KLArch kernel: md127: detected capacity change from 0 to 922443841536

>>>Mai 02 21:07:22 KLArch kernel: md: nvme1n1p1 does not have a valid v1.2 superblock, not importing!
>>>Mai 02 21:07:22 KLArch kernel: md: md_import_device returned -22
Mai 02 21:07:22 KLArch kernel: md: md126 stopped.

>>>Mai 02 21:07:22 KLArch kernel: urandom_read: 2 callbacks suppressed
Mai 02 21:07:22 KLArch kernel: random: lvm: uninitialized urandom read (4 bytes read)
>>>Mai 02 21:07:22 KLArch kernel: md: nvme1n1p1 does not have a valid v1.2 superblock, not importing!
>>>Mai 02 21:07:22 KLArch kernel: md: md_import_device returned -22
Mai 02 21:07:22 KLArch kernel: md: md126 stopped.

Mai 02 21:07:22 KLArch snapd-apparmor[936]: find: ‘/var/lib/snapd/apparmor/profiles/’: No such file or directory
Mai 02 21:07:22 KLArch systemd[1]: Started Load AppArmor profiles managed internally by snapd.
Mai 02 21:07:22 KLArch audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj==unconfined msg='unit=snapd.apparmor comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res>
Mai 02 21:07:22 KLArch systemd[1]: Found device Samsung SSD 970 EVO Plus 1TB EFIBOOT.
>>>Mai 02 21:07:22 KLArch kernel: md: nvme1n1p1 does not have a valid v1.2 superblock, not importing!
>>>Mai 02 21:07:22 KLArch kernel: md: md_import_device returned -22
Mai 02 21:07:22 KLArch kernel: md: md126 stopped.

Mai 02 21:07:22 KLArch kernel: dca service started, version 1.12.1
>>>Mai 02 21:07:22 KLArch kernel: ACPI Warning: SystemIO range 0x0000000000000B00-0x0000000000000B08 conflicts with OpRegion 0x0000000000000B00-0x0000000000000B0F (\GSA1.SMBI) (20200110/utaddress-204)
Mai 02 21:07:22 KLArch kernel: ACPI: If an ACPI driver is available for this device, you should use it instead of the native driver
Mai 02 21:07:22 KLArch kernel: input: PC Speaker as /devices/platform/pcspkr/input/input18

Mai 02 21:07:22 KLArch kernel: kvm: Nested Virtualization enabled
Mai 02 21:07:22 KLArch kernel: kvm: Nested Paging enabled
Mai 02 21:07:22 KLArch kernel: SVM: Virtual VMLOAD VMSAVE supported
Mai 02 21:07:22 KLArch kernel: SVM: Virtual GIF supported
Mai 02 21:07:22 KLArch kernel: MCE: In-kernel MCE decoding enabled.
>>>Mai 02 21:07:22 KLArch kernel: MXM: GUID detected in BIOS
Mai 02 21:07:22 KLArch kernel: nouveau 0000:0b:00.0: enabling device (0000 -> 0003)

Was halt immer wieder auftaucht ist folgender Fehler:
Code:
kernel: md: nvme1n1p1 does not have a valid v1.2 superblock, not importing!
kernel: md: md_import_device returned -22
immer gefolgt von kernel: md: md126 stopped.. md126 gab es mal, aber seither habe ich ich Festplatten mehrmals partitioniert und die RAID-Volumina vorher jeweils entfernt. :S
 
Also das übersteigt etwas mein Wissen.
Aber könnte es sein, dass irgendwo noch überreste von md126 rum liegen? Evtl. ein eintrag im BIOS/EFI oder so?
Hast du bei den Festplatten auch mal die Partitionstabellen gelöscht? Nicht dass da noch irgendwelche Antiken Schätze gefunden werden.

Das wären mit meinem Laien Wissen die ersten Anlaufpunkte
 
Beim booten sieht man einige Sekunden folgende Meldung, dann wird es schwarz, dann blitzt die gleiche Meldung nochmals ganz kurz auf:

Code:
myarray: clean, 359034/56303616 files, 5874711/225205755 block
Failed to send exit request: Connection refused
Ergänzung ()

DorMoordor schrieb:
Aber könnte es sein, dass irgendwo noch überreste von md126 rum liegen? Evtl. ein eintrag im BIOS/EFI oder so?
Hast du bei den Festplatten auch mal die Partitionstabellen gelöscht? Nicht dass da noch irgendwelche Antiken Schätze gefunden werden.

Muss wohl so sein, obwohl ich jeweils mit

Code:
mdadm --stop /dev/md12X
mdadm --misc --zero-superblock /dev/nvme0n1

die RAID Konfiguration gelöscht hatte und anschliessend mit gdisk auch die Partitionstabelle gelöscht habe und eine neue angelegt habe. :/
Ergänzung ()

sudo parted -l listet allerdings keine anderen RAIDs auf als md127.
 
Zuletzt bearbeitet:
Wenn ich mich nicht irre muss um von einem Software RAID zu Booten der Bootloader in der lage sein von jeder einzelnen SSD zu Booten... das dürfte bei RAID10 nicht gegeben sein.
Für mich dafür spricht auch das nvme1n1p1 nicht das RAID sein dürfte da dieses mdx als Bezeichnung hätte.

PS: Ich habe von mdadm aber auch keinen Plan und würde ein RAID auf Dateisystem Ebene bevorzugen (ZFS, btrfs etc)
 
DorMoordor schrieb:
Evtl. ein eintrag im BIOS/EFI oder so?

Habe mal mit sudo efibootmgr geschaut, welche Einträge denn so vorhanden sind und überzählige Einträge mit sudo efibootmgr -b 0000 -B gelöscht.
Ergänzung ()

AlphaKaninchen schrieb:
Wenn ich mich nicht irre muss um von einem Software RAID zu Booten der Bootloader in der lage sein von jeder einzelnen SSD zu Booten... das dürfte bei RAID10 nicht gegeben sein.
Für mich dafür spricht auch das nvme1n1p1 nicht das RAID sein dürfte da dieses mdx als Bezeichnung hätte.

PS: Ich habe von mdadm aber auch keinen Plan und würde ein RAID auf Dateisystem Ebene bevorzugen (ZFS, btrfs etc)

nvme0n1p1 ist die EFI-Partition mit dem Bootloader. Das RAID liegt auf nvme1n1p2 und nvme0n1p2

Hier ein Auszug aus dem auf dem RAID installierten Manjaro:
Code:
sda                  8:0    1 111.8G  0 disk 
├─sda1               8:1    1  1007K  0 part 
├─sda2               8:2    1   512M  0 part 
└─sda3               8:3    1 111.3G  0 part 
  ├─pve-swap       253:0    0     8G  0 lvm 
  ├─pve-root       253:1    0  27.8G  0 lvm 
  ├─pve-data_tmeta 253:2    0     1G  0 lvm 
  │ └─pve-data     253:4    0  59.7G  0 lvm 
  └─pve-data_tdata 253:3    0  59.7G  0 lvm 
    └─pve-data     253:4    0  59.7G  0 lvm 
sdb                  8:16   1  28.9G  0 disk 
├─sdb1               8:17   1   2.6G  0 part   /run/media/kl/MANJARO_GNOME_200
└─sdb2               8:18   1     4M  0 part 
nvme1n1            259:0    0 931.5G  0 disk 
├─nvme1n1p1        259:2    0   300M  0 part 
├─nvme1n1p2        259:3    0 859.2G  0 part 
│ └─md127            9:127  0 859.1G  0 raid10
│   └─md127p1      259:8    0 859.1G  0 part   /
└─nvme1n1p3        259:4    0    72G  0 part 
nvme0n1            259:1    0 931.5G  0 disk 
├─nvme0n1p1        259:5    0   300M  0 part   /boot/efi
├─nvme0n1p2        259:6    0 859.2G  0 part 
│ └─md127            9:127  0 859.1G  0 raid10
│   └─md127p1      259:8    0 859.1G  0 part   /
└─nvme0n1p3        259:7    0    72G  0 part
 
Zuletzt bearbeitet:
Zurück
Oben