Proxmox Container starten nicht mehr nach HDD Einbau

Mugga

Ensign
Registriert
Juli 2006
Beiträge
140
Hallo Leute,

ich habe seit einigen Monaten einen Proxmox Server laufen mit 1 VM und 2 Containern. Alles lief soweit reibungslos. Heute habe ich eine neue Festplatte eingebaut. Nach Einbau Server ganz normal hochgefahren, VM gestartet nur die Container wollen nicht starten.

Habe daraufhin versucht den Container per Shell zu starten und bekomme das hier:

Code:
root@ProxmoxServer:~# lxc-start --name 103 --foreground
lxc-start: 103: conf.c: run_buffer: 323 Script exited with status 2
lxc-start: 103: start.c: lxc_init: 804 Failed to run lxc.hook.pre-start for container "103"
lxc-start: 103: start.c: __lxc_start: 1903 Failed to initialize container "103"
lxc-start: 103: conf.c: run_buffer: 323 Script exited with status 1
lxc-start: 103: start.c: lxc_end: 971 Failed to run lxc.hook.post-stop for container "103"
lxc-start: 103: tools/lxc_start.c: main: 308 The container failed to start
lxc-start: 103: tools/lxc_start.c: main: 314 Additional information can be obtained by setting the --logfile and --logpriority options

Wenn ich fsck für den Container versuche bekommen ich das:

Code:
root@ProxmoxServer:~# pct fsck 103
unable to run fsck for 'Storage:subvol-103-disk-0' (format == subvol)

Leider bin ich jetzt irgendwie aufgeschmissen was ich noch versuchen kann. Einer ne Idee?

EDIT:
Habe gerade noch weitergeschaut und auch gesehen das ich keinen neuen Container mehr anlegen kann, da der Resource Pool leer ist. Wie kann das sein wenn man nur eine leere Festplatte dazusteckt?!
 
Zuletzt bearbeitet:
Loest sich das Problem wenn du sie wieder herraus ziehst?

Hast du vorher auch noch updates installiert, aber jetzt erst rebooted?

nutzt du pve direkt oder ahst du es unter debian nachinstalliert?

gib doch mal den output von
/tmp/lxc-103.log
oder /var/log/lxc-103.log

oder wo auch immer du den status deiner lxc container hin loggen laesst
 
tausche mal die SATA Anschlüsse auf dem Board untereinander. Scheinbar erkennt der nun die neuen HDD als Disk 0 an und versucht davon die Befehle etc zu laden
 
Jetzt funktioniert es auf einmal wieder?! Ich hatte alles versucht, hab mich dann genervt vor den Fernseher gesetzt, Proxmox einfach so gelassen und wollte jetzt nochmal hier im Thread schauen.
Container nochmal gestartet und keine Probleme mehr?!

Verstehe es irgendwie nicht. Einer ne Idee was der Fehler gewesen sein könnte?
 
Neue Platte dazustecken klingt für mich irgendwie so, als wenn du die Platten mit /dev/sda /dev/sdb usw und nicht mit den UUIDs einbindest.
Das kann für Probleme sorgen, wenn die neue Platten dazu kommen, erklärt aber nicht, warum es durch warten gefixed wurde.

Schau doch auch mal in die syslogs ob da was spannendes steht.
 
Das wäre durchaus eine plausible Erklärung.
Weißt du zufällig wie ich die Art der Einbindung prüfen kann bzw. wie ich das sonst auf UUID's umstellen kann?

Hatte damals alles ganz normal übers GUI eingerichtet.
 
Alternativ wäre da noch die mdadm.conf zu nennen wenn das System mit einem normalen md Raid läuft.
 
Danke für die Hinweise. Die Platte mit den VMs ist eine einzelne SSD mit nem ZFS. So wie es scheint wird ZFS wohl standardmäßig ohne UUID eingebunden. Muss ich mal schauen wie ich das jetzt umstelle.

Im /dev/fstab steht der ZFS Pool gar nicht drin.
 
Mugga schrieb:
Im /dev/fstab steht der ZFS Pool gar nicht drin.
Das ist so korrekt. Das mounten der Datasets übernimmt der ZFS-Startup-Service.
Die Mounts sind in ZFS selbst hinterlegt (da braucht man sich normalerweise also nicht drum kümmern).

Allerdings gibts auch das ZFS-Attribut mountpoint. Wenn man das auf legacy setzt, kann man den klassischen Mount-Mechanismus via /etc/fstab benutzen.

Ansonsten zeigt Dir zfs list an, welche Datasets es gibt und welche Mountpoints die ggf. haben.
 
Top, vielen Dank für die Erklärung.
Ist echt erstaunlich, seitdem sich das "selber" repariert hat. Kann ich neustarten wie ich möchte, alles läuft wieder ganz normal.
 
Zurück
Oben