Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
gut, wenn du 64 GB Ram im system hast, dann wäre mal der erste schritt weniger ram an die VMs zu geben und proxmox auch noch ein paar GB zu geben. shares könnte gesharter RAM sein. also z.b. 60 GB vergeben und proxmox 4 GB lassen.
Das heißt noch nichts. Ist die Frage, wie viele VMs man hat und wie diese konfiguriert sind. Und wenn man Proxmox einsetzt, dann sollte man sich schon damit ein wenig beschäftigen um es zu verstehen.
Auf meinem NUC mit Intel(R) Pentium(R) Silver N6005 und 32GB RAM kann ich das alles
Die VMs sind bei mir mit 2 CPUs und 8-10GB RAM konfiguriert. Ballooning ist natürlich an.
Würde ich aber gleichzeitig was machen, was mehr RAM benötigt, dann wird sicherlich die eine oder andere VM abgeschossen. Den Use-Case habe ich aber nicht. Bei mir laufen meist nur 2 LXC und 2 VMs 24/7. Und dann starte ich die eine oder andere bei bedarf.
gut, wenn du 64 GB Ram im system hast, dann wäre mal der erste schritt weniger ram an die VMs zu geben und proxmox auch noch ein paar GB zu geben. shares könnte gesharter RAM sein. also z.b. 60 GB vergeben und proxmox 4 GB lassen.
Gehe ich nicht mit. Es ist ja vom Vorteil, wenn man Proxmox einsetzt und mehr CPUs und RAM den VMs zuweisen kann. Bei den meisten werden kaum alle VMs gleichzeitig alle CPU und RAM Ressourcen benötigen.
Ansonsten muss man sein gesamtes Setup überdenken.
Ergänzung ()
Man sollte auch eigene Systeme verstehen. Dazu gehört gutes Monitoring. Für Proxmox habe ich https://grafana.com/grafana/dashboards/10048-proxmox/ im Einsatz. Das ist nur das Dashboard. Man braucht natürlich auch den Rest. Damit kann man sehen, wie die Ressourcen genutzt werden. Viel besser als die spartanische Ansicht in Proxmox selbst.
Bin bisher Fan von Docker, erfüllt meine Anforderungen, hat kaum Overhead und kann die Ressourcen der VM nutzen, wenn nötig. Ich muß eine VM mit Docker-Stack (per Compose) pflegen, die alle Anwendungen beherrbergt, auch HA/Nextcloud/Guacamole/Wireguard.
@Krik ich weiß. Mir reicht eine Mint-VMware-Maschine und Docker-Compose. Daten darauf sind Kopien zur Verteilung, Backup ist Extra. Passiert etwas unkontroliertes wird ein VM-Snapshot zurückgespielt, da repariere ich nicht. VM-Ordner geht regelmäßig an 2 Orte, kann so auch auf anderen Geräten als VM schnell wiederhergestellt werden.
Proxmox hätte hier keine Vorteile, nur mehr (unnötige) Komplexität.
ich fand proxmox schon super. vmware lief bei mir schon alleine wegen der hardware nicht. aber am ende hatte ich kein bock mehr auf bastellösung, hab mir ein neues synology gekauft und hoste aktuell nichts.
sowas wie proxmox ist viel einfacher als docker, weil man sich nicht um netzwerk und IPs kümmern muss. image runterladen, vm erstellen und zack bum läuft es meistens.
wireguard kann die fritzbox. sowas wie nextcloud braucht noch sehr sehr viel entwicklung um gut zu sein.
Frage ist: bringt der VM-Overhead Vorteile. HA gibts als HAOS (VM) und HASS (Docker). Mir reicht HASS, geht 99% von HAOS, braucht HACS und etwas 'Fummeln'.
Vorteil für mich: Overhead von HAOS fällt weg. Docker teilen sich die Ressourcen automatisch. HASS braucht kaum was, Nextcloud ist ein Hog . So läuft alles in einer VM und ist performant. Braucht nicht übertrieben Power/RAM.
Ergänzung ()
Noch zu 'Proxmox ist einfacher': ist hier relativ, Komplexität ist nicht immer von Vorteil. Einfachheit geht nur so. Außerdem bist du vom Ersteller abhängig.
Docker-Compose wird einmal eingerichtet, danach kann ich mit wenigen Befehlen den kompletten Stack bauen, löschen und ebenso die Images als Update per Pull holen und dann neu-bauen, die persistenten Volumes sind extra.
Dazu Portainer für Übersicht und zum Aufräumen - dafür taugt es gut.
wenn man docker kann und versteht ist das natürlich super. ich hatte 2-3 docker images in der docker vm in proxmox. aber dann irgendwann habe ich aufgegeben. man muss verstehen was man macht, was man einstellen muss, die entwickler docs lesen und verstehen und daran ist es dann bei mir am ende gescheitert.
Sowohl VMs als auch Docker haben so ihre Vor- u. Nachteile.
Einmal eingerichtete VMs sind für mich irgendwie pflegeleichter - ich mach nur die Updates (automatisch) u. wenn ich die mal umziehen muss, geht das quasi drag'n drop u. per snapshots ist auch ein rückrollen simple.
Docker muss ich kontrollieren, ob die Mappings sich ja nicht geändert haben, auto. Aktualisierung soll gehen (noch nicht genutzt), dafür muss man sich ggfs. mit macvlan rumschlagen.
Bin bisher Fan von Docker, erfüllt meine Anforderungen, hat kaum Overhead und kann die Ressourcen der VM nutzen, wenn nötig. Ich muß eine VM mit Docker-Stack (per Compose) pflegen, die alle Anwendungen beherrbergt, auch HA/Nextcloud/Guacamole/Wireguard.
Docker nutze ich auch. Habe dafür 2 Docker VMs um die Container zu verteilen.
Virtualisierung hat einen Vorteil. Ich kann die einzelnen VMs wg. Wartung rausnehmen. Mein aktuelles Problem ist, dass mein erster Mini-Server (24/7) ohne Virtualisierung läuft und ich das Problem habe, dass ich den nicht für 1-2 Tage aus dem Netzwerk rausnehmen kann. Bin so langsam dabei die Tools, die darauf laufen in VMs umzuziehen um es später einfacher zu haben. Und 10 Docker Container laufen auch noch drauf.
Am Ende des Tagen muss man eine Lösung für sich finden, die einen das Leben "einfacher" macht.