Sinnvolle Storage-Konfiguration unter ESXi

second.name

Lieutenant
🎅Rätsel-Elite ’24
Registriert
Sep. 2009
Beiträge
712
Hallo Community,
mal eine allgemeine Frage:
Ich erinnere mich flüchtig, einmal einen Blog gelesen zu haben, welcher aufzeigt, wie man in seinem Home-ESXi-Server günstig und sinnvoll das Storage konfigurieren sollte.

Meine Ist-Situation:
ESXi starten von USB-3.0
1x 256GB SATA-SSD: Hier liegen z.Z. paar kleinere VM's
1x 1TB SATA-SSD: Hier liegen größere Win10-VM's

Ich erinnere mich aber, gelesen zu haben, dass man es anders konfigurieren sollte, weiß nur nicht mehr wie, nur noch folgende grobe Details:
Eine VM auf dem ESXi-Host stellt eine (NFS-)Freigabe bereit, welche einer kompletten SSD entspricht. Dies hätte Vorteile beim Backup der VM's und weitere Vorzüge.

Sagt das Thema jemanden etwas, oder hat jemand Tipps, wie ich's mit meiner Hardware sinnvoll konfigurieren kann? Vielen Dank und sry, dass ich nicht konkreter werden kann. :)
 
Ziemlicher Quatsch wenn das mit einen Host umgesetzt werden soll. Dann muss immer die VM mit dem NFS-Server laufen bevor du die anderen starten kannst. Lass den NFS mal abschmieren, dann sind alle anderen laufenden VMs auch gleich weg.
 
  • Gefällt mir
Reaktionen: Simon und DaChicken
Ich hatte mal sowas ähnliches zum Testen am laufen. Eine FreeNAS VM hat einen PCIe RAID Controller durchgereicht bekommen, der Speicher wurde dann per ZFS formatiert und per iSCSI wieder dem ESXi als Datastore bereitgestellt. Praktisch ein SAN im gleichen Gehäuse
Wenn es mal lief, lief es recht gut, aber es war jedes mal ein Mist das wieder zum laufen zu bekommen. Weil jedes mal wenn die FreeNAS VM mal aus war / Probleme hatte war natürlich der Datastore der anderen VMs weg. Der "Vorteil" ist dann, dass du nur die FreeNAS VM sicher musst und hast dann die Daten aller anderen VMs gesichert. Ist aber nicht wirklich praxistauglich.
In kleinen Umgebungen kannst du "klassisch" mit Image-Tools wie Acronis Backups machen oder du nutzt Script-Lösungen wie ghettoVCB. Oder du legst dir eine Essential-Lizenz zu und machst die Backups über die API. Aber das ist leider nicht billig.
 
Sinnvoll? Dann ein extra Storagesystem, mit 10GbE angebunden und per iscsi bereitgestellt. Ist aber natürlich nicht günstig.

Auf einem einzelnen Host wirds schon schwieriger, besonders mit zunehmenden Datenströmen. Eine Vm als virtuelle Storage kann man machen, aber die ist dann auch Flaschenhals.

Besser IMO wäre es:
1 redundantes Array haben (real) zb mit R6 Controller und 4+ Platten.
2 auf dieses Array die virtuellen Volumes schreiben, einfach Dateien also.
3 diese Dateien per iscsi daemon direkt vom esxi Host bereitstellen. NFS dann, wenn es kein Windows-OS Image sein soll. Das hat den Vorteil, daß man die Datendateien auch nachträglich recht einfach umziehen kann.

4a iscsi in den VMs einbinden (1 per) und davon starten.

4b Wenn non Windows: OSImage für das Betriebssystem der Wahl in einen Ordner schreiben, DHCP und PXE einrichten und dann die VM „Remote“ über die NFS Freigabe starten. Wenn man das readonly machen kann, reicht ein nfs Share für mehrere VMs. RW geht prinzipiell auch, aber man muß dann damit leben, daß jeder die Startkonfiguration ändern kann. Mit geschickter Konfiguration funktioniert die VM ganz ohne lokalen Speicher, ansonsten aber mit nur sehr wenig davon.

4c Windows kann man zumindest das InstallImage/WinPE Remote starten. Für normalen Betrieb reicht das nicht, aber für unkomplizierte Installation frischer VMs schon. Allerdings funktioniert inzwischen der Windows NFS Client gut genug, sodaß SMB shares für Daten nicht mehr zusätzlich erforderlich sind.
 
@Nilson
Muss das Thema nochmal aufgreifen: Hab es jetzt (exakt wie von die beschrieben) konfiguriert, nur ist meine "Freigabe" ein NFS.
  • Debian mit NFS-Server bekommt physische SSD durchgereicht
  • auf diese "Freigabe" kann ich von allen Clients zugreifen, ISO's direkt am Client downloaden und auf dem NFS speichern.
  • Klappt alles super und die Geschwindigkeit ist um Welten schneller, als meine HDD an der Fritzbox mit SMBv3. :p
  • Es gibt nur ein Problem: ESXi versucht bereits beim Hochfahren, das NFS zu mounten. Zu dieser Zeit ist der Debian-NFS-Server selbst natürlich noch nicht hochgefahren und somit wird NFS nicht korrekt eingebunden, sodass man dies nach jedem Neustart über die GUI oder SSH erneut durchführen muss. :(
  • Gibt's dafür eine Lösung oder kann man das Mounten verzögern bis der Debian-NFS-Server läuft?
 
Moin,

du könntest einen Cronjob laufen lassen, welcher ein paar Minuten nach dem erfolgreichen booten das NFS-Share mountet.

Grüße
 
Ich würde mir mal geas napp-it AiO anschauen. Hatte erst FreeNAS, dann Xigmanas und bin schlussendlich auf napp-it gewechselt, weil da SMB gleich mit an Bord ist. Die ganzen ZFS Möglichkeiten sind auch nicht schlecht.

https://vmware-forum.de/viewtopic.php?f=32&t=29022

Ich bin recht zufrieden mit napp-it, viele aus dem Luxx verwenden das auch. Allerdings haben die meisten (inklusive mir) einen per VT-d bzw. IOMMU durchgereichten HBA.

  • Was hast Du denn für Hardware am Start?
  • Was meinst Du mit SSD durchreichen? Per RDM oder durchgereichtem Controller?

Es gibt nur ein Problem: ESXi versucht bereits beim Hochfahren, das NFS zu mounten. Zu dieser Zeit ist der Debian-NFS-Server selbst natürlich noch nicht hochgefahren und somit wird NFS nicht korrekt eingebunden, sodass man dies nach jedem Neustart über die GUI oder SSH erneut durchführen muss.

Beim Mounten an vSphere musst Du nur etwas Geduld haben. Das geht ein paar Minuten, dann werden Dir die Shares als Datenspeicher im Hostclient angezeigt, und die Gäste werden erreichbar. Daran sollte es nicht scheitern.
 
Zuletzt bearbeitet:
Zurück
Oben