Virtualisierung Proxmox vs Hyper-V

Chris_S04

Commander
Registriert
Mai 2011
Beiträge
2.404
Hallo zusammen,

derzeit habe ich hier im Netz eine QNAP 431P stehen, die allerdings mit dem RAID5 (vier Platten) etwas langsam daherkommt (RAID1 mit zwei Platten machte keine Probleme). Wenn man einen Film davon streamt, habe ich in unregelmäßigen Abständen Pausen in denen gebuffert wird (egal ob per Kodi oder anderen Playern), außerdem liegt die Schreibrate (auch bei großen Daten) bei etwa 35-40 MB/s. Das Netzwerk an sich ist i.O., wie ich an den Zugriffen auf die Freigaben der einzelnen PCs gesehen habe (da wird der 1Gbit ausgereizt).

Nun habe ich hier noch einen Rechner herumstehen mit folgenden Eckdaten:
Core i5 4460
8 GB RAM (erweiterbar auf 16, da ich noch 8 aus einem anderen alten Rechner nehmen könnte)
AsRock H97 Pro 4
Im Falle, dass mein Vorhaben funktionieren sollte, würde noch eine zweite Netzwerkkarte dazu kommen

Den würde ich gerne zum Homeserver umfunktionieren. Der Plan wäre wie folgt:
Auf dem Rechner selbst sollte entweder ein Windows Server 2016 oder Debian laufen. Mehr nicht, alles andere sollte virtualisiert werden, eben per Hyper-V bzw. KVM (Proxmox).
Laufen sollten die folgenden VMs:
- Fileserver
- Firewall
- Medienserver
- Owncloud
- Temporäre VMs zu Testzwecken

Die Systemplatten der VMs sollten auf einer SSD abgelegt werden, damit es da schon mal keinen I/O-Flaschenhals gibt. Dem Fileserver würde ich gerne die vier Platten aus meinem NAS durchreichen und dort weiter im SW-Raid betreiben.

Der Fileserver wäre auch für mich das KO-Kriterium, da dieser die wichtigste Komponente darstellt. Ist das Vorhaben so umsetzbar wie geplant in Hinblick auf diesen, würde ich das durchziehen, falls nicht, dann bleibe ich beim NAS.
Nun ist meine Frage ob die Performance eines virtualisierten Fileservers nicht dermaßen einbricht, dass ich hier keinen Mehrwert davon habe. Geplant wäre gewesen eine VM mit Debian aufzusetzen, auf welchem OMV läuft. Dieser VM gebe ich wie erwähnt die Festplatten aus meinem NAS durch und würde diese am liebsten als verschlüsseltes RAID5 oder 6 laufen lassen. Oder eben als RAID5 weiterlaufen lassen, sollte die VM den Verbund aus dem NAS sogar schon als MDADM-RAID5-Verbund erkennen (könnte das sein?).

Hat hier jemand Erfahrungswerte diesbezüglich? Wäre die Verschlüsselung innerhalb der VM möglicherweise zu lahm? Oder der Overhead der Paritätsberechnungen? Ich habe schon öfter gelesen, dass viele der Meinung sind, dass Fileserver eher auf dem Blech direkt laufen sollten, deshalb meine Bedenken.

Die Firewall-VM würde vermutlich eine Sophos UTM Home werden, der ich entsprechend einen Netzwerkadapter als Gateway komplett durchreichen würde und den anderen als Anbindung ins Heimnetz verwenden würde. Das durcheichen einer NIC sollte möglich sein, da der H97-Chipsatz Vt-d unterstützt.

Die Owncloud-Instanz würde ich an einen separaten vSwitch hängen, und in der FW als eigene Zone definieren, die keinen Zugriff auf mein Heimnetz hat.

Oder gäbe es hier ggf. noch Potential für Verbesserungen oder habe ich möglicherweise etwas nicht bedacht?

Ansonsten eben noch die Frage, falls so etwas möglich wäre, welchen Hypervisor ich verwenden sollte. Mit Hyper-V fühle ich mich etwas wohler, da ich eher aus der Windows-Welt komme. Sollte jedoch KVM derart performanter sein und mein Vorhaben eher unterstützen, hätte ich auch kein Problem mich hier einzuarbeiten.

Wäre super falls hier der ein oder andere Tipps oder Anregungen für mein Vorhaben hätte. Wäre super.
Sollten weitere Infos benötigt werden, werde ich diese natürlich sobald ich kann nachreichen.
Vielen Dank schon mal.

Viele Grüße,
Chris_S04
 
  • Gefällt mir
Reaktionen: Jan S.
Chris_S04 schrieb:
derzeit habe ich hier im Netz eine QNAP 431P stehen, die allerdings mit dem RAID5 (vier Platten) etwas langsam daherkommt (RAID1 mit zwei Platten machte keine Probleme). Wenn man einen Film davon streamt, habe ich in unregelmäßigen Abständen Pausen in denen gebuffert wird
Hab zuhause auch ein TS-431P stehen mit Raid5, 4*3TB Platten (2* WD Red und zwei alte Seagate Desktop Platten).
Da buffert selbst bei 4K Videos garnichts.
Sicher, dass da in der Konfiguration nichts schief gelaufen ist?
 
Selbst mit nur einer Platte bzw. zwei im RAID1 hab ich die Raten nicht hin bekommen. Da waren 70-80MB das Maximum. Und jetzt mit vier Platten eben nur 35-40. Mir kam das schon lahm vor, ein Problem in der Konfiguration kann ich aber leider nirgends feststellen. Ich wüsste auch nicht, wo ich groß etwas falsch konfiguriert haben könnte. Vier Platten rein, RAID5 Verbund draus gemacht, den frei gegeben. In den Netzwerkeinstellungen habe ich nur eingestellt, dass Verbindungen nur aus meinem privaten IP-Bereich akzeptiert werden sollen. Mehr nicht.

Wie gesagt die Verbindung zwischen zwei PCs (Windows <-> Windows oder auch Windows <-> Linux) packt an den gleichen Ports mit den gleichen Kabeln eben 100-120MB also das Maximum, das Gbit eben mitmacht.

Die Platten sind alle Recht neu, die Smart Werte alle soweit okay. Zwei der vier Platten hatte ich schon in einem PC testweise, da konnte den Gbit ausreizen, im NAS nachher nicht mehr ganz (wie gesagt ca. 70MB im RAID1).
 
Das sind zwei HGST Deskstar NAS und zwei Seagate Ironwolf mit je 6TB und 7200RPM
 
Ich werde es mir definitiv nochmal ansehen ob ich in der Konfig des NAS etwas raus bekomme.

Ansonsten stünden meine Fragen bzgl. der Virtualisierung noch im Raum. Wie gesagt wäre der Fileserver zwar definitiv das wichtigste, allerdings wäre ich dem Umbau prinzipiell nicht gegenüber abgeneigt, da eine eigene Cloud für mich einen gewissen Reiz hätte. Die möchte ich aber nicht ohne entsprechende Segmentierung im Netzwerk haben, deshalb eine Firewall und die DMZ. Abgeneigt wäre ich eben eigentlich v.a. dann wenn ein virtualisierter Fileserver so wie geplant nicht funktionieren sollte oder eben so keinen Sinn ergibt. Dann würde ich den Status Quo beibehalten. Sollte mein Vorhaben so aber prinzipiell möglich sein, würde ich das gern umsetzen wollen. Das NAS würde ich dann als Backup-System nutzen.

Dennoch schon Mal Danke für den bisherigen Input.
 
Als Virtualisierungsplattform willst Du Proxmox. Warum?
Easy Administration. Geht (fast) alles via integriertem WebUI/ssh auch ressourcenschonend von Remote.

Den Fileserver hätte ich nicht als virtuelle Maschine, sondern als Container auf dem Proxmox-Host angelegt. So hast Du einen spürbaren Leistungsschub, weil Linux Container praktisch mit der Geschwindigkeit vom Host-Kernel auf Devices zugreifen können, vom Rest der Prozesse aber wie in einer VM isoliert sind. Die Emulation des Block-Devices in der VM fällt, so, weg. Geichzeitig lässt Proxmox einen aber, diesen Linux-Container (lxc) managen wie eine richtige VM.

mdadm-raid? Nein. Proxmox kann zfs. Use it. ZFS ist ein Filesystem, was von sich aus RAID kann, und zwar viel effizienter als mdadm. Während mdadm stumpf bitwise spiegelt, weiß ZFS welche Bits zu Dateien gehören und welche frei sind, kann Snapshots verwalten uvm.

Windows, geeignet für Office-Umgebung für Gewohnheitstiere, Zocken und Abschreibungen
Linux -> Rest der Aufgaben
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DFFVB
Ja das wäre eine Möglichkeit.
Leider habe ich mit Containern noch wenig Erfahrung und sollte man ZFS nicht mit ECC-RAM verwenden? Also abgesehen davon, dass ECC-RAM bei Servern nie verkehrt ist. Dachte eben für ZFS wäre das fast schon zwingend. Außerdem kenne ich die Faustregel pro TB ZFS-Storage min 1GB RAM zu haben. Bei einem RAID5-like ZFS Pool wären das bei mir netto ca. 18TB, so viel RAM habe ich leider nicht da.

Könnte ein solcher Container die HDDs auch nach einer Weile schlafen legen, wie es bspw OMV kann? Also per hdparm o..Ä.?
Und kann ich in dem Container dann bspw. OMV laufen lassen? Da ist die Vergabe der Berechtigungen usw. deutlich komfortabler als unter einem einfachen SMB-Share unter Debian/Ubuntu/etc.
 
Na wenn schon ZFS dann auch mit FreeBSD. FreeBSD liefert mit jails auch leichtgewichtige "Virtualisierung" (also quasi Container wie man sie woanders bezeichnet). Falls es mal echte Virtualisierung benötigt (für Windows u.ä.) steht mit bhyve ein moderner Virtualisierer bereit.

Chris_S04 schrieb:
Leider habe ich mit Containern noch wenig Erfahrung und sollte man ZFS nicht mit ECC-RAM verwenden?
Muss nicht zwangsläufig. Ich fahre etliche Rechner mit ZFS ganz ohne ECC-RAM.
 
Ja, OMV (Debian) kannst Du denke ich ohne Weiteres in einem Linux Container laufen lassen.
Der teilt sich dann den Kernel vom Host. Darum kannst Du dann aus dem Container heraus auch die HDD schlafen legen. Der Host-Kernel hat halt direkt volle Hardware-Kontrolle.
Der Vorteil von Proxmox gegenüber FreeBSD ist einfach das professionelle und funktionelle Management der VMs via Web. HTML5 KVM usw.
In einen Linux-Container kannst Du alles stecken, was einen Linux-Kernel hat. Proxmox kann aber beides gleichzeitig laufen lassen und stellt speziell dafür die wichtigsten Management-Funktionen übersichtlich bereit.

Ich habe ZFS auch mehrfach ohne "ausreichend" und ohne ECC-RAM laufen. Bisher keine Probleme.
Das Pool-Management ist einfach super.
 
OK danke für die Antworten.
Mir war trotz fehlender Erfahrung Proxmox eigentlich lieber als Hyper-V einfach auch aufgrund der Lizenzsituation und eben der Unterstützung von Containern, was ein Thema war, in das ich mich ohnehin Mal bei Gelegenheit einarbeiten wollte.

Eine Frage hätte ich noch bzgl Durchreichen von Hardware an eine VM, also im speziellen einer Netzwerkkarte.
Ich habe mehrfach gelesen, dass dies bei Proxmox nicht nötig sei und man stattdessen eine vBridge einrichtet (das bekomme ich hin) und diese so einrichtet, dass nur die Bridge, nicht aber der Host Teil dieses Netzes ist (soweit ich weiß bekommt die Bridge eine IP aus diesem Netz zugewiesen und dem physischen Netzwerkadapter selbst wird bspw. fest die 0.0.0.0 zugewiesen).
Frage zielt darauf ab, dass ich gerne eine FW in einer VM laufen lassen würde (ist nicht so toll, weiß ich, aber derzeit kein zweiter voll einsatzbereiter PC da) und an dieser VM alle NICs hängen würden, also auch das Gateway ins Internet. Um hier unabhängig von der verwendeten HW zu sein eben auch virtuell per Bridge.
Nur sollte natürlich der Host selbst keine IP aus diesem Netz bekommen, sondern seinerseits auch "hinter" der FW stehen. Der andere Adapter ins Heimnetz dagegen soll eine herkömmliche Bridge bekommen, da der Host ja Teil dieses Netzes sein soll.
Habe ich das richtig verstanden?
 
Warum lizenzsituation bei hyperv?? Der Hyper-V Server Core ist kostenlos. Hat allerdings keine GUI. Da kannste aber vom client aus konfigurieren..
Hab mal gehört, das Windows VMs unter Proxmox nicht so toll laufen sollen.
 
Ja stimmt, mit Lizenzsituation meinte ich Hyper-V als Rolle/Feature auf einem Windows Server bzw. Windows Client zu installieren, dafür wären Lizenzen erforderlich (die ich derzeit zwar noch hätte, aber trotzdem).
Dass Windows VMs auf Proxmox nicht toll laufen, weiß ich nicht. Ich weiß nur, dass man bei der Installation des Windows Gasts die VirtIO Treiber mit einbinden muss, sonst erkennt Windows die VHD nicht.

Aber ja, wäre schon interessant ob das evtl. zwickt, denn ich würde zu Testzwecken auch Windows-Gäste betreiben wollen.

Habe auch Mal kurz geschaut OMV in einem LXC zu betreiben. Es funktioniert wohl über Mittel und Wege, allerdings wird überwiegend davon abgeraten, da hier die Unterstützung für Block Devices fehlt. Meistens wird dazu geraten einen anderen Container (Turnkey z.B., sagt mir aber leider gar nichts) zu verwenden oder wenn es OMV sein sollte eine VM mit Disk Passthrough zu verwenden.
 
Sprinterfreak schrieb:
Der Vorteil von Proxmox gegenüber FreeBSD ist einfach das professionelle und funktionelle Management der VMs via Web. HTML5 KVM usw.
Wers braucht.
Bei FreeBSD hast Du halt den Vorteil, es ist alles sehr integriert. Die Features sind gut verzahnt. Das macht den Umgang damit so einfach.

Sprinterfreak schrieb:
In einen Linux-Container kannst Du alles stecken, was einen Linux-Kernel hat. Proxmox kann aber beides gleichzeitig laufen lassen
Geht mit FreeBSD Jails auch. Du kannst nicht nur einzelne Anwendungen in einer Jail laufen lassen. Du kannst nicht nur ein eigenständiges FreeBSD-System in einer Jail laufen lassen, sondern auch ne Linux-Distribution (wobei Du das beim vorliegenden Anwendungsszenario vermutlich gar nicht brauchen wirst; solche Sachen wie Owncloud usw. gibts auch alle für FreeBSD).

Alles natürlich auch parallel. Auch parallel mit bhyve.

Obendrein steht Dir mit PF eine sehr gute Firewall zur Verfügung.

Die Aufgabe passt also sehr gut zu FreeBSD. Vor allem hast Du bei FreeBSD halt diesen Install&Forget Faktor. Das System ist halt sehr robust und stabil und damit wartungsarm.
 
Bei FreeBSD bin ich leider komplett blank. Da habe ich keinerlei Erfahrung. Deshalb eben bei mir die Richtung Windows bzw. Linux.
 
Chris_S04 schrieb:
Ich weiß nur, dass man bei der Installation des Windows Gasts die VirtIO Treiber mit einbinden muss, sonst erkennt Windows die VHD nicht.
Kann, muss nicht. Du kannst im Proxmox per GUI einfach wählen, wie die Devices emuliert werden sollen.
Die HD als IDE, SATA, SCSI oder VirtIO - IDE und SATA kann WIndows auch ohne zusätzliche Treiber, ist aber weniger performant. SCSI kann Windows gar nicht und VirtIO nur mit Nachrüst-Treiber. Wer mit Windows arbeitet, sollte allerdings Treiber sneaken gewohnt sein. Drum sieht Windows ja auch immer noch A: fest für ein Diskettenlaufwerk zum nachladen des Netzwerkkartentreibers vor. :-/
Gleiches gilt für die Netzwerkkarte. Proxmox kann sie als Intel e1000, Realtek oder VirtIO konfigurieren. Die letzte, die theoretisch performanteste Variante, benötigt extra-Treiber. Ich habe allerdings mit e1000 sehr gute Erfahrungen gemacht und würde den Umweg über VirtIO nicht empfehlen.
Ergänzung ()

Chris_S04 schrieb:
Eine Frage hätte ich noch bzgl Durchreichen von Hardware an eine VM, also im speziellen einer Netzwerkkarte.
Ich habe mehrfach gelesen, dass dies bei Proxmox nicht nötig sei und man stattdessen eine vBridge einrichtet (das bekomme ich hin) und diese so einrichtet, dass nur die Bridge, nicht aber der Host Teil dieses Netzes ist (soweit ich weiß bekommt die Bridge eine IP aus diesem Netz zugewiesen und dem physischen Netzwerkadapter selbst wird bspw. fest die 0.0.0.0 zugewiesen).
Habe ich das richtig verstanden?

Nicht ganz. Man reicht keine PCI-Netzwerkkarten an die VM durch. Tatsächlich steckt man bloß das physikalische Interface auf dem Host zusammen mit dem Interface der VM in eine unkonfigurierte Bridge.
Für die DMZ würde ich dann zusätzlich via sysctl.conf noch IPv6 auf der Bridge und den Interfaces der DMZ abschalten. Sonst würden sich die Interfaces eine LL-Adresse geben. Die Bridge transportiert dann aber trotzdem weiter IPv6-Traffic wie ein dummer Switch, der Host ist nur nicht adressierbar.
 
Zuletzt bearbeitet:
Zurück
Oben