Hardware zusatz für esxi 7.0

  • Ersteller Ersteller DarkZeroThirtee
  • Erstellt am Erstellt am
D

DarkZeroThirtee

Gast
Servus allerseits.

Ich habe derzeit folgende Hardware:
CPU: AMD Ryzen 9 3900x 12 Core
MB: MSI MEG X570 UNIFY
RAM: HYPERX PREDATOR 2x * 16GB
GPU: SAPPHIRE NITRO Readeon RX 590 Series
SSD: ADATA SX8200PNP

Meine Idee ist folgende:
  1. Ich kaufe mir 2 oder drei USB-Sticks. Auf einem von den dreien installiere ich esxi 7.0 U2. Wenn der funktioniert, dann Kopiere ich die Installation auf die anderen USB-Sticks. Das funktioniert.
  2. Jetzt will ich mir einen Betriebssysteme-Speicher-Pool für die VMs aufbauen. Dafür will ich einen NVME-RAID-Controler für M.2 SSDs kaufen Beispiel SSD. Hier tue ich mir schwer. Meine Anforderungen sind:
    1. Mindestens 3 * M.2 SSD Slots, vielleicht vier ähnlich wie diese Controller-Card aber eben mit
    2. RAID 50 und oder RAID 60 Funktion und
    3. Hot-Swap Funktion
    4. Hot-Spare Funktion
    5. Die RAID-Table kann, muss aber nicht Exportierbar sein wäre aber schon gut wenn ;-)
    6. Preis um die 300,- bis 400,- € oder günstiger
    7. Der RAID-Controller muss und das ist wichtig, kompatibel mit esxi 7.0 U2 sein, was letztlich bedeutet das hier nur noch Native-Treiber unterstützt werden
  3. Im Anschluss will ich einen Daten-Speicher-Pool auf einem SAS/SATA-RAID-Controller einrichten. Es sollen mindestens zwei SATA-Platten mit je 3 TB oder 6 TB angeschlossen werden können.
    1. Mindestens 3 * SATA- oder SAS-Anschlüsse besser vier
    2. RAID 50 und oder RAID 60 Funktion und
    3. Hot-Swap Funktion
    4. Hot-Spare Funktion
    5. Die RAID-Table kann, muss aber nicht Exportierbar sein wäre aber schon gut wenn ;-)
    6. Preis um die 200,- bis 300,- € oder günstiger
    7. Der RAID-Controller muss und das ist wichtig, kompatibel mit esxi 7.0 U2 sein, was letzlich bedeutet das hier nur noch Native-Treiber unterstütz werden
Meine Fragen dazu:
  1. Kann man GPUs zu den Gast-Systemen durchreichen und worauf muss ich achten?
  2. Kann ich EINE Grafikkarte auf mehrere Systeme aufteilen, wenn diese mehrere Anschlüsse hat oder muss ich für jedes Subsystem eine kaufen, wenn an dem esxi-Server mehrere Monitore hängen, da dieser in direkter Umgebung zu den Monitoren der Nutzer steht?
  3. Soll ich statt einem Daten-Speicher-Pool aus SAS-HDDs oder SATA-HDDs eher SSDs nehmen? Die Frage stellt sich mir schon länger. Eigentlich sehe ich den Vorteil von HDDs in der Lebensdauer. Ich bin mir nicht sicher, ob ich bei Datenzugriffen auf die Performance oder auf die Langlebigkeit von Speichermedien wert lege. Was meint ihr dazu? Kann man das ganz Rational auf etwas herunter-:kotz:?
  4. Welchen RAID-Controller würdet ihr mir in Bezug auf Punkt zwei und drei unter "Meine Idee ist folgende:" empfehlen?
Derzeit habe ich noch zwei PCIEx16-Steckplätze frei. Einen benötige ich für den Betriebssysteme-Speicher-Pool. Eventuell benötige ich einen davon für eine zusätzliche GPU. Bedeutet alle PCIEx16-Schnittstellen sind aufgebraucht. Die Frage ist nun kann ich solch einen SSD-RAID-Controller an einem PCIEx1 betreiben oder ist die Bandbreite schlicht das Nadelöhr oder die Schnittstelle?

Die GPUs werden einmal für Gaming und eine andere für Grafikbearbeitung benötigt.

Die zwei Systeme mit den GPUs sind zwei festen Benutzern zugeordnet. Die anderen VMs benötigen keine GPUs. Hier genügt der Zugriff via Browser oder TV, oder Remote oder Putty. Ansonsten bin ich mir fast sicher lässt sich eine GPU von einem System entfernen und in ein anderes Gastsystem hinzufügen.

Zwei letzte Fragen noch:
Hat das, was ich hier beschrieben habe, jemand in der gleichen Konstellation schonmal gemacht?
Hat das, was ich hier beschrieben habe, jemand in einer ähnlichen Konstellation gemacht und wo gab es zu den Punkten, die ich hier niedergeschrieben habe Abweichungen?


Ich Bedanke mich für konstruktive und sachdienliche Beiträge.

DarkZeroThirteen
 
VM-Ware ist sehr kleinlich was an unterstützter Hardware angeht.
Zu deinen Controllerfragen einfach auf der VM-Ware Seite die Kompatibilitätsliste anschauen.

https://www.vmware.com/resources/compatibility/search.php

löst viele deiner Fragen.

zu deiner NVMe karte. Dein PCI-E slot muss dann ein echter 16x sein. Sonst geht das nicht.
Damit das was Du willt geht brauchst du einen SAS, U.2 oder u.3 Controller.

Ich tippe mal drauf Du hast dir irgendwo VM-Ware besorgt und willst damit basteln?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: madmax2010
DarkZeroThirtee schrieb:
Jetzt will ich mir einen Betriebssysteme-Speicher-Pool für die VMs aufbauen. Dafür will ich einen NVME-RAID-Controler für M.2 SSDs kaufen Beispiel SSD. Hier tue ich mir schwer. Meine Anforderungen sind:
  1. Mindestens 3 * M.2 SSD Slots, vielleicht vier ähnlich wie diese Controller-Card aber eben mit
Warum? Also: hast du einen Usecase in dem du das auch nur ansatzweise 500mb/s oder mehr als 100k iops brauchst? Wie viele Hops brauchst du zum nachsten AS?

Du suchst da auch ewher nach M.2 ist im serverbereicht eher seltener als U.2 NVMe..

hast du einen getrennsten storageserver? wie ist der angebunden?

was hast du genau mit dem server vor? spielen oder produktiveinsatz?
eigentlich braucht deer garkeine grafikkarte..
 
Zuletzt bearbeitet:
DarkZeroThirtee schrieb:
  1. Jetzt will ich mir einen Betriebssysteme-Speicher-Pool für die VMs aufbauen. Dafür will ich einen NVME-RAID-Controler für M.2 SSDs kaufen Beispiel SSD. Hier tue ich mir schwer. Meine Anforderungen sind:
    1. Mindestens 3 * M.2 SSD Slots, vielleicht vier ähnlich wie diese Controller-Card aber eben mit
    2. RAID 50 und oder RAID 60 Funktion und
    3. Hot-Swap Funktion
    4. Hot-Spare Funktion
    5. Die RAID-Table kann, muss aber nicht Exportierbar sein wäre aber schon gut wenn ;-)
    6. Preis um die 300,- bis 400,- € oder günstiger
    7. Der RAID-Controller muss und das ist wichtig, kompatibel mit esxi 7.0 U2 sein, was letztlich bedeutet das hier nur noch Native-Treiber unterstützt werden
ich versuche mir grade krampfhaft vorzustellen wie man mit einem 4 kanal Kontroller ein Raid50 oder 60 mit Hot-Spare realisieren kann.
Ich hab jetzt Kopfweh
 
  • Gefällt mir
Reaktionen: Taderaz und madmax2010
DarkZeroThirtee schrieb:
Kann man GPUs zu den Gast-Systemen durchreichen und worauf muss ich achten?
Kann man. Prinzipiell ist es so, das eine GPU aber immer exklusiv vergeben wird. Also weder der Host darf sie in Benutzung haben noch ein anderer Gast.
Es gibt auch ein paar Ausnahmen von diesem Prinzip. Dann musst Du halt bei VMWare gucken, was genau mit welcher Hardware möglich ist.
Versuchst Du es auf gut Glück, wird es vermutlich eher scheitern.

DarkZeroThirtee schrieb:
Kann ich EINE Grafikkarte auf mehrere Systeme aufteilen
Siehe Antwort auf Punkt 1

DarkZeroThirtee schrieb:
Eigentlich sehe ich den Vorteil von HDDs in der Lebensdauer. Ich bin mir nicht sicher, ob ich bei Datenzugriffen auf die Performance oder auf die Langlebigkeit von Speichermedien wert
Was langlebiger ist, kann man so pauschal nicht sagen. Was aber schwierig wird ist eine moderne SSD kaputt zu schreiben. Dazu müsstest Du über Jahre und 24/7 mit der Maximalen Datenrate die SSDs befüllen.
Kurz gesagt: Das die in der Einsatzzeit kaputt gehen ist eher unwahrscheinlich bzw. auch nicht wahrscheinlicher als bei einer Magnetfestplatte.

DarkZeroThirtee schrieb:
Welchen RAID-Controller
Ich bin ganz von RAID-Controllern weg und benutze eigentlich nur noch Software-RAID.

Ich würde die Thematik eher umgekehrt angehen. Statt zu gucken, wo das HardwareRAID ein Problem sein könnte eher gucken: Was sind denn die Punkte, warum es ein HardwareRAID brauchen könnte.
 
andy_m4 schrieb:
Was langlebiger ist, kann man so pauschal nicht sagen. Was aber schwierig wird ist eine moderne SSD kaputt zu schreiben. Dazu müsstest Du über Jahre und 24/7 mit der Maximalen Datenrate die SSDs befüllen.

Das trift aber nur Enterprise Server SSD zu die es mit weit mehr als 1 DWPD gibt. Das normale SSD sehr schnell ihr limit erreichen können hat sehr schön das Chia-Plotten gezeigt und viele Hersteller haben ihre max Schreibmenge (TBW) auf die SSD nach unten korregiert.
 
  • Gefällt mir
Reaktionen: madmax2010
Vielen Dank zunächst an alle für die Beiträge.

wern001 schrieb:
VM-Ware ist sehr kleinlich was an unterstützter Hardware angeht.
Zu deinen Controllerfragen einfach auf der VM-Ware Seite die Kompatibilitätsliste anschauen.

https://www.vmware.com/resources/compatibility/search.php

löst viele deiner Fragen.
Genau deswegen bin ich ja hier. Die Kompatibilitätsliste ist so unüberschaubar, das ich mich hier an Leute wenden wollte die sich näher mit dem Thema auskennen.
_______________________________________________________________________________________________________________________
wern001 schrieb:
zu deiner NVMe karte. Dein PCI-E slot muss dann ein echter 16x sein. Sonst geht das nicht.
Damit das was Du willt geht brauchst du einen SAS, U.2 oder u.3 Controller.

Ich tippe mal drauf Du hast dir irgendwo VM-Ware besorgt und willst damit basteln?
Ich gehe davon aus, dass es zutreffend ist, wenn MSI schreibt, dass ich 3 x16 Slots habe.

Ich habe noch nichts besorgt.
_______________________________________________________________________________________________________________________
madmax2010 schrieb:
Warum? Also: hast du einen Usecase in dem du das auch nur ansatzweise 500mb/s oder mehr als 100k iops brauchst? Wie viele Hops brauchst du zum nachsten AS?
Nun ich will das die Systeme schnell booten. Was genau ist AS? Die drei SSDs sind im RAID eingeplant, so das mindestens eine ausfallen kann, aber das Gesamtsystem ist dann immer noch nutzbar.
_______________________________________________________________________________________________________________________
madmax2010 schrieb:
Du suchst da auch ewher nach M.2 ist im serverbereicht eher seltener als U.2 NVMe..
Ich bin aufgeschlossen für alles, sofern es nicht über Teuer ist. Womit muss man hier rechnen - RAID-Controller und U.2 SSDs?
_______________________________________________________________________________________________________________________
madmax2010 schrieb:
hast du einen getrennsten storageserver? wie ist der angebunden?

was hast du genau mit dem server vor? spielen oder produktiveinsatz?
eigentlich braucht deer garkeine grafikkarte..
Nein, ich habe keinen getrennten Storage.

Die Hardwareplattform ist für den privaten Gebrauch. Ich habe sie damals performant gewählt, da ein weiterer PC Ausfallerscheinungen hat. Es sollen auf dieser Hardwareplattform ich und meine Frau das "normale" im Privatleben anfallende bewältigen können. Bilder bearbeiten, die wir aus Urlauben mitbringen oder von Feiern etc. Ich Spiele hin und wieder gerne und erledige die privat Finanzen etc. Außerdem beschäftige ich mich ein wenig mit Linux und Windows Servern. Darum will ich auch andere Systeme hierauf betreiben. Wegen der Spiele und der Bildbearbeitung benötige ich die GPUs.
_______________________________________________________________________________________________________________________
wern001 schrieb:
ich versuche mir grade krampfhaft vorzustellen wie man mit einem 4 kanal Kontroller ein Raid50 oder 60 mit Hot-Spare realisieren kann.
Ich hab jetzt Kopfweh
Ich kann dich zwar verstehen, dass es ungewöhnlich ist und entschuldige mich natürlich auch für die Kopfschmerzen, aber der Beitrag bringt mich nicht weiter.
Ich suche Rat wie ich sowas mit der vorhandenen Plattform umsetzen kann und was mich das Kostet. Hast du andere Ideen?
Da ich nicht Beratungsresistenz bin, bin ich aufgeschlossen für alternative Vorschläge.
_______________________________________________________________________________________________________________________
andy_m4 schrieb:
Kann man. Prinzipiell ist es so, das eine GPU aber immer exklusiv vergeben wird. Also weder der Host darf sie in Benutzung haben noch ein anderer Gast.
Es gibt auch ein paar Ausnahmen von diesem Prinzip. Dann musst Du halt bei VMWare gucken, was genau mit welcher Hardware möglich ist.
Versuchst Du es auf gut Glück, wird es vermutlich eher scheitern.
Die primären VMs von mir und meiner Frau sollen die GPUs zugewiesen bekommen und sonst keine andere VM, wenn man die anderen Systeme über Browser, TeamViewer (TV) oder Remotedesktop bedienen kann.
_______________________________________________________________________________________________________________________
andy_m4 schrieb:
Siehe Antwort auf Punkt 1
Okay.
_______________________________________________________________________________________________________________________
andy_m4 schrieb:
Was langlebiger ist, kann man so pauschal nicht sagen. Was aber schwierig wird ist eine moderne SSD kaputt zu schreiben. Dazu müsstest Du über Jahre und 24/7 mit der Maximalen Datenrate die SSDs befüllen.
Kurz gesagt: Das die in der Einsatzzeit kaputt gehen ist eher unwahrscheinlich bzw. auch nicht wahrscheinlicher als bei einer Magnetfestplatte.
Da habe ich in direktem Umfeld schon andere aussagen gehört. Ich bin mir zwar nicht mehr sicher in welchem Kontext das bei einem meiner Kollegen war aber nach einem 0,5 Jahren war die SSD hin. Laut Hersteller ein inoperabler defekt. Er bekam eine neue SSD von Hersteller.
_______________________________________________________________________________________________________________________
andy_m4 schrieb:
Ich bin ganz von RAID-Controllern weg und benutze eigentlich nur noch Software-RAID.
Wie realisierst du dein System? Was nutzt du für Lösungen?
_______________________________________________________________________________________________________________________
andy_m4 schrieb:
Ich würde die Thematik eher umgekehrt angehen. Statt zu gucken, wo das HardwareRAID ein Problem sein könnte eher gucken: Was sind denn die Punkte, warum es ein HardwareRAID brauchen könnte.
Ich lehne mich mal etwas vor. Ich finde ein Hardware-RAID performanter und besser / leichter zu reparieren. Ein Software-RAID nutzt die System-Ressourcen und verlangsamt das System.
_______________________________________________________________________________________________________________________
wern001 schrieb:
Das trift aber nur Enterprise Server SSD zu die es mit weit mehr als 1 DWPD gibt. Das normale SSD sehr schnell ihr limit erreichen können hat sehr schön das Chia-Plotten gezeigt und viele Hersteller haben ihre max Schreibmenge (TBW) auf die SSD nach unten korregiert.
Davon habe ich noch nie was gehört. Was ist das?
_______________________________________________________________________________________________________________________

Ich freue mich weiter auf Ideen und alternative Vorschläge unter Verwendung der jetzigen Hardware. Neuanschaffungen bin ich aufgeschlossen, sofern ich nicht alles neu benötige und es nicht über teuer ist.
Ich glaube so wäre der Anfang hier im Forum besser gewesen.

Viele Grüße an alle und nochmals Danke für die Anmerkungen.

DarkZeroThirteen
 
Bei Ryzen hast Du keine 3 echte x16 PCI-E. Das sind 3 Steckplätze mit x16 Steckplatz aber nicht x16 angebunden. Den dafür hat dein Ryzen zu wenige PCI-E Lanes. Ich schätze ohne in dein Handbuch zu schauen das die höchstens mit x4 oder x8 angebunden sind.

Das Chia plotten SSDs zerstört ist bei dir anscheinend vorbei gezogen. War ein extrem heißes Thema in den letzten paar Monaten. Einfach mal die Forensuche verwenden.

Des weiteren unterstützt VM-Ware kein Software Raid! Dann kann man höchstens in dem Gastsystem machen.
Das VM-Ware Grundsystem ist kein echtes Linux. Es hat nur einen Linuxkern mit ausgewählten Treibern. Da sollte man nichts drin und dran rumbasteln!

Das mit dem Grafikkarte durchreichen nennt sich GPU Passthrough und ich bezweifle mal das normale Hardware für Consumer das kann.
https://docs.vmware.com/de/VMware-v...UID-2005A8C6-4FDC-46DF-BB6B-989F6E91F3E2.html

VM-Ware ESXi ist kein Bastlerbetriebsystem für daheim. Es will ausgesuchte Hardware die auch dementsprechend teuer ist. Du hast höchstens versuchen in der Bucht gebrauchte Serverhardware zu kaufen und dir einen Server zusammenzubasteln.

Wenn man will bringt man es schon auf normaler Hardware zum laufen aber dann nicht rumjammern das irgendwas nicht zuverlässig geht.
 
Zuletzt bearbeitet:
andy_m4 schrieb:
Ich bin ganz von RAID-Controllern weg und benutze eigentlich nur noch Software-RAID.
Ich auch und toll für uns beide und ne wunderschöne Anekdote fürs Lagerfeuer abends aber sowas von vollkommen irrelevant für den TE wenn die Anforderung lautet: Host läuft mit ESXi denn der kann kein Software-Raid. Abseits davon Full ACK.

DarkZeroThirtee schrieb:
Da ich nicht Beratungsresistenz bin, bin ich aufgeschlossen für alternative Vorschläge.
Gut, hier ist der Vorschlag: Du schaust dir diesen Artikel an und liest ihn und zwar komplett: https://de.wikipedia.org/wiki/RAID
Dann schaust du bitte nochmal auf deine Anforderungen wo du etwas suchst, das vier SSDs aufnehmen soll aber auch Raid 50 oder 60 funktionieren soll UND noch Hotspare und dann machst du uns bitte eine kleine Skizze wie ein Raid 50 (oder 60) mit nur vier Laufwerken zzgl. Hotspare funktionieren soll. Dann sehen wir weiter.
DarkZeroThirtee schrieb:
Kann man GPUs zu den Gast-Systemen durchreichen und worauf muss ich achten?
Consumer-GPUs funktionieren nicht mit VMware und Passthrough so ohne weiteres. Je nach Version des ESXi und der gewählten GPU muss man da ziemlich herum frickeln.
DarkZeroThirtee schrieb:
Kann ich EINE Grafikkarte auf mehrere Systeme aufteilen, wenn diese mehrere Anschlüsse hat oder muss ich für jedes Subsystem eine kaufen, wenn an dem esxi-Server mehrere Monitore hängen, da dieser in direkter Umgebung zu den Monitoren der Nutzer steht?
Manche GPUs können aufgeteilt werden und so mehreren VMs zugewiesen werden. Auch dies steht in der passenden HCL, guckst du hier: https://www.vmware.com/resources/co..._interval=10&sortColumn=Partner&sortOrder=Asc Long story short: Keine davon wird in dein Budget passen.
DarkZeroThirtee schrieb:
Soll ich statt einem Daten-Speicher-Pool aus SAS-HDDs oder SATA-HDDs eher SSDs nehmen?
Auch hier: Du suchst einen Controller mit 3 oder besser 4 Anschlüssen und willst Raid 50 (oder 60) und Hotspare. Bitte Skizze. Dann sehen wir weiter.
Ob und welche HDDs oder SSDs sinnvoll sind hängt davon ab welche Anforderungen du an Speicherplatz, Latenz und IOPS hast.

Ich lese auch nirgends etwas zum Thema Backup. Du willst da etwas relativ komplexes und teures und aufwendiges bauen weil ein einzelner PC Probleme hat? Kümmere dich lieber um Backup des PCs.
Deine fixe Idee, mehr ist es meiner Meinung nach wirklich nicht aktuell, ist nett und du bist nicht der Einzige der sowas vor hat aber der Aufwand und die Kosten sind nicht zu unterschätzen...

Ernst gemeinter Rat: Dein Vorhaben wird dir unfassbar viele Kopfschmerzen bereiten, sehr sehr viel Zeit verbrennen und Lehrgeld kosten. Sobald du dann etwas am ESXi oder dem Storage zerfrickelt hast, hast alles was darauf läuft in Mitleidenschaft gezogen.
Wenn du unbedingt Desktopsysteme virtualisieren willst mit GPU Passthrough im Consumerbereich würde ich eher Unraid in Betracht ziehen oder Proxmox mit ZFS. VORHER informieren ob die gewünschten GPUs sich dort durch reichen lassen denn je nach Modell und Serie kann das frickelig werden.

Bis dahin warten wir oder mindestens @wern001 und ich gespannt auf die Skizzen.
 
  • Gefällt mir
Reaktionen: andy_m4
DarkZeroThirtee schrieb:
Da habe ich in direktem Umfeld schon andere aussagen gehört. Ich bin mir zwar nicht mehr sicher in welchem Kontext das bei einem meiner Kollegen war aber nach einem 0,5 Jahren war die SSD hin.
Du hast natürlich immer mal Einzelfälle oder auch einzelne Modellreihen die schlecht funktionieren (ist bei Festplatten aber nicht anders). Aber genau für solche Fälle hat man ja RAID. Ähnlich wie bei herkömmlichen Festplatten gilt aber auch hier: Die Mischung machts. Unterschiedliche Hersteller oder zumindest unterschiedliche Modelle.

Ich sehe bei Deinem Szenario auch nicht, das die irgendwie intensivst beschrieben werden (für SSDs sind ja vor allem Schreibzugriffe kritisch). Von daher gibts da keinen übermäßig großen Grund sich Sorgen zu machen.
Darüber hinaus lassen sich SSDs analog zu klassischen Festplatten mit S.M.A.R.T. überwachen. Dann siehst doch auch, wie viel Schreibzugriffe es schon gab oder obs bereits Blöcke gibt, die kaputt sind.

DarkZeroThirtee schrieb:
Wie realisierst du dein System? Was nutzt du für Lösungen?
Ich nutze fast durchweg nur ZFS und das schon seit Jahren. Würde gar nicht mehr auf was anderes zurück wollen.

DarkZeroThirtee schrieb:
Ich lehne mich mal etwas vor. Ich finde ein Hardware-RAID performanter und besser / leichter zu reparieren.
Nicht wirklich. Im Gegenteil. Ich hatte auch schon den üblen Fall das mir ein defekter RAID-Controller sämtliche Daten zerstört hat. Ein Problem hast Du auch noch: Wenn der RAID-Controller mal kaputt geht, dann musst Du Dir halt möglichst einen beschaffen der kompatibel ist. Das ist heutzutage nicht mehr so ein großes Problem wie früher. Aber so ein ZFS krieg ich halt irgendwie immer wieder.

snaxilian schrieb:
Host läuft mit ESXi denn der kann kein Software-Raid.
Guter Punkt. :-)
Ich muss zugeben, mir war nicht mehr bewusst wie schlecht ESXi ist. :-)
Insofern Danke für die Richtigstellung.
 
andy_m4 schrieb:
wie schlecht ESXi ist :-)
Trolle doch bitte woanders, solche Aussagen sind auf Scriptkiddieniveau und ich glaube nicht, dass du dies nötig hast. Falls doch: Bitte bitte bitte teile dies doch auch den ganzen Unternehmen weltweit mit. Wie konnten die nur solche schlechten Hypervisoren einsetzen und das nur weil sie deine Meinung nicht kannten. 😲Jetzt gibt es ja schon jahrelang eine kollektive weltumspannende Dummheit aller Admins und Entscheider, wenn sie VMwares Produkte einsetzen und so einem vermeintlich schlechteren Hypervisor zu einem dermaßen großen Marktanteil verschafften uiuiui. Na hätten die alle das mal vorher gewusst.</sarcasm>

KVM, HyperV, ESXi/vSphere und vielleicht und vermutlich auch irgendwie Xen haben alle ihre Daseinsberechtigung und Vor- und Nachteile und je nach Anwendungsfall passt halt die eine Lösung besser als die andere und offenbar passt die eine Lösung öfters als die andere, zumindest in den letzten Jahren oder schon fast dem letzten Jahrzehnt. Wird sich mit den ganzen Wolkenanbietern vermutlich noch ändern aber da spielt dann keiner der gerade aufgelisteten Hypervisoren noch groß eine Rolle auch wenn die meisten Anbieter KVM oder irgendwas auf Basis von KVM verwenden denn wirklich in Berührung damit kommt kein einziger Kunde sondern es zählt die Verwaltungsoberfläche bzw. die APIs oben drüber.

Kein Hypervisor braucht Raids. Die haben vom SAN, einer Image-/OS-Registry o.ä. zu booten und werden per jeweils passendem Konfigurationsmanagement konfiguriert. Tauchen Fehler auf einem Hypervisor auf wird der evakuiert und neu provisioniert oder die HW ausgetauscht wenn Neuprovisionierung nicht reicht. Ist der Fehler so abrupt, dass die gesamte Kiste ausfällt, werden die VMs woanders neu gestartet. Wenn meine Anwendung in der VM so kritisch ist, dass sowas nicht tolerierbar ist, dann muss die Anwendung HA-fähig sein und ich muss nur sicher stellen, dass nie alle oder die Mehrheit der Instanzen auf dem gleichen Blech laufen. Ist meine Anwendung ein SPoF dann muss ich irgendwo einen Klon mit laufen lassen der nahtlos übernimmt wenn ein anderer Hypervisor abraucht und die eigentliche VM mit sich nimmt. So im Datacenter, wenn man es richtig machen will.
Zuhause machen Raids auch selten Sinn denn es wird nur ein einzelner Fall abgedeckt und die ganzen anderen SPoFs (Netzteil, Energieversorgung an sich, Netzwerkuplink, den HBA/Controller an sich, usw.) ignoriert man irgendwie weil zu komplex oder zu teuer. Ja dann kann man sich auch Raids sparen denn Backups braucht man so oder so.
Dafür könnte man dann als ein Baustein das erwähnte ZFS o.ä. verwenden wenn will und es denn einsetzen kann.

Aber wir schweifen ab. Der TE hat für sich entschieden, er möchte ESXi 7.0 U2 verwenden und er wird schon seine Gründe dafür haben.
Ich finde es nicht das passende Tool für die Anforderungen aber das habe ich ja schon weiter oben erwähnt.

Warten wir doch lieber auf die Skizzen vom TE wie er ein Raid 50 oder 60 inkl. Hotspare mit einem Controller mit 4 Ports umsetzen möchte.
 
  • Gefällt mir
Reaktionen: Evil E-Lex und andy_m4
snaxilian schrieb:
Trolle doch bitte woanders, solche Aussagen sind auf Scriptkiddieniveau und ich glaube nicht, dass du dies nötig hast.
Im Grunde hast Du recht. Allerdings hat meine Aussage zu Deinem interessanten/informativen/ergänzenden Posting geführt. Insofern hat sich das (für mich) voll gelohnt. :-)
Die andere Seite der Medaille ist, das dies mich jetzt nicht gerade motiviert solche Reizpunkte nicht mehr zu setzen. :-)
An dem saloppen Tonfall könnte ich aber freilich arbeiten und auch ein wenig mehr Konstruktivität reinbringen.

snaxilian schrieb:
Jetzt gibt es ja schon jahrelang eine kollektive weltumspannende Dummheit aller Admins und Entscheider, wenn sie VMwares Produkte einsetzen und so einem vermeintlich schlechteren Hypervisor zu einem dermaßen großen Marktanteil verschafften uiuiui.
Jetzt mal unabhängig davon wie gut oder schlecht VMWare ist: Wenn wir eines in der IT gelernt haben, das Marktanteil alleine nicht zwangsläufig etwas über die Qualität aussagt.

Und ja. Es hängt im wesentlichen von den Ansprüchen und dem Anwendungsfall ab, was am besten passt. Da gehe ich zu 100% mit Dir mit.
 
  • Gefällt mir
Reaktionen: snaxilian
EDIT: sorry, gerade erst gesehen, der Thread war ja schon halb verwest….

ESX 7 kannst du mit dem Board, ohne dedizierte Netzwerkkarte vergessen, für die verbauten Realtek Chips gibt es keine Treiber unter 7.X.
Ähnlich verhält es sich mit NVME Controllern.
Ein manuelles hinzufügen von Treibern ist mit aktuellen ESX Versionen ebenso nicht mehr möglich.

Ich habe mein HomeLab deswegen noch auf ESX 6.7 laufen lassen, bis Geld für kompatible Hardware da ist.
Generell solltest du dein Vorhaben überdenken und meiner Meinung nach besser strukturieren.
Du willst sehr viel auf einmal, scheinbar ohne ausreichende Kenntnisse.

Fang lieber Klein an z.B. mit einem HP Microserver oder gebrauchter Server/Workstationhardware.

Grüße
 
Zuletzt bearbeitet:
gibt es eigentlich irgendwo benchmark Ergebnisse von so VM Systemen?
Vorallem würde mich der unterschied zu einer echten Maschine interesseren. Vor etlichen Jahren war der unterschied zwischen echten und VM auf gleicher Hardware ca 15-20% bei SQL datenbanken.
 
Ja, es gibt natürlich Erfahrungswerte hierzu. Für normale Szenarien empfinde ich den Unterschied als nicht mehr realistisch bemerkbar, er soll sich wohl um < 5% handeln. (glaube ich mal bei VMware gelesen zu haben)
SQL Server kann man auch sehr stark optimieren, was im zusammenhang mit Virtualisierung auch zu empfehlen ist. Das beginnt schon direkt beim erstellen der VM.

Grüße
 
nosti schrieb:
Ich habe mein HomeLab deswegen noch auf ESX 6.7 laufen lassen, bis Geld für kompatible Hardware da ist.
Die Frage ist, ob es für so ein "HomeLab" überhaupt ESX sein muss. Den Anwendungsbereich sehe ich eher dort, wo es drauf ankommt und wo es dann auch (finanziell) kein Problem ist abgestimmte Hardware zu verwenden.

wern001 schrieb:
Vorallem würde mich der unterschied zu einer echten Maschine interesseren.
Das kommt sehr auf den Virtualisierer an, die Anwendung die läuft und auch die Hardware.

wern001 schrieb:
Vor etlichen Jahren war der unterschied zwischen echten und VM auf gleicher Hardware ca 15-20% bei SQL datenbanken.
SQL-Datenbanken! Augenroll
Es gibt keine SQL-Datenbanken. SQL ist eine reine Abfragesprache. Was dahinter steckt kann völlig unterschiedlich sein. Sogar eine plain-text-Datei.

nosti schrieb:
Für normale Szenarien empfinde ich den Unterschied als nicht mehr realistisch bemerkbar, er soll sich wohl um < 5% handeln. (glaube ich mal bei VMware gelesen zu haben)
VMWare ist generell nicht so der "Speedrunner" unter den Virtualisierern. Die glänzen eher mit dem drum herum an Tools und Lösungen.

nosti schrieb:
SQL Server kann man auch sehr stark optimieren, was im zusammenhang mit Virtualisierung auch zu empfehlen ist. Das beginnt schon direkt beim erstellen der VM.
Sowas wie ne Datenbank unter einer Vollvirtualisierung laufen zu lassen ist auch eher was, was man in der Windows-Welt macht. Häufig nimmt man dafür eher leichtgewichtige Container, die dann auch deutlich weniger Ressourcen-Overhead haben.
 
Wenn man beruflich damit zu tun hat, betreibt man eher die Lösungen, welche man auch im Job einsetzt. So ist es zumindest bei mir. Wir arbeiten ausschließlich mit VMWare und entsprechen ist auch mein Homelab aufgebaut. Wenn ich mich privat damit befassen würde, ohne beruflichen Hintergrund, würde ich womöglich was anderes nehmen. Möglichkeiten gibt es sehr viele.

Containiersierung von Datenbanken ist ein ziemlich komplexes Thema. Unsere Entwickler machen das auch gern und kommen dann auch bloß zu uns in die Infrastruktur, wenn sie die Kisten vor die Wand gefahren haben. Es beginnt schon mit Grundlagen zur Bereitstellung eines persistenten Speichers.

Möglich ist vieles, der beste Weg ergibt sich aufgrund der Anforderungen, Fähigkeiten und (finanziellen sowie technischen) Möglichkeiten des Unternehmens.

Grüße
 
nosti schrieb:
Wenn man beruflich damit zu tun hat, betreibt man eher die Lösungen, welche man auch im Job einsetzt.
So läuft man auch nicht Gefahr versehentlich über den Tellerrand hinaus zu blicken. :-)

Ansonsten ist der Grund ja offensichtlich. Nämlich freiere Auswahl bei Hardware. Daneben muss man sich dann auch nicht mit irgendwelchen Lizenzen herumschlagen.
Die miese Performance wurde ja schon genannt.
 
Zuletzt bearbeitet:
Zurück
Oben