Win Srv 2016, einfachste Möglichkeit der virtualisierung

Gladiator6

Lt. Commander
Registriert
Aug. 2004
Beiträge
1.275
Hallo zusammen

Folgende Ausgangslage:

-Netzwerk mit 1 Server und 10 Clients
-Server ist von supermicro, darauf läuft Win Server 2016
-Auf dem Server läuft SQL, sowie ein Domainencontroller
-Der Server stellt ein Netzwerklaufwerk allen Clients zur Verfügung
-Die Clients haben alle Win 7 installiert

Es laufen keine rechenintensive Anwendungen, nur Datenbankabfragen (SQL)

Wie könnte der Server am einfachsten virtualisiert werden (möglichst kleiner Initialaufwand, möglichst wenig periodische Wartung)?
Das einzige Ziel der Virtualisierung wäre, die Down Time im Falle eines Hardwaredefekts (Mainboard) zu minimieren.

Vielen Dank für eure Inputs.
 
Du nimmst einfach Disk2VHD von MS und wandelst den laufenden Server in eine VHDX um. Anleitungen dazu findest du zu Hauf im Netz. Wichtig ist vor allem welche Dienste du vor der Virtualisierung abschalten musst.

Gruss Nox
 
und dann würde ich Funktionen auf drei VMs aufteilen: DC, FileServer und SQL Server
 
Ich werde das nicht selber machen, ich "manage" das ganze nur. Der Server läuft erst seit einem Tag, ich hatte eigentlich klar gesagt, dass ich eine Virtualisierung möchte, nur hat jetzt die Firma die das ganze eingerichtet hat den Server physisch aufgesetzt. Ich bin darüber nicht glücklich, da dies Mehraufwand bedeutet, den wir uns eigentlich sparen wollten.

Ein Defekt des Mainboard sollte doch deutlich schneller behoben werden können, wenn das System virtualisiert ist? Oder funktioniert das unterdessen problemlos ein Win Server 2016 auf einem anderen Board wieder einzurichten, ohne alles neu aufsetzen zu müssen?
 
Ein Defekt des Mainboard sollte doch deutlich schneller behoben werden können, wenn das System virtualisiert ist?
Nee, nicht wirklich.
Auf dem Server ist Windows Server 2016 "auf dem Blech" installiert und die Hyper-V Rolle hinzufügt. Dadurch wandelst du den Server in einen Bare-Metal-Hypervisor um. Das ändert aber nicht daran, dass das zugrundeliegende Windows Server Betriebssystem ebenfalls Treiber benötigt.

Geht das Mainboard vom Server hops und wird es 1:1 ersetzt, geht alles ganz normal weiter. Die Treiber sind ja bereits "da" und alles ist richtig konfiguriert.

Geht das Mainboard in ein paar Jahren hops und Ihr könnt ein Ersatzmainboard mit gleichem Sockel, RAM-Unterstützung und Chipsatz eines anderen Herstellers bekommen und steckt dort die Festplatten bzw. den RAID-Controller+Platten drauf, sollte es relativ einfach weitergehen.

Geht das Mainboard in ein paar Jahren hops und Ihr habt Probleme ein Ersatz-Mainboard anzuschaffen, könnt aber noch auf die Daten des Servers zugreifen oder habt ein vernünftiges Backup um daraus die Daten wiederherstellen zu können, könnt Ihr euch ein aktuelles System beschaffen, dort Server 2016 (oder neuer) + Hyper-V Rolle neu aufspielen und die virtuellen Maschinen importieren.
Im Zweifel kann übergangsweise auch ein Windows 10 Pro Rechner herhalten auf dem die VMs laufen, da dort auch Hyper-V in etwas abgespeckter Variante läuft.

Das einzige Ziel der Virtualisierung wäre, die Down Time im Falle eines Hardwaredefekts (Mainboard) zu minimieren.

Um Downtime wirklich zu minimieren, bräuchtet Ihr mehrere physische Server mit Hyper-V + gegenseitige Replikation, so dass bei Ausfall eines physischen Server das eigentlich wichtige, nämlich die virtuelle Maschine, auf dem anderen physischen Server direkt wieder angefahren werden kann oder bei Ausfallerscheinungen die virtuelle Maschine sauber verschoben werden kann bevor der Server in die Knie geht.

Wie könnte der Server am einfachsten virtualisiert werden (möglichst kleiner Initialaufwand, möglichst wenig periodische Wartung)?
Gibt es leider nicht, da schon ziemlicher Stuss getrieben wurde. Meine Initialreaktion bei einem Netzwerk dieser Größe um es richtig zu machen:

Die Nutzdaten vom Server runtersichern (alle geteilten Daten, SQL-Datenbanken usw. usf.). Die Sicherung prüfen.
Den Server komplett platt machen & neu aufsetzen, inkl. Hyper-V Rolle. Daran denken zwei Partitionen bzw. Volumes zu bauen:
C:\ für Windows + ggf. "Hypervisor-relevante" Programme
V:\ für den Speicher der VMs*
Zwei (!) virtuelle Maschinen erstellen:**
DC01 - Domänencontroller inkl. DNS + ggf. DHCP (eine kleine C:\)
AS01 - der Produktivserver mit Dateiserverdiensten, SQL-Datenbank + was Ihr sonst noch braucht (also das was euer physischer jetzt macht abzüglich DC/DNS/DHCP)
Auf DC01 wird die neue Domäne hochgezogen + GPOs, DHCP-Scope etc.
Auf AS01 werden die zuvor gesicherten Nutzdaten wiederhergestellt und die Datenbanken usw.
Alle PCs in die neue Domäne aufnehmen & ggf. lokale Profile migrieren.

Das wäre die Variante wie ich es mit genügend Wartungsfenster machen würde.

Ist das Wartungsfenster nicht groß genug, könnte man sich überlegen auf einem zusätzlichen System einen zweiten (virtuellen!) DC aufzustellen der zum "primären" DC gemacht wird bevor der physische Server plattgemacht wird. So bleibt die Domäne erhalten und die Clients bleiben in der Domäne. Kann auf genanntem Win10Pro installiert werden, sollte aber kein Klepper aus'm ARLT sein, ums mal so auszudrücken.
Optionalerweise könnte man auch einen "Aushilfs"-Fileserver bereitstellen der bspw. per robocopy /COPYALL alle Ordner mit Freigaben übertragen bekommt und nach dem Übertragen die Netzlaufwerke mit anderen GPOs umgedreht werden.
Mit der SQL-Datenbank wirds etwas kniffliger, ist aber auch nicht unmöglich. Hier am besten den Softwarehersteller ins Boot nehmen.
Optimalerweise wird der "Aushilfs"-Fileserver direkt zum produktiven AS01 gemacht (inkl. SQL Zeugs), so dass nach dem Neuaufsetzen des Ursprungs-Servers nur noch die VM da drauf verschoben werden muss.

Das ist aber jetzt nichts für Anfänger. Tretet noch mal an euer Systemhaus ran und pocht auf Nacharbeit. Idealerweise habt Ihr es schriftlich, dass virtualisiert werden sollte.
Sollten die sich sperren oder zu doof sein, sucht euch ein anderes Systemhaus die einen zweiten Server für den Übergang bereitstellen können und wissen wie man eine rollierende Dienste-Migration hinbekommt. Das ist recht überschaubar, aber Ihr braucht eine zweite Maschine.
So oder so ist die ganze Geschichte nicht lege artis wenn heutzutage ein Server nicht virtualisiert wird - gerade bei einem Windows, wo es eher nur von Vorteil ist soviele Dienste wie möglich soweit wie möglich voneinander zu trennen (SBS Flashbacks... brrrrr).

möglichst wenig periodische Wartung)
Ihr habt ehr mehr periodische Wartung, da Ihr nicht nur den physischen Server (den Hyper-V) warten müsst, sondern eben auch die virtuellen Maschinen, wobei es sich bei den VMs auf Windows Updates beschränkt.

edit: Ach ja, wie schaut's mit Backup-Software aus? Gerade wenn nicht das Budget für einen dauerhaften zweiten Host da ist, ist es umso wichtiger ein gescheites Backup-Programm zu haben das unkompliziert die virtuellen Maschinen auf einem neuen Host wiederherstellen kann. Möglichst was agentenloses, sondern etwas was auf Hypervisor-Ebene funktioniert.

*hier ggfs. ReFS prüfen da ein paar nette Vorteile ggü. NTFS für VMs
** Wenn es sich um wenigstens Server 2016 Standard handelt; Essentials darf max. 1 VM
 
Zuletzt bearbeitet:
Es wird wohl einen Auftrag mit der Firma geben, die dies installiert hat. Schau in den Vertrag was vereinbart wurde. Steht dort: Virtualisierung per Lösung XYZ und Erstellung von 3 VMs mit den jeweiligen Diensten A, B und C dann weise darauf, dass der Vertrag nicht erfüllt wurde und informiere die Buchhaltung, die Rechnung noch nicht zu bezahlen.
Steht dort: Installation Server 2016 inkl. der Rollen DC, File Server sowie SQL Server auf dem Blech: Tja, dann ist der Auftrag eben erfüllt.

Wenn du das bestehende System weiter nutzen willst: Hyper-V lizenzieren und Rolle aktivieren. 3 VMs erstellen, je DC, File und eben SQL. Benötigst dann eben 3 weitere Windows Server Lizenzen.
Danach regelmäßige Backups für VMs und den Hyper-V einrichten und auch den Restore testen und dokumentieren. Bei einem Hardware-Ausfall: Ersatzhardware/-server aus letztem Backup des Hyper-V wiederherstellen, dann die VMs aus letztem Backup wiederherstellen.

Bedenke: DCs und SQL Server lassen sich nicht mit jeder Backup-Lösung konsistent sichern, also gründlich informieren.
 
Wenn du das bestehende System weiter nutzen willst: Hyper-V lizenzieren und Rolle aktivieren. 3 VMs erstellen, je DC, File und eben SQL. Benötigst dann eben 3 weitere Windows Server Lizenzen.
Vorsicht: Server 2016 Standard bringt direkt pro Lizenz zwei Virtualisierungsrechte mit (sofern auf dem Hypervisor keine andere Rolle als Hyper-V läuft). Es wird also nur eine zweite 2016-Lizenz benötigt wenn 3 VMs angelegt werden. Eine vierte wäre damit auch gleich abgedeckt.

Bei einem Hardware-Ausfall: Ersatzhardware/-server aus letztem Backup des Hyper-V wiederherstellen
Bei einem Hardwareausfall ist es u. U. bei Server 2016 schneller & sicherer den Host direkt neu aufzusetzen & zu patchen statt aus einem Backup zurückzuspielen. Und wenn der - neue - Host ein anderer Hersteller/Modell ist, brauchts eh wieder Anpassungen (Treiber; Verwaltungssoftware). Das Rumgeiere mit dem Restore auf fremde Hardware spart man sich damit.
 
Zuletzt bearbeitet:
Vielen Dank für die Inputs. Nachfolgend einige weitere Überlegungen meinerseits.

- Ich habe nicht schriftlich, dass die Maschine virtuell hätte aufgesetzt werden sollen. Wir hatten das telefonisch besprochen. Ganz ehrlich: Man ist so extrem von der IT abhängig, dass da einfach auch ein gewisses Mass an Vertrauen da sein muss, um mit jemandem zusammen zu arbeiten. Ich meine die ganzen periodischen Prüfungen, Updates etc., man hat da fast keine Möglichkeit die geltend gemachten Leistungen zu überprüfen. Wie soll ich wissen, ob 4h für ein Update gerechtfertigt sind? Natürlich, ab einer bestimmten Grösse der Firma hat man Wartungsverträge (was wir für einige Software auch haben).

- Die IT kostet sowieso schon sehr viel (Firma hat 5 MA). Mehrere Server Lizenzen (Win 2016 Srv kostet doch um die 1500€?) sind da auf jeden Fall overkill.

-Einfache Frage: Kann man das als vernünftige Lösung bezeichnen in einem Netzwerk mit 10 Clients den Server physisch aufzusetzen? Die Meinungen gehen hier wohl auseinander, weshalb ich auch hier im Forum geschrieben habe. Ich wollte einfach mal ein paar andere Meinungen hören. Wartungsfenster sind leider praktisch keine vorhanden, wenn der Server ausfällt steht die Arbeit fast komplett still.

- Vielleicht wäre eine einfache Option ein zweites identisches Mainboard als Ersatz zu kaufen, so dass man im Fehlerfall zumindest identische Hardware zur Verfügung hat?

-Ist denn Hyper-V überhaupt die einfachste Lösung, wenn man virtualisieren möchte? Gibt ja sicher noch andere Möglichkeiten. Wäre Citrix ev. eine Option?
 
Tja, das ewige Dilemma mit miesen Systemhäusern... Im Zweifelsfall ist man als Mitarbeiter aber dem verpflichtet was vertraglich ausgehandelt wurde und nicht was ggf. ein anderer Kollege dir mündlich gesagt hat. Wenn du kein Vertrauen in den Laden hast: Sucht euch ne Alternative, gibt genug gute Systemhäuser.

Ja, IT kostet Geld. Deal with it. IT ist aber nun einmal das notwendige Rückgrat auf dem viele Unternehmen aufbauen. Lizenzen lassen sich (begrenzt) sparen wenn man Open Source Alternativen einsetzt. Ja, in vielen Bereichen ist dies inzwischen möglich, nein nicht alles lässt sich so ablösen und nein kostenlos ist dies ebenfalls nicht. Die reine Software an sich zwar ja aber Support & Wartung bzw das Knowhow zum betreiben der Anwendungen und Systeme kostet halt auch Geld. Meist sind die Entscheider oder auch Anwender nur zu ängstlich um einem nicht-Microsoft-Produkt ne Chance zu geben.

Ja, für ein kleines Unternehmen mit 5 Mitarbeitern ist das eine durchaus akzeptable Lösung. Dienste voneinander zu trennen ist zwar sinnvoller aber ist eben komplexer und komplexer bedeutet idR mehr Aufwand und somit mehr Kosten.

Keine Wartungsfenster zu haben ist maximaler Schwachsinn und bedeutet im Endeffekt, dass das Systemhaus also Updates, Wartung etc außerhalb eurer Bürozeiten machen soll. Ergo Überstunden oder nicht so nette Arbeitszeiten. Dies machen zwar viele IT-Admins aber nur bei entsprechender Bezahlung und diese Kosten landen früher oder später bei euch. Wenn ihr wirklich so hohe Anforderungen an Verfügbarkeit habt, dann müsst ihr Redundanz aufbauen. Zwei Server, alle Dienste doppelt vorhanden und als Cluster oder hinter einem Loadbalancer entsprechend eingerichtet. Dann kann jederzeit ein von zwei Systemen ausfallen oder in Wartung sein oder Updates erhalten und das andere System/Dienst übernimmt. Auch dies kostet natürlich, ist aber eine relativ einfache Rechnung, die jeder Betriebswirt hinbekommen sollte. Einfach durchkalkulieren was ein Regelbetrieb mit Hochverfügbarkeit kostet und auf der anderen Seite durchrechnen was nur ein System kostet inklusive folgender Betrachtung: System fällt aus, wie lange dauert es bis Ersatz da ist und OS sowie Anwendungen wieder läuft. "Stillstand" in Zeit einplanen und wie hoch die laufenden Kosten sind wenn in dieser Zeit niemand arbeiten kann. Ist der Ausfall teurer als ne redundante Lösung: Dann Redundanz schaffen oder darauf wetten, dass der Fehlerfall nie eintritt. Die Verantwortung muss dafür natürlich jemand übernehmen und dann dazu stehen.
Für genau solche Ausfälle gibt es Service-Verträge. Wir z.B. haben für kritische Infrastrukturkomponenten eine SLA von 4 Stunden bei 24*7*365. Das bedeutet, dass ab Meldung der Störung beim Hersteller oder Anbieter dieser 4 Stunden Zeit hat, spätestens dann muss ein Techniker inkl. Ersatzteilen vor Ort sein. So etwas kostet natürlich und weniger kritische Komponenten haben nur NBD oder SBD.

Nur ein Mainboard kaufen hilft nicht. Was ist wenn die CPU verreckt (okay unwahrscheinlich) oder das Netzteil oder der Disk-Controller? Entweder direkt zweites Komplettsystem ordern, dann kann man auch gleich nen Cluster betreiben, s.o. oder entsprechenden Vertrag mit SLA und Vertragsstrafen abschließen.

Ja, Hyper-V ist ne brauchbare Lösung nein Citrix XenServer ist keine Alternative außer du willst Geld verbrennen. Weitere Alternativen sind VMware ESXi oder KVM mit seinen diversen Abkömmlingen und Management-Systemen (OpenStack, Proxmox, RHEV, etc). Alle haben ihre Vor- und Nachteile.

Wenn ihr keine oder geringere Downtime wollt bzgl. Hardware dann bleiben fast nur noch irgendwelche (managed) Hosting Lösungen. Neudeutsch auch Cloud genannt. Dann seid ihr zwar von dem Anbieter abhängig, je nach Anforderung kann man dann wieder zwei oder mehr Anbieter kombinieren um so eben eine Abhängigkeit zu reduzieren (prominentes Beispiel: Apple lässt seine iCloud auf AWS und GCP laufen für den Fall dass ein Anbieter mal Probleme hat).
Cloud/Hosting bzw. managed Cloud/Hosting ist auf die Laufzeit gerechnet aber idR teurer als selbst eine passende Infrastruktur zu betreiben bei statischen Systemen. Cloud macht erst richtig Spaß und Sinn wenn man stark schwankende Anforderungen an Leistung und Verfügbarkeit hat was bei den meisten kleinen Unternehmen aber selten bis nie der Fall ist.
 
-Einfache Frage: Kann man das als vernünftige Lösung bezeichnen in einem Netzwerk mit 10 Clients den Server physisch aufzusetzen?
Ja. Im Jahr 2008. Seitdem ist die Virtualisierungstechnologie so weit fortgeschritten, dass es Bullshit ist nicht zu virtualisieren. Wie gesagt: Windows Server Standard erlaubt es 2 virtuelle Maschinen (bspw. 1 DC + 1 FileServer/SQL usw.) zu erstellen mit ein und derselben Lizenz. Damit kannst du schon mal die wichtigste Infrastrukturrolle (Domänencontroller/DNS) vom Produktivgeraffel abtrennen und bspw. den Fileserver/SQL-Server durchstarten wenn es nötig ist, ohne dass gleich das ganze Netzwerk zusammenrbricht weil auch gleich der Domänencontroller/DNS-Server vom Neustart betroffen ist.

- Die IT kostet sowieso schon sehr viel (Firma hat 5 MA). Mehrere Server Lizenzen (Win 2016 Srv kostet doch um die 1500€?) sind da auf jeden Fall overkill.
Nein, denn:
Wartungsfenster sind leider praktisch keine vorhanden, wenn der Server ausfällt steht die Arbeit fast komplett still.
Lös dich zunächst mal von dem "Bauchgefühl" dass 1500€ "Overkill" seien wenn gleichzeitig die Anforderung besteht dass der Server durchlaufen muss weil davon die Produktion abhängt.
Das ist eine ganz einfache Kosten/Nutzen-Abwägung: Was würde es der Firma kosten wenn plötzlich der eine physische Server "steht" und die Produktion flachliegt? Mehr als die Kosten für einen zweiten Server (Hardware + Lizenzen) der die Last (nahtlos) übernehmen könnte? Wie hoch ist die Wahrscheinlichkeit dass dieser Fall innerhalb des gesamten Lebenszeitraums des Servers mal eintritt (Murphy/Erfahrung: Die Wahrscheinlichkeit ist 100%)?

Es geht hier nicht mehr um "was darf der Admin für sein Computerspielzeug an Geld bekommen" sondern "was ist nötig um den reibungslosen Produktivbetrieb sicherzustellen".

-Ist denn Hyper-V überhaupt die einfachste Lösung, wenn man virtualisieren möchte? Gibt ja sicher noch andere Möglichkeiten. Wäre Citrix ev. eine Option?
Bei einer vorhandenen Server 2016 Lizenz ist Hyper-V auf einem Standalone bzw. einem kleinen Cluster ohne Frage die einfachste und beste Virtualisierung, hands down.
1) Es handelt sich um ein Windows Betriebssystem, das JEDES Systemhaus installieren kann; du wirst immer Support finden
2) Es entstehen keine weiteren Kosten wenn eine Lizenz vorhanden ist (ESXi ist kostenlos, aber für die Freischaltung der Storage-APIs (wichtig für VM-Backups) brauchst du wiederum eine Lizenz

Der Vollständigkeit halber sind noch Virtualbox und VMWare Workstation/Player erwähnt. Das sind aber aus diversen Gründen keine "angemessenen" Hypervisoren für euren Einsatzzweck.
Ihr wollt einen Typ1-Hypervisor der direkt auf dem Blech läuft (Hyper-V; ESXi; XEN bspw.)

- Vielleicht wäre eine einfache Option ein zweites identisches Mainboard als Ersatz zu kaufen, so dass man im Fehlerfall zumindest identische Hardware zur Verfügung hat?
Nein, das reicht nicht aus.
RAM kann kaputt gehen --> also musst du RAM vorhalten.
Das Netzteil kann kaputt gehen, also musst du ein passendes Netzteil vorhalten (in der Serverwelt sind das nicht immer ATX-Geräte!).
Der RAID-Controller kann kaputt gehen --> also musst du einen RAID-Controller vorhalten.
Platten können kaputt gehen, also musst du Platten vorhalten.
CPU kann kaputt gehen --> also musst du CPUs vorhalten.

Jetzt hast du plötzlich einen ganzen Server in Einzelteilen vorgehalten der ebenso gut auch gleich in Betrieb genommen werden kann und zusammen mit Srv#1 Hochverfügbarkeit machen kann.
 
Zuletzt bearbeitet:
Vielen Dank für die Inputs

Nein, das reicht nicht aus.
RAM kann kaputt gehen --> also musst du RAM vorhalten.
Das Netzteil kann kaputt gehen, also musst du ein passendes Netzteil vorhalten (in der Serverwelt sind das nicht immer ATX-Geräte!).
Der RAID-Controller kann kaputt gehen --> also musst du einen RAID-Controller vorhalten.
Platten können kaputt gehen, also musst du Platten vorhalten.
CPU kann kaputt gehen --> also musst du CPUs vorhalten.

Jetzt hast du plötzlich einen ganzen Server in Einzelteilen vorgehalten der ebenso gut auch gleich in Betrieb genommen werden kann und zusammen mit Srv#1 Hochverfügbarkeit machen kann.

Alles kann kaputt gehen, allerdings ist das nicht bei allen Komponenten gleich wahrscheinlich, und für einiges sollte einfach Ersatz zu bekommen sein.

RAID controller und Board sind wohl am problematischsten. Installiert ist übrigens ein RAID 5, Backup mit 2 externen Festplatten jeweils alternierend über Nacht gesichert.

Ich werde die Situation mit der Firma nochmals diskutieren, die das Ganze installiert hat.
 
Alles kann kaputt gehen, allerdings ist das nicht bei allen Komponenten gleich wahrscheinlich, und für einiges sollte einfach Ersatz zu bekommen sein.
Aus der Praxis: Wenn die Produktion weniger als 1 Tag ausfallen kann bevor es finanziell schmerzhaft wird*, ist es müßig über Ausfallwahrscheinlichkeiten von dieser oder jener Komponente zu spekulieren um diese dann vorzuhalten in der Hoffnung dass genau dieses Teil ausfällt.
Das ist betriebswirtschaftliches Glückspiel und nicht quantifizierbar, bzw. ist die die tatsächliche Ermittlung der Ausfallwahrscheinlichkeiten mit so viel Aufwand und damit Geld verbunden, dass Ihr besser gleich einen zusätzlichen Server anschafft und das Risiko des Diensteausfalls durch Virtualisierung, Replikation/Verschiebung der VMs ganz weit Richtung "geht gegen 0" drückt.

Sorgt auch für das eigene Seelenheil: Wenn der Server brennt, muss ich nicht loshetzen und hoffen dass der erste Reparaturansatz gleich der Richtige ist weil mir Chef den Nacken runterschnauft, sondern kann das Produktivsystem woanders weiter laufen lassen und mich in Ruhe um den Defekt kümmern.

Anekdote: Bei einem Kunden ist der Server immer nachts ausgestiegen/eingefroren und musste hart neu gestartet werden. Es stellte sich heraus, dass immer wenn der Server wenig Energie braucht (Leerlauf zum Feierabend), die Kiste einfror. Als Workaround wurde daher Prime95 dauerhaft gestartet damit die Kiste "warm bleibt. Hat funktioniert, aber hat sich auf die Leistungsfähigkeit der VMs unvorteilhaft ausgewirkt.
Der IBM-Techniker war drei mal da (jeweils am nächsten Tag) und Mainboard, RAM & CPU getauscht. Auf Gut Glück wurde vorher schon ein Set an Netzteilen zugeschickt und ausgetauscht, aber ohne Besserung.
Die Kiste wurde mit der Begründung "Gremlins" und viel Diskussion beim Distributor gegen das Nachfolgemodell ausgetauscht, was aber auch eine Woche gedauert hat.

Hätten wir nicht aus halber Kulanz einen Ausweichserver hingestellt bzw. hinstellen können auf den die VMs während der ganzen Charade verschoben hätten werden können, hätte der Kunde 1 Woche lang im Prinzip Produktionsstillstand gehabt.

(letztlich lags an der Backplane der redundanten Netzteile; versuch mal so ein Teil zu bekommen...)

Installiert ist übrigens ein RAID 5,
Wie viele Festplatten? Welcher Größe?

Backup mit 2 externen Festplatten jeweils alternierend über Nacht gesichert.
Wie werden die Backups gemacht? Steht da eine Software hinter oder ist das robocopy/AllwaySync-Geraffel?

Ich werde die Situation mit der Firma nochmals diskutieren, die das Ganze installiert hat.

Tu das, aber aus dem Bauch heraus solltet Ihr euch ein anders Systemhaus ins Boot holen.
 
Zuletzt bearbeitet:
Aus der Praxis: Wenn die Produktion weniger als 1 Tag ausfallen kann bevor es finanziell schmerzhaft wird*, ist es müßig über Ausfallwahrscheinlichkeiten von dieser oder jener Komponente zu spekulieren um diese dann vorzuhalten in der Hoffnung dass genau dieses Teil ausfällt.
Das ist betriebswirtschaftliches Glückspiel und nicht quantifizierbar, bzw. ist die die tatsächliche Ermittlung der Ausfallwahrscheinlichkeiten mit so viel Aufwand und damit Geld verbunden, dass Ihr besser gleich einen zusätzlichen Server anschafft und das Risiko des Diensteausfalls durch Virtualisierung, Replikation/Verschiebung der VMs ganz weit Richtung "geht gegen 0" drückt.

Auch mit 2 Servern gibt es immer noch Single Points of Failure, z.B. der Netzwerk Switch. Wenn der abliegt, dann ist auch tote Hose. Es geht nicht primär nur um den finanziellen Ausfall, sondern insbesondere auch um die Umtriebe. Es handelt sich um eine Praxis. Bei einem Ausfall des Servers gibt das unzählige Telefonate, weil Termine verschoben werden müssen. Und natürlich gibt es auch dringende Fälle...

Das RAID 5 besteht aus 3 SSDs à 1TB (wobei im Moment ca. 150GB Daten vorhanden sind). Backup erfolgt meines Wissens mit Windows Boardmitteln.

Ein anderes Systemhaus ins Boot holen finde ich nicht so einfach. Wir arbeiten schon länger mit der betreffenden Firma zusammen (>5 Jahre) und jemand anderes ins Boot holen heisst im Prinzip, dass kein Vertrauen da ist, was für das Verhältnis nicht unbedingt förderlich ist.
 
Deshalb nimmt man bei hoch verfügbaren Anforderungen eben auch zwei Switche und verbindet je eine NIC mit einem der Switche. Dann kann sowohl einer der Server als auch einer der Switche ausfallen. Gleiches gilt für die USV. Je zwei Stück und je eins der zwei Netzteile eines Servers mit einer der beiden USVs verbinden.
Oft genug will der Auftraggeber solche hoch verfügbaren Lösungen nicht zahlen, dann weißt man den Kunden eben (schriftlich) darauf hin, dass bei einem Ausfall von Komponente X eben die Dienste Y nicht zur Verfügung stehen und eine Reparatur folgende Komponenten und Zeit dauert.
 
Auch mit 2 Servern gibt es immer noch Single Points of Failure, z.B. der Netzwerk Switch. Wenn der abliegt, dann ist auch tote Hose.
Ein Netzwerkswitch ist aber deutlich einfacher zu beschaffen und zu integrieren statt einen ausgefallen physisch durchinstallierten Server wieder produktiv zu machen.
Einen Switch - auch managebare - finde ich in jeder größeren Stadt.
Ein relativ spezielles Bauteil wie ein bestimmtes Servermainboard - nicht so sehr.

Es geht nicht primär nur um den finanziellen Ausfall, sondern insbesondere auch um die Umtriebe. Es handelt sich um eine Praxis. Bei einem Ausfall des Servers gibt das unzählige Telefonate, weil Termine verschoben werden müssen. Und natürlich gibt es auch dringende Fälle...
Dann wollen wir doch das Gleiche ^^
Um die ganze Geschichte so verfügbar wie möglich zu machen, geht es eigentlich nur mit Virtualisierung + zweitem Server in dieser oder jener Hochverfügbarkeitslösung.

Ein anderes Systemhaus ins Boot holen finde ich nicht so einfach. Wir arbeiten schon länger mit der betreffenden Firma zusammen (>5 Jahre) und jemand anderes ins Boot holen heisst im Prinzip, dass kein Vertrauen da ist, was für das Verhältnis nicht unbedingt förderlich ist.
Sieh es geschäftlich: Du hast - wenn auch mündlich - eine ganz ganz wichtige Anforderung gestellt, die nicht erfüllt wurde.
Nicht nur dass die Anforderung nicht erfüllt wurde, es handelte sich bei der Anforderung imho um eine Selbstverständlichkeit nach dem aktuellen Stand der Technik, so dass die Anforderung eigentlich hätte automatisch erfüllt werden können.

Als Entscheider muss ich mich dann schon mal irgendwann fragen, ob das Systemhaus überhaupt auf dem aktuellen Stand der Technik ist und warum meine Anforderung nicht erfüllt wurde. Dass Windows Server 2016 installiert wurde ist für mich kein Hinweis dass sie technisch auf dem neusten Stand der Dinge sind.
Wenn mein Auftragnehmer sich in einer Kleinigkeit über meinen Auftrag hinwegsetzt die aber letztlich in meinem Sinne ist (bestellt: LAN-Kabel mit bestimmter Artikelnummer, ohne Klippschutz; geliefert: vergleichbare LAN-Kabel aber mit Klippschutz) - geschenkt, und ich danke für die Umsicht.

Das RAID 5 besteht aus 3 SSDs à 1TB (wobei im Moment ca. 150GB Daten vorhanden sind). Backup erfolgt meines Wissens mit Windows Boardmitteln.
Was für SSDs sind das?
Hier hätte man durchaus sparen können und statt SSDs konventionelle Server-HDDs nehmen können (nicht mehr unbedingt in RAID5), je nachdem wie hoch die Anforderungen an die Schwuppdizität/IOPS sind. Das gesparte Geld hätte man dann woanders investieren können.
 
Zuletzt bearbeitet:
Sieh es geschäftlich: Du hast - wenn auch mündlich - eine ganz ganz wichtige Anforderung gestellt, die nicht erfüllt wurde.
Nicht nur dass die Anforderung nicht erfüllt wurde, es handelte sich bei der Anforderung imho um eine Selbstverständlichkeit nach dem aktuellen Stand der Technik, so dass die Anforderung eigentlich hätte automatisch erfüllt werden können.

Ja eben, es war für mich dermassen selbstverständlich, dass man heute virtualisiert, dass ich das auch nicht schriftlich verlangt hatte.

Was für SSDs sind das?
Hier hätte man durchaus sparen können und statt SSDs konventionelle Server-HDDs nehmen können (nicht mehr unbedingt in RAID5), je nachdem wie hoch die Anforderungen an die Schwuppdizität/IOPS sind. Das gesparte Geld hätte man dann woanders investieren können.

Es sind SSDs welche für 24/7 ausgelegt sind, genaue Bezeichnung weiss ich gerade nicht, aber denke das ist auch nicht so entscheidend. Natürlich hätte man hier mit normalen HDDs fahren können, aber Performance ist sicher besser (z.B. beim Zugriff auf DICOM Bilder) und im Hinblick auf die nächsten 5 Jahren war jetzt der Schritt für den Wechsel...
 
Zurück
Oben