News Microsoft: Windows Server 2022 wurde in drei Versionen veröffentlicht

Wattwanderer schrieb:
Ich denke das ist eher eine Designentscheidung. Will man, dass jeder mit irgendeinem USB Stick angelaufen kommt und sie in den Server steckt? Die Antwort kann ja lauten aber MS hat sich für nein entschieden.

Als Desktop Virtualisierer würde ich das als ein Ausschlusskriterium sehen aber auf Server durchaus verständlich. Einerseits sogar den Browser soweit zugenagelt, dass er keine Dateien herunterladen kann und dann ein offenes Scheunentor?

Man hörte ja Geschichten wie in der IT Abteilung bei neuen Geräten die USB Ports mit Heisskleber zuschmiert wurden bevor es unter dem Schreibtisch landet.

Wir haben auch einige USB Sticks die wir bei gegebenen Anlässen verschenkt hatten noch übrig. Ach, war das mal eine unschuldige Zeit...
In den Server Raum kommt eh keiner. Das Problem wäre dann noch größer. Mit VSphere geht das und auch aus gutem Grund.
 
@xexex
Klar, gibt auch zig alternative Möglichkeiten. Aber so ein Hyper-V Core ist einfach zu konfigurieren und kostete nichts. Es geht da auch um Kundenbindung und öffentliche Wahrnehmung. Ein kleines Unternehmen was wächst und gute Erfahrungen mit den Microsoft Produkten gemacht hat, wird sich nicht nach Alternativen umschauen. Mit Speck fängt man Mäuse, je niedriger die Einstiegsschwelle, um so ehr hat man den Kunden am Haken.
 
  • Gefällt mir
Reaktionen: konkretor
SSD960 schrieb:
Aus meiner Sicht taugt Hyper V immer noch nichts. Nicht mal einen USB Stick kann mann durchschleifen. Irgendwie scheint MS da keine Ambitionen zu haben.
Es macht meistens keinen Sinn den Stick direkt in einen Server zu stecken. Dafür gibt es seit Jahren passende USB Server.
1630585277213.png

https://www.seh-technology.com/de/produkte/usb-deviceserver.html

Ja! VMware unterstützt sowas, ist letztlich aber eine Designentscheidung. Dafür kann ich bei VMware praktisch nichts am Server selbst machen, ebenfalls eine Designentscheidung.
Ergänzung ()

raekaos schrieb:
Ein kleines Unternehmen was wächst und gute Erfahrungen mit den Microsoft Produkten gemacht hat, wird sich nicht nach Alternativen umschauen.
Ein "kleines" Unternehmen wird mit Sicherheit auch einen oder mehrere Windows Server Lizenzen beschaffen und da ist die Hyper-V Lizenz gleich mit dabei. Wie schon gesagt, ich sehe einfach kaum Szenarien für die freie Variante, aber bestreite nicht dass es welche gibt.
 
  • Gefällt mir
Reaktionen: alQamar, PHuV und raekaos
SSD960 schrieb:
Aus meiner Sicht taugt Hyper V immer noch nichts. Nicht mal einen USB Stick kann mann durchschleifen. Irgendwie scheint MS da keine Ambitionen zu haben.
Wer braucht das? Weder in Xen noch in Proxmox oder Hyper-V hatte ich jemals die Anforderung, ebenso bei den meisten ESXi-Server. Es gab nur einmal einen Fall, wo wir einen USB-Stick für eine teure spezielle Scananwendung bei einem Kunden hatten. Hier haben wir dann einfach auf einen Softwareschlüssel umgestellt, und fertig wars.
Ergänzung ()

xexex schrieb:
Es macht meistens keinen Sinn den Stick direkt in einen Server zu stecken. Dafür gibt es seit Jahren passende USB Server.
Eben!
 
Zuletzt bearbeitet:
Wie relevant ist denn der Wegfall vom Hyper-V Server wirklich?

Soweit ich es weiss faellt es nicht weg, das man die Hyper-V Rolle (und nur diese!) gratis nutzen kann, und dann 2 virtuelle Maschinen mit einer Server Lizenz laufen lassen kann.
Dann ists halt kein Hyper-V Server mehr als unterbau, sondern ein normaler Server 2022.

Mit anderen Worten: Eigendlich nur relevant, wenn man nicht eine einzige Windows Server VM hosten will. Und dann nimmt man vermutlich eh einen anderen Virtualiserer :p
 
  • Gefällt mir
Reaktionen: xexex
PHuV schrieb:
Wer braucht das? Weder in Xen noch in Proxmox oder Hyper-V hatte ich jemals die Anforderung, ebenso bei den meisten ESXi-Server. Es gab nur einmal einen Fall, wo wir einen USB-Stick für eine teure spezielle Scananwendung bei einem Kunden hatten. Hier haben wir dann einfach auf einen Softwareschlüssel umgestellt, und fertig wars.
Ergänzung ()


Eben!
Wir. Eine Lizenzierung... Was hindert MS daran das einzubinden?
 
raekaos schrieb:
Also für dich ist es günstger, wenn jedes kleine Unternehmen einen Serverraum hat der den Namen verdient?
mit Klima, USV, Brandschutz etc. Interessant. Ich habe mal einen Serverraum gebaut. Die Preise für Material und Handwerker sind sehr hoch. Dann noch die Dienstleister die sich um die Installation und Wartung kümmern.
Strom wird immer teurer. Server müssen, auch insb. bei kleinen Unternehmen nicht 24/7 laufen. vielleicht 9 oder 10 Std am Tag. Azure rechnet Minutengenau ab.

Deinen Kostenvergleich hätte ich gerne auf Papier. 👍🏻
Ergänzung ()

SSD960 schrieb:
Es gibt wunderbare Appliances die USB Geräte oder Dongle via TCP IP bereitstellen. Das durchreichen von Physischen USB Sticks in VMs durchbricht die Sicherheitstrennung von Host und VM. SEH ist ein toller Anbieter.
Ergänzung ()

SSD960 schrieb:
Die Ambition ist SICHERHEIT. Die braucht Microsoft in Azure by design. Daher ist auch NOCH keine GPU Paritionierung möglich wie in VMware weil Microsoft die Umsetzung und Treiber von NVIDIA für unsicher befindet.
 
Zuletzt bearbeitet von einem Moderator:
Cloud oder on-Premise haengt ja soweit ich weiss (wir sind eine on-Premise Firma) extrem vom Workload ab.

Geht man hin und schubst alle seine Windows VMs die 24/7 laufen einfach auf irgendeinen Cloudhoster, dann wird das schnell teurer als wenn man selber hosted.

Man "cloudisiert" lieber auf einer Service Ebene. Exchange duerfte da ein klassisches Beispiel sein. Man stellt nicht seinen Exchange in die Cloud, sondern bucht Mail als Service. So rechnet sicht das fuer den Betreiber viel mehr, weil er so Ressourcen besser buendeln und skalieren kann, und der Kunde zahlt dann in der Regel auch weniger.
 
  • Gefällt mir
Reaktionen: raekaos
alQamar schrieb:
Die Ambition ist SICHERHEIT. Die braucht Microsoft in Azure by design. Daher ist auch NOCH keine GPU Paritionierung möglich wie in VMware weil Microsoft die Umsetzung und Treiber von NVIDIA für unsicher befindet

Unsicher? Dann sollte MS zuerst andere Arbeiten erledigen. Ich rede hier von Unsicherheit in Server Betriebssystemen. Z. B. PrinterNightMare
 
alQamar schrieb:
Also für dich ist es günstger, wenn jedes kleine Unternehmen einen Serverraum hat der den Namen verdient?
mit Klima, USV, Brandschutz etc. Interessant. Ich habe mal einen Serverraum gebaut. Die Preise für Material und Handwerker sind sehr hoch. Dann noch die Dienstleister die sich um die Installation und Wartung kümmern.
Strom wird immer teurer. Server müssen, auch insb. bei kleinen Unternehmen nicht 24/7 laufen. vielleicht 9 oder 10 Std am Tag. Azure rechnet Minutengenau ab.

Deinen Kostenvergleich hätte ich gerne auf Papier. 👍🏻

Eh, ich weiß ja nicht was du machst, 90% bei kleinen Unternehmen die ich kenne läuft ein Miniserver irgendwo, USV ist ne kleine APC o.ä. und ein beliebiges 2 Platten NAS als Backup das im besten Fall regelmäßig Mal zusätzlich auf ne ext. HDD gesichert wird. Wenn du denen mit nem Serverraum kommst lachen die dich auch aus. Internet in vielen Industriegebieten ist mEn ehr schlecht als Recht. Ich möchte sehen, wie die mit 3 Angestellten über die vll. 6 Mbit Leistung, neben Internetradio und dem sonstigen Gedöns (Handys etc) produktiv in der Cloud arbeiten wollen.
Rechnen wir kurz durch 3000,- € Server ((E2236, 16GB, 2*920GB Ent. SSD inkl. Server Essential) + 400€ NAS + 300 € USV + 100€ ext. HDDs alles inkl. Einrichtung, Aufstellen und Installation. Macht über eine typische Laufzeit von 72 Monaten 52,- , dazu bei hoch geschätzten 200W 24/7 macht das noch Mal 50,- Strom im Monat, dazu noch Mal 50,- Wartungspauschale, Unwägbarkeiten etc. runden wir also ganz grob auf 200,- € im Monat inkl aller Kosten. Ein vergleichbarer Azure Server mit der Leistung und Plattenkapazität kostet deutlich mehr und man hat ein paar VCores die ggf. nicht im Ansatz die Leistung des kleine Xeon E bringen. Der ganze Azure Bums muss aber auch konfiguriert und eingerichtet werden, macht sich auch nicht umsonst. Ich habe mehre Azure Umstellungen begleiten bei unterschiedlichen Unternehmensgrößen. Ergebnis bei den größeren war, sie sind nach einiger Zeit zu einem Hoster gewechselt und haben dort dedizierte Server gemietet, weil deutlich günstiger. Die "kleineren" haben sich alle wieder Server ins Haus gestellt.
Versteh mich nicht falsch, Azure ist schon cool, wenn man temporär schnell eben ne Maschine für irgendwas braucht, aber über längere Zeit rechnet sich das idR absolut nicht. Wobei ich da mittlerweile lieber Prepaid Hoster nehme, weil sie billiger sind und ich da Sachen ohne auf die Kosten zu achten einfach laufen lassen kann.

SaS und Cloud bringt vor allem viel Geld für die Anbieter, wie man entsprechenden Umsatzzahlen auch von MS entnehmen kann.
 
  • Gefällt mir
Reaktionen: Rickmer, Karl Napp, alQamar und eine weitere Person
Die Kosten von einem Server für ca. 10k € habe ich locker nach 6-10 Monaten wieder raus, wenn ich das gleiche in der Cloud hosten würde. Für mal kurz was hosten ist Cloud Hosting ok, aber nichts für dauerhaft, das wird einfach zu teuer.
Ergänzung ()

raekaos schrieb:
Ich habe mehre Azure Umstellungen begleiten bei unterschiedlichen Unternehmensgrößen. Ergebnis bei den größeren war, sie sind nach einiger Zeit zu einem Hoster gewechselt und haben dort dedizierte Server gemietet, weil deutlich günstiger. Die "kleineren" haben sich alle wieder Server ins Haus gestellt.
Yup, so auch meine Erfahrung. Was eher gut kommt sind Cloud Services, eben wie Exchange, Atlassian Tools und Co.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: raekaos
raekaos schrieb:

Frage mich bis heute, wann und warum sich sowas in Unternehmen durchgesetzt hat.

Wenn ich noch einmal Synology/QNAP "NAS-BACKUP" oder "NAS-STORAGE" in Bezug auf irgendein Unternehmen höre, renne ich ganz schnell weg.

Das kann man gar nicht seriös betreiben...
Aber schön einfach... hier ne Netzwerkfreigabe, da Todo Backup installiert... schon hat man nen 100% sicheres Backup vom Server :stock:

Einerseits stimmt es zwar das Azure/Hosted Lösungen teuer sind, aber in der Regel werden diese seriös betrieben... Wozu 3000€+++ zahlen wenn ich am Ende zwar nen eigenen Server in der Ecke stehen habe, der aber so schlecht aufgesetzt ist, dass das kleinste Ereignis zum Totalausfall führt?

Vor nen paar Jahren in meiner damaligen Uni ist ein Raidcontroller abgekackt und alle Userdaten an der ganzen Uni waren futsch... die haben zwar nen Bandroboter , jedoch wer spielt schon gerne sowas ein? Die bezahlen sogar Leute dafür die da im eigenen Rechenzentrum arbeiten
 
Zuletzt bearbeitet:
@user8374
Weil es ausreicht, wenn man es richtig macht. Backup Benutzer der kein AD-User und nur in Veeam hinterlegt ist z.B.. So eine Maschine ist mit dem Backupmedium in kürzester Zeit hardwareunabhängig wiederhergestellt oder virtualisiert. Schlecht aufgesetzt muss das nicht sein, es muss halt zweckmäßig sein.
 
  • Gefällt mir
Reaktionen: Karl Napp und Miuwa
raekaos schrieb:
@user8374
Weil es ausreicht, wenn man es richtig macht. Backup Benutzer der kein AD-User und nur in Veeam hinterlegt ist z.B.. So eine Maschine ist mit dem Backupmedium in kürzester Zeit hardwareunabhängig wiederhergestellt oder virtualisiert. Schlecht aufgesetzt muss das nicht sein, es muss halt zweckmäßig sein.

Dann erzähl mal bitte, wie man es richtig macht.

Also ich habe es jetzt schon 2x miterlebt, wo das geheiligte NAS Backup so toll war, aber am Ende unbrauchbar. Bei dem einen hat die Ransomware gleich das Backup mitverschlüsselt. Bei dem anderen hat die geheiligste non-enterprise-graded Hardware bei einem Netzteildefekt gleich den Raidverbund zerlegt, wer brauch schon einen Hardwarecontroller oder redundante Netzteile... überbewertet. Blöd nur, dass genau dann das Backup benötigt wurde.

Wenn man sowas "richtig" macht, kommt man weder mit 400€ für die Hardware(Naja gut, vielleicht wenn ich mir irgendwas mit FreeNAS zurechtfrickel) aus, noch der Zeitstunden die es kostet die ganze zusätzliche Hardware zu warten und zu kontrollieren... und das Geld kann man dann auch gleich in seriöse Backupsysteme stecken. Und wenn man mit seriös anfängt, dann merkt man auch gleich wie teuer alles ist und der Preisunterschied zur hosted Lösung sinkt dahin.. Nur die meisten Leute merken erst was ihr ITler da für einen Mist verzapft hat, wenn es schon zu spät ist. Ich kann nur immer sagen, Finger weg von Unternehmensdaten. Für die Schäden die da möglicherweise entstehen, kann man gar nicht haften.

Und Stromargumente bei Unternehmen? Wenn man schon am Strom sparen muss (der bei Gewerbe sogut wie nichts kostet) , sollte man überlegen, die Firma einfach dicht zu machen...

Zu was "sparen" führt hat man ja beim OVH Brand gesehen...
 
Zuletzt bearbeitet:
@user8374
Hab ich geschrieben wie es geht. Die Miniserver z.B. von Wortmann haben idR. MegaRaid 9361-4i Controller o.ä. die Hardware ist solide Business-Qualität, redundante Netzteile sind bei dem UseCase doch ein bisschen OP. Vor Brand helfen nur Off-Side Backups, da würde dir kein redundante Netzteil und auch kein High-End-NAS was bringen btw.
Der OVH-Brand ist ein gutes Beispiel dafür, dass man auch Cloudserver und Webseiten regelmäßig Off-Side sichern sollte.
 
  • Gefällt mir
Reaktionen: Karl Napp
user8374 schrieb:
Dann erzähl mal bitte, wie man es richtig macht.
Ganz simpel, man kauft noch ein zweites NAS oder Speicherplatz in der Cloud und synchronisiert das Backup dorthin. Das Problem in deinem geschilderten Fall ist nicht das billige NAS System, sondern die fehlende Offsite Sicherung.

Abgesehen davon zeugt ist die Tatsache, dass eine Sicherung verschlüsselt werden konnte, von einer Fehlkonfiguration des NAS Systems. Bei jedem QNAP System, kann ich die Freigaben auf eine oder mehrere IP Adressen einschränken. Richtig konfiguriert hätte nur der Host drauf Zugriff und normalerweise wird darauf nicht irgendwelcher Software aus dem Internet ausgeführt.
 
xexex schrieb:
Ganz simpel, man kauft noch ein zweites NAS oder Speicherplatz in der Cloud und synchronisiert das Backup dorthin. Das Problem in deinem geschilderten Fall ist nicht das billige NAS System, sondern die fehlende Offsite Sicherung.

Abgesehen davon zeugt ist die Tatsache, dass eine Sicherung verschlüsselt werden konnte, von einer Fehlkonfiguration des NAS Systems. Bei jedem QNAP System, kann ich die Freigaben auf eine oder mehrere IP Adressen einschränken. Richtig konfiguriert hätte nur der Host drauf Zugriff und normalerweise wird darauf nicht irgendwelcher Software aus dem Internet ausgeführt.

irgendeine Software aus dem Internet... der war gut
Die Seuche verbreitet sich in kürzester Zeit überall, auch auf dem Host. Wenn der Host Zugriff das NAS hat, werden die Daten einfach mitverschlüsselt. Wo ist das Problem? ist ja nicht so, dass das schon einigen Unternehmen passiert ist...

Der eine erzählt "Cloud" geht nicht, wegen mangelnder Internetleitung. Jetzt kommt Offsite Backup... wie soll das laufen? VDSL 40mbit upload? haha... der war gut.

Noch 10 NAS und Festplatten irgendwo im Gebäude unterbringen... ahja. Wer sagt mir, dass am Ende die Daten drauf sind die ich schreiben wollte ? Gibt es überhaupt ein fertig-NAS mit Raidcontroller ? Wieviele USV soll ich kaufen? Oder doch besser alles in einem Raum? Wer garantiert mir, dass über Netzwerk nicht doch Müll geschrieben wird und die billigheimer Backupsoftware das Backup trotzdem als "gut" erkennt? Kontrolliert das jemand?

Solche Aufbauten habe ich oft gesehen, meistens von Leuten aufgesetzt, die einen Drucker installieren können. Ich will nicht sagen das ich es besser könnte, .. aber wenn man jemanden bezahlt der es besser und richtig kann, kostet das eben auch keine 10€ die Stunde. Schlimm sind nur die Leute die 100€ die Stunde verlangen, und dann trotzdem so einen Bockmist aufsetzen. Das ist leider die bittere Realität heutzutage, wo jeder der irgendein Youtube Video gesehen hat jetzt IT-Profi ist.

Mir ist schon klar, dass man auch mit einem NAS Backup viele Probleme lösen kann. Das endet dann aber immer in zusätzlicher Hardware , zusätzlichen Geld , zusätzlichen Problemen.

Bei hosted Lösungen habe ich halt vieles inkludiert, wo andere sich eben keine Gedanken drüber machen "wird schon gut gehen/ ich mach das immer so und es gab noch nie Probleme" ... und eben auch i.d.R. ein Haftungsanspruch, wenn von den garantierten Leistungen abgewichen wird.

raekaos schrieb:
@user8374
Hab ich geschrieben wie es geht. Die Miniserver z.B. von Wortmann haben idR. MegaRaid 9361-4i Controller o.ä. die Hardware ist solide Business-Qualität, redundante Netzteile sind bei dem UseCase doch ein bisschen OP. Vor Brand helfen nur Off-Side Backups, da würde dir kein redundante Netzteil und auch kein High-End-NAS was bringen btw.
Der OVH-Brand ist ein gutes Beispiel dafür, dass man auch Cloudserver und Webseiten regelmäßig Off-Side sichern sollte.

Redundante Netzteile überbewertet? na dann...
Ich habe nicht gesagt, dass ich mit einem zweiten Netzteil einen Brand lösen will.. mir ging es bei dem OVH beispiel nur darum,,, das ist das Geld was monatlich gespart wurde und eben der Unterschied zu anderen Hostern ist... Holzböden und kein Brandschutz sind eben billig, genau so wie Consumer Hardware in einem Rechenzentrum betreiben.

Jeder muss selber entscheiden wie verfügbar und sicher er seine Daten/Hardware haben will..
Aber irgendwelche hosted Lösungen mit einem Synology NAS und irgendwelchen WD Red Platten zu vergleichen, dann noch n Worthmann Consumer-Pseudo-Business Server , etc pp und dann sagen "hach das ist alles viel billiger" .. nene.
 
Zuletzt bearbeitet:
Ok. Auch wir haben vor 4 Jahren gerechnet: Neuer Server, Backupsystem, Storage, Lizenzen, CALs, Schulungskosten, aufsetzen durch Partner. Nach dieser Rechnung amortisiert sich der lokale Exchangeserver nach ca. 7 Jahren. Und es sollte eigentlich schon wieder angeschafft werden da schon wieder alles alt ist. Wir sind also ebenfalls in der Cloud (bei MS).

Nicht eingerechnet z. B. Ausfälle durch fehlerhafte Patchdateien. Und ich schlafe besser wenn der Cloudanbieter die Risiken übernimmt...

Und wir haben "nur" 140 User und keine wirklichen Exchange Admin. 70.000 hätte die gesamte Anschaffung damals gekostet. Laufzeit 4 Jahre.

Edit: Und ein Lizenzaudit hatten wir auch nicht mehr. Ja und wir sichern nicht auf eine QNAP sondern Oldschool aufs Band und einen BTD Server
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: user8374
@user8374
Das Ganze hat nichts mit dem Thema und ist alles ziemlich OffTopic. Trotzdem schreibe ich noch Mal für dich:
Ein kleines Unternehmen, wird sich weder ein Cloud-Lösung leisten können, noch teure Server, einen Serverraum etc., die Datenmenge ist entsprechend überschaubar. Off-Site Sicherung kann man z.B. auch mit einer externen USB-Festplatte oder besser noch 2-3 Stück, selbst ein billiges Synology NAS bietet dafür einfach Backup-Lösungen auf externe USB-Festplatten.
Auf einem Backup-NAS gibt es keine Freigaben für irgendwelche kompromittierbaren AD/Windows-User. Sondern nur eine versteckte Freigabe für einen User der in der Backup-Software, wie z.B. Veeam eingetragen wird und auch nur dort Verwendung findet und natürlich kein Admin auf dem NAS ist. Ich möchte den 0815 Verschlüsselungstrojaner sehen der so an die Daten auf dem NAS kommt. Selbst in den billigsten NAS-Systeme können Zeiträume für die Nutzung eintragen, Daten noch Mal intern mit Revisionen gesichert werden etc., womit man die potentielle Angreifbarkeit massiv senken kann. Es ist alles eine Frage der Einrichtung.
Ich kenne ein Systemhaus, das baut die gesamte "Server"-Hardware für kleine Kunden auf besseren Desktopsystemen mit Proxmox als Unterbau nix mit RAID und die sind damit super erfolgreich, weil kostengünstig, leicht zu ersetzen/auszutauschen und mit dem richtigen Dasi-Konzept unschlagbar schnell wiederhergestellt.
Was ich damit sagen will, ist dass meiner Erfahrung nach, die teuerste, beste und sicherste Hardware/Software nichts bringt, wenn der Admin ne Niete ist und vor Blödheit schützt auch kein redundantes Netzteil.
 
  • Gefällt mir
Reaktionen: Karl Napp, xexex und PHuV
user8374 schrieb:
Der eine erzählt "Cloud" geht nicht, wegen mangelnder Internetleitung. Jetzt kommt Offsite Backup... wie soll das laufen? VDSL 40mbit upload? haha... der war gut.
Geht: Datensicherung auf irgendein Medium uns ausser Haus lagern..Ohne Internet 😁
 
Zurück
Oben