Austausch unter IT-Professionals - Erfahrungen, Tipps, Fachsimpelei

Ist bei uns auch mit ca. 30-40 Usern pro TS und spezieller CRM Anwendung kein Problem. Viele Idlen sowieso und sonderlich hoch sind die Anforderungen auch nicht. Ließe sich zwar schnell skalieren, aber für das Basic OS verschenkt man am Ende auch ein wenig Leistung und sonderlich Wartungsbedürftig war es nie. Allerdings war die Sache mit Citrix unendlich nervig, seit wir auf VMware Horizon bzw. jetzt Omnissa Horizon gewechselt sind, läuft alles sowieso viel fluffiger und Updates der Middleware geht X-fach schneller.

Wenn es mich mal überkommt werde ich alle Applikationen noch Containern, damit sich das System komplett selbstständig skalieren kann aber es gab da bisher nie Bottlenecks weshalb ich das gerne auf die lange Bank geschoben hab :D.

Von Fujitsu Servern halte ich Abstand seit es keine Fertigung in Deutschland mehr gibt. iRMC fand ich persönlich funktionell dem Dell iDRAC Systemen immer unterlegen und wenn man noch ein paar Euronen in OpenManage Enterprise investiert, geht auch da alles quasi von selbst. Treiber, Firmware und BIOS wird nach Zeitplan selbstständig geupdatet und die Maschinen in vSphere entsprechend selbstständig in den Wartungsmodus/Reboot Zustand geschaltet. HP ProLiant fanden wir auch immer ganz in Ordnung.

Wenn es AMD sein soll, sind DELL Erfahrungsgemäß immer die schnellsten wenn es darum geht aktuelle CPU Generationen anzubieten. HP ging so und Fujitsu war da ständig Nachzügler, aber vielleicht ist das mittlerweile etwas besser.
 
Also von HPE ubd den DL365Gen11 bin ich aktuell ziemlich enttäuscht bezüglich Support muss ich sagen.

Ich muss sagen mit Supermicro bin ich noch mit am Besten gefahren. Gigabyte war auch absolut OK.

Than, Inspur würde ich nicht nehmen.

Dell würde ich aktuell über HPE einordnen.
 
  • Gefällt mir
Reaktionen: konkretor
Rickmer schrieb:
Mir fällt spontan kein Beispiel ein wo 20+ User auf einem TS arbeiten, aber ich weiß auch nicht ob das Absicht ist oder sich einfach so ergeben hat mit den vorhandenen Kunden.
Mit 64Bit Systemen ist es weitgehend unkritisch, solange natürlich die Ressourcen der VM ausreichend dimensioniert sind. Darüber? Sollte man schauen! Anzahl der dynamischen Ports ist ja bekanntlich begrenzt, auch die Anzahl der Prozesshandles hat ihre Grenzen. Am besten nimmt man sich einfach das was Microsoft sagt zu Herzen.

1738349085903.png

VMs shouldn't have more than 32 cores. As the number of cores increase, the system's synchronization overhead also increases. For most workloads, at around 16 cores, the return on investment gets lower, with most of the extra capacity offset by synchronization overhead. User experience is better with two 16-core VMs instead of one 32-core one.
https://learn.microsoft.com/en-us/windows-server/remote/remote-desktop-services/virtual-machine-recs

Daraus kann man schnell sehen, bei max 32 Kernen, kann man entweder 32 "Power" Nutzer oder 192 "Light" Nutzer auf einem TS werkeln lassen. So oder so, mit 20 Benutzern sind solche Beispiele recht irrelevant.

Aus persönlicher Erfahrung kann ich sagen, mehrere VMs zu haben erhöht "potentiell" die Verfügbarkeit, da man eine VM auch komplett zerbröseln kann und in der Zeit auf den anderen weiter gearbeitet werden kann. Potentiell allerdings, da die Komplexität mit einer zweiten VM exponentiell steigt. Es braucht ein Load Balancing, beide Systeme müssen identisch Softwarepakete haben, man braucht eine Profilsynchronisation, das alles kann mehr Probleme bereiten als es lösen könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rickmer und Skysnake
Ich frag mich ja, wieso man wegen 30-40 Leuten überhaupt noch auf nen TS setzt. Klar, kommt auf den Use Case an, aber die allermeisten gehen von TS weg, anstatt jetzt noch nen neuen für teuer Geld reinzuzimmern.
Da ist man aber mit ner entsprechenden Anzahl an Laptops und Managementsoftware doch viel günstiger und effizienter unterwegs, als sich den Stress einer VDI anzutun, thinclients UND Server zu kaufen UND den Bums mit seinen ganzen Nachteilen (echtzeittraffic, GPU Beschleunigung, ressourcenallokation, TS Lizenzen blablubb) auch noch zu administrieren und zu managen..

Mag sein, dass ich da auch ei. Bisschen aus meiner Bubble spreche, aber TS (für mein dafür halten) sind sowas von gar nicht State of the Art, auch außerhalb meiner Bubble nicht. Warum man sich sowas wegen weniger als 50 Usern aufhalst, ist mir ein absolutes Rätsel 😅

Vllt kann mich mal einer abholen, nicht auszuschließen dass ich nen Realitycheck brauche, aber nen TS noch NEU reinzusetzen, das fiele mir echt nicht ein. Trotz meiner 5-6 Jahre im Allrounder - Bereich. Und die sind halt schon ein paar Jährchen her.
 
  • Gefällt mir
Reaktionen: Thaddelino
Skysnake schrieb:
Und jetzt denken wir mal an CPUs mit 300+ cores
Bin bei sowas sehr skeptisch, weil die Erfahrung gezeigt hat, man bekommt plötzlich Limits zu spüren, von denen man vorher nie was wusste.
Ergänzung ()

Zensai schrieb:
Da ist man aber mit ner entsprechenden Anzahl an Laptops und Managementsoftware doch viel günstiger und effizienter unterwegs,
Ja genau! Vor allem in der heutigen Zeit, wo kaum noch jemand im Büro sitzt, sondern Leute lieber quer durch die Welt im Home Office abhängen. Es macht natürlich sehr viel Spaß, bei jedem Rollout abzuwarten bis alle Clients mal Online sind und die Leute ins Büro zurückzupfeifen, wenn was komplett schief läuft. (not)

Deiner Behauptung kann ich definitiv nicht zustimmen! Wenn es einen "Trend" gab/gibt, dann weg von RD Session Host hin zu VDI Lösungen, aber auch hier habe ich keine statistisch relevanten Werte.

Ein Notebook zu haben ist das eine, die Applikationen über Remote Desktop Lösungen bereitzustellen eine andere, beides schließt sich nicht aus, vereinfacht aber die Verwaltung einer Lösung ungemein. Heute würde ich einfach sagen, vieles geht über die Cloud und die Applikationen die man im Haus behalten möchte, stellt man als Remote App zur Verfügung.

In der IT gibt es aber selten "DIE" eine Lösung. Wenn ich bedenke wie einfach gute Thin Clients zu verwalten sind, wie schnell sie oben sind, wie simpel zusätzliche Geräte einfach hingestellt werden oder durch die Welt geschickt werden können, da würde ich in einer solchen Umgebung nicht mit Notebooks rumhampeln wollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rickmer
xexex schrieb:
Bin bei sowas sehr skeptisch, weil die Erfahrung gezeigt hat, man bekommt plötzlich Limits zu spüren, von denen man vorher nie was wusste.
An sich skaliert das alles ganz ordentlich. NUMA awareness wird halt immer wichtiger, das ist es aber zumindest in meinem Bereich eh schon seit Jahrzehnten.
 
Der Sarkasmus war jetzt nicht nötig^^

Ich sagte ja, kann sein dass es vielleicht nen Realitycheck braucht. Vielleicht hab ich auch weiter vorne was falsch verstanden, ich bin immernoch bei 30-50 Usern. Ja Remote Apps sind nochmal bisschen was anderes, aber
In meinem Kopf sieht das so aus:
  • 30-40 Mann kA, lass es ne Steuerberaterbude sein.
  • Die allermeisten "Bürotätigkeiten" sind sowieso auf Applikationen/Maschinen, die Internetzugriff haben, dieser ist bis auf Ausnahmesituationen gegeben
  • Die Applikationslandschaft und Arbeitsweisen sind derart verändert, dass Ohne Internet eh fast nix läuft, dafür es mit Internet aber egal ist, wo man ist.
  • Mehr und mehr ist eh Browser/webbasiert
  • Mit jedem modernen MDM (auch non-cloud) ist es doch mittlerweile vollkommen egal, in welchem Netzwerk man jetzt ist, Hauptsache Internetverbindung. Und da die (fast) immer da ist, gibts da auch kein Problem, Rollots zu machen (und nebenbei wird ja auch viel gepullt im Selfservice, statt einfach alles zu pushen)

Wenn ich da jetzt (Immernoch die Annahme von einem (dicken) TS für 30-50 Usern, also KMU!) dagegenhalte:
  • Teure Server HW
  • Teure TS-Lizenzen
  • Inkompatibilitäten mit Echtzeitanwendungen bei RDP und in CDI Strukturen (HDX/Videodecode auf dem TS für Teams, BBB, Jitsi etc, USB-Passthru..)
  • VPN Kruxen (Split Tunneling für RTC/SIP, oder aber fetter Netzwerkhardware und Leitungen, damit eben diese Kruxen nicht auftreten)
  • Erhöhter "Bastelaufwand"(Management) im eigenen RZ

Wie gesagt: Mir ist durchaus bewusst, dass das nicht überall geht, manche sachen eben so abgedeckt werden müssen aus Grund A,B oder C, oder insb in größeren Stukturen nochmal anders läuft. Aber für 30-50 Mann erschließt sich mir die Kosten/Nutzen Rechnung nicht. Deshalb hab ich nach erleuchtung gefragt, vielleicht kann mir einer da ein bisschen seinen Usecase nennen, damit ich es verstehe. Weil für mich klingt das im ersten Moment erstmal nach einer unnötigen Investition, um an einem Arbeitsmodus festzuhalten, der vielleicht auch besser/günstiger/anders abgedeckt werden könnte.
Da wird sich ja @Mac_Leod auch gedanken drüber gemacht haben und gesagt haben "Lieber so, weil". und genau das wüsst ich eben gerne, um es nachvollziehen zu können weil es mich interessiert. Vielleicht weiß ers ja sogar auch nicht und stellt sich erst durch die Nachfrage mal die "Ja, warum überhaupt?" Frage, und auch dann ists interessant =)
 
Skysnake schrieb:
An sich skaliert das alles ganz ordentlich.
Wie bereits zitiert.
VMs shouldn't have more than 32 cores. As the number of cores increase, the system's synchronization overhead also increases. For most workloads, at around 16 cores, the return on investment gets lower, with most of the extra capacity offset by synchronization overhead.

Mitnichten betrifft es nur Windows, auch die VMware hat so ihre Macken und natürlich auch Unixoide Betriebssysteme. Nichts was man nicht in die Richtung hin optimieren könnte und nichts was einen Beinbruch bedeutet wenn man es weiß, aber etwas was einem wochenlange Fehlersuche bereiten kann, wenn man es nicht berücksichtigt.
Ergänzung ()

Zensai schrieb:
Mit jedem modernen MDM (auch non-cloud) ist es doch mittlerweile vollkommen egal, in welchem Netzwerk man jetzt ist, Hauptsache Internetverbindung. Und da die (fast) immer da ist, gibts da auch kein Problem, Rollots zu machen (und nebenbei wird ja auch viel gepullt im Selfservice, statt einfach alles zu pushen)
Wie schon gesagt, viele Wege führen nach Rom, aber alleine diesen Punkt würde ich mit einem großen "aber" versehen. Was ist wohl einfacher, mit wenigen Clicks eine RDS Farm bereitzustellen und mit Applikationen fast wie gewohnt umzugehen, oder eine umfangreiche MDM Lösung zu implementieren und jegliche Software paketieren zu müssen?

Wie sieht es denn aus, wenn Benutzer mit Anrdroid, iOS, macOS oder Linux Geräten ausgestattet werden sollen und trotzdem mit den Applikationen arbeiten müssen? Wie schaut es aus mit dem Datenaustausch wenn die Benutzer im Home Office sitzen?

Als ich zuletzt dieses Thema betreut habe und gerade Corona im Anmarsch war, haben wir ausnahmslos alle auf RDS Lösungen migriert, weil deine Idee mit lokaler Software und Home Office schlichtweg nicht funktioniert, wenn Datenaustausch erforderlich ist die Leute aber mit 1Mbit Upload herumdümpeln.

Dein Ansatz mag ok sein wenn alle im Büro sind, nur wo ist das heutzutage noch der Fall?
 
Zuletzt bearbeitet:
Naja für TS generell spricht der geringe Zeitaufwand wenn öfter neue Software oder dessen Updates drauf müssen. Zentral einmal installieren/updaten geht deutlich leichter von der Hand als hunderte Clients. Abseits davon gibt es leider noch das Problem, dass es Software gibt, welche nativ mit dem SQL Server von Clientseite aus spricht, das ist über VPNs einfach mega lahm.

In unserem Fall stellen wir auch keine kompletten VM Desktops zur Verfügung sondern lediglich Anwendungen die man im Client entsprechend öffnet.
 
Skysnake schrieb:
Gigabyte war auch absolut OK.
Wir sind mal von Gigabyte abgerückt, weil die uns auf ner Messe erklärt haben, dass die nur mit Partnern arbeiten und keinen direkten Support haben. Und der nächste Partner bei uns wäre ein anderer IT-DL aus der nächsten Stadt gewesen. Und mit dem hatten wir schon im Vorfeld verschiedene Probleme. Somit ist Gigabyte bei uns leider direkt als Möglichkeit ausgeschieden.

Mit dem HPE Support hatten wir natürlich hier und da auch mal Pech, aber im großen und ganzen ging das immer sehr gut.
 
Zensai schrieb:
Mehr und mehr ist eh Browser/webbasiert
Aber längst noch nicht alles
z.B. haben wir eine Mehrzahl an Kunden die mit dem Sage b7 ERP arbeiten (nein, wir sind nicht diejenigen die das verkaufen... oder supporten) welches mWn noch nicht als webbasiert existiert.

Das wird als Java Applikation im Netzlaufwerk ausgeführt... über VPN braucht das eine Ewigkeit zum starten und das ist wenn nur ein User darauf zugreift. Noch immer müssen viel zu viele Firmen glücklich sein, wenn die 40mbit Upload haben.
Im Vergleich ist die Applikation lokal auf einem TerminalServer zu starten und die Verbindung remote zu streamen sehr performant.

Würde ich jetzt mit brainstorming anfangen würden mir noch zig andere Beispiele von diversen Kundenumgebungen einfallen.


Ich bin hier zweifelsohne auch ein wenig in meiner eigenen Bubble - das Systemhaus für das ich arbeite hat vor zig Jahren mit 'Citrix' als Kern-Kompetenzgebiet angefangen groß zu werden. Da ist auch irgendwie klar, dass die Kunden für die das Sinn macht bei uns auflaufen.
 
Zuletzt bearbeitet: (Sage b7 ist ERP, nicht CRM)
  • Gefällt mir
Reaktionen: Skysnake
Zensai schrieb:
  • Mehr und mehr ist eh Browser/webbasiert
Aber wenn eine key application wie das ERP das nicht ist, dann hast du ein Problem.
Dann brauchst du dafür einen TS, weil die Latenz bis zur DB sonst zu hoch ist. Und wenn der TS dann eh schon da ist, dann kann man da auch andere Sachen drüber laufen lassen.
 
  • Gefällt mir
Reaktionen: Rickmer, Skysnake und konkretor
Was ist das für ein ERP wo die Latenz eine Rolle spielt? Macht man damit "Echtzeitbuchhaltung"? 😳
Ich arbeite schon sehr lange an SAP. Dort installiert man lokal die WinGUI und verbindet sich zu Servern sonst wo, nie was gemerkt von einer Latenz. SAP braucht aber eh an jeder Ecke mindestens eine Gedenksekunde 😅
Ein klassisches ERP ist das letzte wo ich mir um Latenz Gedanken mache. Aber vielleicht fehlt mir wie Zensai die Fantasie...

Edit: ich arbeite bei einer 1800 Mann/Frau Dienstleisterbude, mit vielen Bereichen und verschiedensten Kunden. Allein dadurch kann ich mir keinen sinnvollen Einsatz eines TS für alle vorstellen. Und da vielleicht die Hälfte im HO ist, gleich zwei mal nicht...
 
Zuletzt bearbeitet:
Glaub ich dir sofort. Bei uns ist das genauso, wenn ein Klick zur Speicherortauswahl führt und das Fenster braucht ne Gedenksekunde ist alles gleich lahm und alt und bei ihrem privat PC zuhause ist das ja auch alles schneller und überhaupt.

Wenn eine Software direkt Stammdaten mit „weiter“ durchblättert wirds dann schnell echt nervig.
 
  • Gefällt mir
Reaktionen: Spike S.
Spike S. schrieb:
Was ist das für ein ERP wo die Latenz eine Rolle spielt? Macht man damit "Echtzeitbuchhaltung"?
Du hast schon mal mit einer ERP gearbeitet? Schon mal versucht eine Palette an Artikeln einzuscannen, wenn nach jedem Scan die Software erst einmal eine Gedenksekunde einlegt? Schon mal versucht ein Angebot zu erstellen, während bei jedem Produkt die Ansichten über Verkaufszahlen, Preise, Lagerbestand, Verfügbarkeit und Produktdetails mehrere Sekunden für den Aufbau benötigen?

Glaube mir du kriegst Plaque wenn das nicht alles "instant" auf deinem Bildschirm aufpoppt, und wir reden hier von einer zentralen Komponente, mit der viele Unternehmen ihren Umsatz generieren. Vieles in einem Unternehmen ist nicht wirklich zeitkritisch, die ERP je nach Umfang eine ganz andere Kiste.
 
  • Gefällt mir
Reaktionen: Spike S.
xexex schrieb:
Du hast schon mal mit einer ERP gearbeitet? Schon mal versucht eine Palette an Artikeln einzuscannen, wenn nach jedem Scan die Software erst einmal eine Gedenksekunde einlegt?
Ja, seit über 16 Jahren SAP. Aber da ist der Unterschied, nicht "an vorderster Front", der Produktion, sondern immer Controlling, FiBu, Human Cattle Management, Faktura, ... Also dort wo die Leute i.d.R. geduldiger sind, solange die Zahlen stimmen ^^
Aber ja, mir geht es genau so, wenn man regelmäßig auch nur eine Sekunde auf die Reaktion auf einen Klick warten muss, wachsen einem ganz schnell Zornespusteln...
 
  • Gefällt mir
Reaktionen: xexex
Ab ne Sekunde ist es ja auch wirklich merklich.

Ich muss sagen, im Terminal merke ich so 0.5 Sekunden definitiv.
 
  • Gefällt mir
Reaktionen: Mordi und Spike S.
Zurück
Oben