Austausch unter IT-Professionals - Erfahrungen, Tipps, Fachsimpelei

Was soll das hier werden? Ein Battle wer der Geilste ist? Das ist uninteressant und bringt null Erkenntnisgewinn.
 
  • Gefällt mir
Reaktionen: Zerstoerer, Spike S. und WhiteHelix
Worauf ich hinaus will? Du schreibst Du machst alles, Changes werden im Team schnell mal legitimiert.
Mag alles sein, aber so wird in wichtigen und arbeitsintensiven Umgebungen nicht gearbeitet. Schon gar nicht bei der Bundeswehr.

Außerdem bist du damit das Softziel als Person schlechthin und somit bleibst du und deine Firma an vielen Baustellen draußen oder ihr habt unwahre Angaben bei der Compliance gemacht.

Damit die Verwaltung des Ganzen läuft hat man eben einen relativ hohen Personalschlüssel. Wer das Eine will muss das Andere mögen.
Ergänzung ()

Evil E-Lex schrieb:
Was soll das hier werden? Ein Battle wer der Geilste ist? Das ist uninteressant und bringt null Erkenntnisgewinn.
Wir sind bei 400-4000 Server auf Blech, die alle gewuppt werden. Die Messlatte liegt da jetzt.
Ich darf über solche Details nicht reden, daher muss das so stehen bleiben.
 
Zuletzt bearbeitet:
Stock86 schrieb:
Was genau beinhaltet deine "Betreuung" wenn man fragen darf? Also was ist dein Job? Für mich wären 4.000 anstatt 400 Server schon ein harter zusätzlicher Aufwand. 😄
Die Antwort ist JA.

Also von Hardware Scouting/Verprobung über Ausschreibung, Netzwerkdesign, Sizing, Abnahmen, OS Provisionierung, Monitoring, Tuning, Hardening, Updates für Firmware und OS, Storage, HA, Backup/DisasterRecovery, Maintenance Plänen, L2 und L3 Software Support für die installierten 3rd Party Anwendungen als auch im Zweifel von Eigenentwicklungen in Hinsicht auf Parallele Entwicklung, Debugging und Tuning. Job Scheduler wie Slurm, LSF usw. LDAP, Kerberos, NTP, DHCP, Container in der Form von Docker, Apptainer und Podman. Und zur Abrundung noch Docker Swarm und GPU Systeme für AI/ML. Da aber nur recht wenig.

Am Ende mache ich halt das auf das ich Bock habe und Handlungsbedarf sehe sowie die Sachen bei denen mein Chef niemanden hat der es kann.

Ich bin da halt der Prototyp vom Physiker, als der naturwissenschaftlichen Allzweckwaffe. Du hast ein Problem? Gib es mir, ich löse es für dich. Manchmal geht es schneller, manchmal langsamer. Gerade wenn man Firmen aus dem kommerziellen CAE/CAD Bereich dazu bringen muss ihren Code zu fixen, dann ist da ein Jahr ganz schnell rum. Da muss man halt einen langen Atem haben und sich nicht jeden Affen auffinden lassen...

GR Supra schrieb:
Für eine laufenden Umgebung ist mit Orchestrierung unerheblich wie viel läuft.
Würde ich nicht sagen, denn bei größeren Systemen siehst du im Zweifel auch sehr seltene Probleme häufig und musst dich zwingend drum kümmern.

Zudem besteht bei mir die Anforderung dass das Deployment von einem oder 1000 Systemen parallel gleich schnell ist. Da muss man dann schon etwas für tun und darf sich keine Schnitzer erlauben.

Aber ja, das man sehr viele gleichartige Systeme hat, macht die Sache erst praktikabel. Wobei man sagen muss dafür sind die Systeme auch richtig fett mit Dutzenden von Anwendungen in mehreren Versionen, mehre MPIs in zick Versionen genau wie unterschiedliche Compiler in zick Versionen. Das sind am Ende dann hunderte von Anwendungen die von hunderten bis tausenden Usern verwendet werden.

So ne Umgebung am Laufen zu halten ist schon schwierig, weil es zwar Testsysteme gibt, aber du halt nicht @scale testen kannst. Dafür müsste dein Testsystem halt so groß sein wie das Produktivsystem. Das kann dir bei so viel Blech halt keiner zahlen.
 
GR Supra schrieb:
Worauf ich hinaus will? Du schreibst Du machst alles, Changes werden im Team schnell mal legitimiert. Mag alles sein, aber so wird in wichtigen und arbeitsintensiven Umgebungen nicht gearbeitet.
Für Kritis hat es gelangt. Wenn ich der Entwickler bin und die Maintenancepläne/Doku mache und dann wegen harter Zeitvorgaben das anpassen muss, dann mache ich das. Genauso habe ich mir das System angeschaut und gesagt das muss geändert werden weil es betriebsgefährend ist. Klar muss ich da wissen was ich mache, aber wie gesagt nichts machen ist im Zweifel gefährlicher. Und das wissen auch die Chefs und nicken dann stumpf ab. Bewerten können Sie es eh nicht und wenn Sie nein sagen und es gegen die Wand fährt dann ist deren Hals in der Schlinge.
GR Supra schrieb:
Schon gar nicht bei der Bundeswehr.
Schön wäre es....

GR Supra schrieb:
Außerdem bist du damit das Softziel als Person schlechthin
Absolut richtig. Sollte aber mehr oder weniger für alle Leute mich root Zugriff gelten. Bei mir war/ist nur der Umfang an Systemen und Komponenten besonders, was es als Innentäter ziemlich böse gemacht hätte. Aber denk an Snowden. So Positionen gibt es immer. Verhindern kannst du das nicht sondern nur die Zeit bis zur Entdeckung minimieren.
 
  • Gefällt mir
Reaktionen: rezzler
Wir haben es doch verstanden. Du bist der Übermensch, für den Regeln nicht gelten.
Es ist hier schon mal gefragt worden, nur sehr seicht, ob es dir gut geht.
Ich drücke es so aus: Suche dir Hilfe, mach dich nicht lächerlich.
 
  • Gefällt mir
Reaktionen: WhiteHelix
Stock86 schrieb:
Nächstes "größeres" Projekt wird wohl Aufbau von nem neuem Cluster mit 15 Hosts für ne dedizierte SAP HANA Umgebung.

Da bin ich doch froh in der Power Niesche zu leben. Für SAP auf Hardwarekisten zu gehen, halte ich für falsch. Sicher aber auch nicht mal eben machbar, sich Power ins Haus zu holen. Da braucht man schon noch viel Geld und Leute für
 
Ich habe einige HANAs gesehen. Das waren immer 2 Node oder 4 Node Systeme.
Leute die wirklich die Leistung brauchen hatten dann Dell R8x0 oder R9x0 oder IBM Power.
 
Und dann ist deine HANA in Stein gemeißelt und darf sich bloß nicht vergrößern sonst erwartet dich eine Downtime. HP hat auch so lustige Konstrukte mit zig Intel Büchsen. Strom, Management und fehlende Flexibilität interessiert da wohl nicht.
In Azure kann man fertige HANA Instanzen buchen mit lächerlichen Preisen und Verhältnissen. Dazu auf der Edelplattform Hyper-V LOL!
Ich hab die ganzen Vergleiche und Argumente schon seit Jahren durch, bei uns kommt kein SAP System auf Intel. Auch bei klassischen SAP DBs wie Oracle und DB2 bist du mit Power viel besser unterwegs.
Nachteile sind halt die Preise und eine sehr starke Niesche, da findest du keine Admins wie Sand am Meer
 
Ich habe mal kurzfristig Hana Systeme in Azure betrieben. Da bist am arsch. Das ist nicht zu empfehlen.
 
GR Supra schrieb:
Wir haben es doch verstanden. Du bist der Übermensch, für den Regeln nicht gelten.
Es ist hier schon mal gefragt worden, nur sehr seicht, ob es dir gut geht.
🙄

Dir ist schon klar, dass das an sich ziemlich viele wippen könnten, wenn man Sie lassen würde und Sie auch die responsibity für Ihr Handeln übernehmen?
Nochmals zum mitlesen. Initial ging es mir darum wie viel Mapower teils verballert wird und die Leute ehrlich sagen, das unglaublich viel Ressourcen einfach für die Tonne sind weil man sich in die Abstimmungshölle begibt weil alles schön fein aufgeteilt wird und am Ende keiner entscheiden will...

Und ganz ehrlich, das hört sich bei dir auch so an, wenn ich so Sprüche lese wie "ich mach keinen Handschlag so lange nicht 4 Leute auf ok geklickt haben".

Also klar gibt es Punkte wo man sich einfach abstimmen muss, das sollte aber die absolute Ausnahme sein, sonst bekommt man rein gar nichts gebacken und muss sich dann am Ende auch nicht wundern wenn alles in die Cloud zieht.

Selbst bei Mission Critical sollte ich Handlungsspielräume haben. Ansonsten geht bei einem echten Desaster gar nichts mehr für lange Zeit. Ich setze da ja auch keine Praktikanten hin. Aber vielleicht steht da auch jemand auf Micromanagement...

DEADBEEF schrieb:
Da bin ich doch froh in der Power Niesche zu leben. Für SAP auf Hardwarekisten zu gehen, halte ich für falsch. Sicher aber auch nicht mal eben machbar, sich Power ins Haus zu holen. Da braucht man schon noch viel Geld und Leute für
Warum? Bei solchen Systemen ist ja im Allgemeinen Latenz/Responstime ja durchaus wichtig und da verliert man mit VM.

Mit den richtigen Fault tolerant Systemen sehe ich auf dem Papier keinen Vorteil gegenüber VM, habe das aber auch noch nie selbst betrieben,würde mich also über Einblicke freuen.


GR Supra schrieb:
Ich habe einige HANAs gesehen. Das waren immer 2 Node oder 4 Node Systeme.
Leute die wirklich die Leistung brauchen hatten dann Dell R8x0 oder R9x0 oder IBM Power.
Wahrscheinlich klassisches HA mit Pacemmaker und Corosync oder?

meinst du wirklich Power oder SystemZ?
DEADBEEF schrieb:
Nachteile sind halt die Preise und eine sehr starke Niesche, da findest du keine Admins wie Sand am Meer
Naja, wenn es zu teuer ist, dann braucht man es nicht.

Das mit den Admins sehe ich jetzt nicht so ganz. Da will man ja eh keinen Praktikant dran setzen und bei allen andere kann man auf ner gewissen Basis aufsetzen und dann Training on the job machen.
 
Teuer war auch falsch von mir, am Ende kommen wir günstiger und besser weg. Der Einstieg in so eine Umgebung ist aber sicher noch hoch und die Features merkst du halt auch eher als Hoster/Provider. Wir betreiben ungefähr 1000 SAP Systeme inkl. HANA. Mit vergleichbaren Infrastrukturen unter Intel wären wir richtig schlecht dran.
Memory Banbreite und Latenzen liegen Power Lpars (also VMs) noch immer 1.5 -2 mal über bzw unter Intel. Auch Core2Memory Ratio ist bei Intel ziemlich schlecht.
 
Naja, die Power Admins kommen von IBM. Kaum ein Kunde darf die Geräte anfassen, außer dem Power Knopf. Das solltest Du wissen.

Die Kunst liegt eindeutig auf der Softwareseite. Nur wenige Umgebungen brauchen wirklich mehr als 2, 4 oder 8TB RAM. Danach kommt der Bedarf für Power.
Außerdem kann man in fast allen Projekten beobachten, dass die alten Datenbanken und einfach kopiert werden. Erst mit der Anpassung der Designs hören die Datenbanken auf ständig die Applikationen zu füttern und umgekehrt. Wer so weit schon ist, als in Memory erreicht hat und mit 8TB nicht hinkommt, der kann vorher noch viel mehr optimieren, bevor Power Punkte bringen kann bzw sein Potential auf die Straße bringen kann.

Ich kenne einige Hana Installation, da sind auch Power Systeme dabei, da mangelt es jeweils nicht an CPU oder RAM.
Fast immer ist es Software, sei es auch nur die Prozeduren der Datenbanken die noch viel Potenzial zulassen. In unserem Fall kommen Teams von internationalen Mathematikern zum Einsatz die sich gegenseitig unterstützen.
Hin und wieder kann man auch am Storage noch etwas optimieren, was auch lohnt.
Power hat seine Stärke oft im programmierbaren CPU Cache.

Wir hatten vor kurzem eine externe HDD bekommen, die musste erstmal gescannt werden. Das hat Tage gedauert.
Dann wurden die Daten kopiert, was wieder Tage dauerte.

Am Ende lief die Auswertung im HPC auf Stapeln an AMD Blechen parallelisiert Recht zügig da waren die Stapler noch am beraten über Datenstrukturen.
Der Use Case macht also auch noch viel aus. Statische Strukturen der Daten sind im Hana gut zu optimieren.
Chaotisch unstrukturiert auf die Straße zu bekommen, dauert Wochen bis Monate.

Ergo: Es gibt 80-90 der HANAs mit im Memory legacy Apps und 10-20 die versuchen die Sache neu zu denken.
 
Das ist ntürlich richtig. Nicht jede Anwendung profitiert davon aber SAP, DB2 und Oracle doch schon sehr. Ist ja alles mal bei der IBM entstanden und arbeiten bis heute sehr eng zusammen. Ich kenne für den SAP Betrieb, vor allem SAP HANA, keine bessere Technik als IBM. Auf dem ganzen Markt wird es da sogar schwierig.
Bei 5-10 vielleicht auch 20 inhouse SAP-Systemen mag das noch vertretbar sein mit Intel, spätestens in unserem Fall ist es ein No-Brainer.

btw. Nicht vergessen, es gibt SAPonHANA und SAP S/4HANA. Das eine ist nur die "neue" Datenbank und der alte Code, das andere ist beides
 
Zuletzt bearbeitet:
Mag sein. Der "Market Share" sieht IBM als ganz kleinen Fisch. Power und x86in Summe kleiner Fisch.
Appliances mit local Storage ist sehr beliebt. Macht auch Sinn.
 
Sind sie auch, keine Frage aber was sagt das über die Qualität aus? Ich habe ja nie gesagt, dass IBM den Markt mit ihren Systemen dominiert. In diesen Nieschen sind sie jedoch sehr gut vertreten und finden überwiegend sehr zahlungskräftige Kundschaft (Banken, Versicherungen, Raumfahrt, Militär, Energie, Industrie)
 
Eine Zertifizierung hat schon halbwegs praktikable Hintergründe und etwas Aussagekraft. Alle kochen mit Wasser am Ende des Tages. Das Bündel und der Support macht den Unterschied. Das schlägt sich im Preis nieder.
 
Ja, wenn das Gesamtpaket stimmt passt es ja. Am Preis würde ich das aber nicht festmachen. GPFS ist z.b auch nicht gerade billig und mit Features überladen, was aktuell aber an neuen Versionen raus kommt ist nicht sehr beruhigend. Macht einen Toten Eindruck auf mich. Man könnte auf die Idee kommen, dass die Kundschaft noch im Vendor Login gehalten und schön gemolken wird.
 
Jemand mit 3CX Kenne hier?
Wir planen gerade darauf umzusteigen. Als Testgeräte hab ich hier die Snom D785 + D713.
Nun folgendes: Bei uns war es vorher so: Wenn ein Kollege z.B. einen Kunden an mich weiterleitet, stand im Display mein Kollege und die Nummer des Kunden. Bei 3CX seh ich jetzt nur die des Kollegen und die Nummer des Kunden erst, wenn er auflegt, also den Anruf final an mich weitergeleitet wird.

Ich fand das vorher eigentlich sehr angenehm zu sehen, das mein Kollege einen Kunden "mit im Gepäck" hat, wenn ich einen Anruf von ihm bekomme. Ich sehe auf dem ersten Blick keine Möglichkeit das in 3CX oder direkt in den Snoms zu realisieren.. gibts da irgendwas?
TK-Zeug ist für mich relativ Neuland. 🙈
 
Naja ist grundlegend die Frage, ob das beim Invite von deinem Kollegen an dich mit drin steht. Kann ich mir eigentlich nur schwer vorstellen, hatte ich so noch nicht in den Fingern. Kenn ich auch von den sonstigen TKs so bisher nicht, zumindest nicht mit bei nem Durchstellen mit Rücksprache. Was hattet ihr denn vorher?
 
Vorher hatten wir Avaya IP Office.
Ne, im Invite steht es so nicht drin, hab mir die Pakete schon angeschaut. Aber maybe kann man das 3CX irgendwie in den Header packen lassen war mein Gedanke 🤷‍♂️
 
Zurück
Oben