Piktogramm schrieb:
Wie schaut die Netzwerkanbindung der Kisten aus?
masterw schrieb:
Mich interessiert die Internet-Anbindung der Server. 100 oder 1000 Mbit?
Das haben wir früher offen kommuniziert, aber seitdem wir Probleme mit DDoS hatten möchte ich diese Informationen lieber nicht mehr herausgeben. Ich bitte um Verständnis.
Baxxter schrieb:
Wie wäre es mal mit einem bebildertem Rundgang bei CB oder gar einen VLOG?
Ich habe noch keinen der Server, die bei ComputerBase irgendwann mal im Einsatz waren, selbst gesehen. Wir haben nur Remote-Zugriff. Nimblu kümmert sich um die Hardware und wir um die Software. Das mit dem Rundgang wird daher leider schwierig.
Yuuri schrieb:
Laufen bei euch eigentlich Docker/Kubernetes o.ä. auf Softwareseite oder läuft (noch?) alles direkt auf dem Server?
Es läuft alles direkt auf dem installierten Betriebssystem. Ich verstehe, dass Container Vorteile haben können. Aber aus so vielen verschiedenen Komponenten, die man in Container aufteilen könnte, besteht unser Setup gar nicht. Und weniger Komplexität bedeutet tendenziell weniger Fehleranfälligkeit. KISS!
pgene schrieb:
Was habt ihr zur Replikation der Maschienen benutzt bzw. was setzt ihr zum Clustern und Loadblancing ein?
Wir nutzen MySQL-Replikation für die Datenbank, Audio/Video/Download-Dateien liegen auf S3 und für die millionen kleinen Dateien (Bilder, Forum-Anhänge, ...) bin ich noch auf der Suche nach einer gute Lösung. Vorschläge willkommen! DRBD wurde genannt.
Simon schrieb:
Wäre für euch nicht auch mal HHVM ein Thema oder lohnt sich das bei PHP 7.1 nicht mehr, weil der Performancevorteil zu gering wäre?
Ich glaube seit PHP 7 sind die Performance-Vorteile von HHVM nicht mehr der Rede wert. Und wirklich durchgesetzt hat sich HHVM letztendlich nicht, sodass man vermutlich mehr obskure Bugs oder Kompatibilitätsprobleme hätte als mit dem Original. Irgendwo hatte ich letztens eine von uns genutzte Library gesehen, die HHVM wieder aus ihren Tests entfernt hat (kann ich leider gerade nicht mit einer Quelle belegen).
BrollyLSSJ schrieb:
Doch, aber eventuell noch nicht für den DL360 Gen10. Für den DL360 Gen9 waren Controller mit FBWC gelistet.
DL360 Gen9 Option Parts
DL360 Gen10 Option Parts
Wie es bei den anderen Modellen (380, 160, etc.) aussieht, habe ich jetzt aber nicht nachgeguckt.Wir haben bei uns noch Gen9 im Einsatz (allerdings hauptsächlich Blades) und dort die FBWC Variante in Nutzung.
Danke für die Links! Weil man anscheinend den "kompletten" RAID-Controller austauschen müsste (vorausgesetzt es wird überhaupt einen FBWC-RAID-Controller für Gen10 geben), werden wir das denke ich nicht präventiv machen. Oder hat die Kondensator-Lösung doch irgendeinen Nachteil, weshalb es das bei Gen10 nicht mehr gibt? Eigentlich dachte ich die Kondensator-Lösung sei "neuer".
Dr. MaRV schrieb:
Wie sind eure Erfahrungen mit HP Servern?
schmalband schrieb:
Von DELL zu HPE?
Warum macht man sowas?
Aus unserer (eingeschränkten) Perspektive finde ich diese Entscheidung von PlusServer/Nimblu ebenfalls unglücklich. Nun habe ich noch keinen der Server selbst gesehen und kann deshalb zur Verarbeitung und Verfügbarkeit von Ersatzteilen etc nichts sagen.
Aber ich frage mich schon, wie HPE in 2018 auf neuen Servern ernsthaft immer noch keine HTML5-Remote-Konsole anbieten kann, obwohl Dell das sogar bei unseren fünf Jahre alten Servern vor einem Jahr per Firmware-Update gratis nachgerüstet hat. Stattdessen darf man sich bei HPE mit einer Java-Anwendung herumärgern. HPE hat uns aber immerhin gesagt, dass im Laufe des Jahres eine HTML5-Remote-Konsole kommen soll.
Ich verstehe auch nicht, wieso in iLO beim Upload von SSL-Zertifikaten die enthaltenen Intermediate-Zertifikate einfach verworfen werden (was dann wiederum eine zusätzliche Warnung beim Starten der Java-Remote-Konsole verursacht, weil die im Gegensatz zu Browsern über fehlende Intermediate-Zertifikate nicht hinwegsieht). Das war bei DRAC noch nie ein Problem. (Von Unterstützung für Let's Encrypt wage ich nicht zu träumen.)
Darüber hinaus finde ich es unglücklich, dass iLO eventuelle Fehler-Mails nicht via SMTP-Auth versenden kann sondern dazu ein offenes SMTP-Relay braucht. Offenbar geht HPE davon aus, dass jeder Kunde ein ganzes Management-Subnetz hat, in dem irgendwo ein offenes SMTP-Relay steht. Wir haben die iLO jetzt so konfiguriert, dass der jeweilige Server selbst für die iLO-IP als offenes Relay fungiert. Mit der Konsequenz, dass Fehler-Mails natürlich nicht versendet werden können, wenn der Server ausfällt (nun gut, meist geht es in den Fehler-Mails ja eher um Kleinigkeiten, aber was ist so schwer daran in 2018 SMTP-Auth zu unterstützen?). Auch das hatte Dell in DRAC von Anfang an besser gelöst: SMTP-Auth ist dort kein Problem.
(Diese drei Punkte haben wir übrigens alle als Verbesserungsvorschlag an HPE gemeldet.)
Dann stellt sich HPE teilweise quer und verlangt zum Download bestimmter Firmware-Updates einen Login mit Nachweis der Garantie / Seriennummer / etc. Keine Ahnung wie man auf so einen Blödsinn kommen kann. Als ob diese Dateien einem was nützen würden, wenn man den Server nicht hat. Und wenn ein Konkurrent darin nach geistigem Eigentum suchen will, dann wird den der Kauf eines Servers nicht daran hindern.
Mal ganz davon abgesehen, dass die HPE-Website insgesamt eine Frechheit ist ("Katastrophe" wäre untertrieben). Geschenkt, dass es dort offenbar nirgendswo Bilder des DL360 Gen10 gibt, die mehr als 300x200 Pixel groß sind (weder auf der Produktseite noch im Pressebereich). Aber dass man Firmware-Updates nichtmal nach Erscheinungsdatum sortieren kann, sondern eine (weitgehend?) unsortierte Liste vorgeworfen bekommt, in der man nur mit redundanten Filter- und kaputten Suchfunktionen navigieren kann? Als ich das gesehen habe war ich kurz davor HPE und Nimblu in Frage zu stellen:
https://support.hpe.com/hpesc/public/home/driverHome?sp4ts.oid=1010093150
Genug des Rants. Ich vermute/hoffe, dass die Server-Hardware über alle Zweifel erhaben ist. Die Remote-Konsole braucht man ja zum Glück nach der ersten Einrichtung kaum noch (*Klopf auf Holz*) und angeblich kommt ja in diesem Jahr eine HTML5-Variante. Neue Firmware-Updates sind zwar nervig zu finden, aber irgendwie klappt es. Genauso könnte HPE ja eventuell irgendwann die Website mal fixen. Bei Software würde das immerhin gehen, die Hardware steht jetzt einige Jahre da.
teufelernie schrieb:
Nutzt ihr denn eine Konfirgurationsverwaltung wie Puppet oder Ansible? Ab zwei bis drei Servern macht DAS nämlich Sinn...
Ja, Ansible. Wir können damit aber derzeit keinen kompletten Server einrichten, sondern nur einige Dateien an die richtigen Stellen pushen/updaten.
dMopp schrieb:
HE nutzt F5 Loadbalancer, ich denke mal das ist noch immer so?!
Weiß ich nicht, nutzen wir nicht. Die Dinger sind doch reinste Abzocke, weil jeder Server mit nginx deren Job besser und ohne proprietäre Software übernehmen kann, oder?
snaxilian schrieb:
Darf man fragen warum ihr euch den "Spaß" mit Gentoo antut anstatt z.B. ein rock stable Debian/CentOS?
Ich finde Rolling-Release-Distributionen praktisch, weil es dann immer wieder mal Updates gibt anstatt dass ein paar Jahre Sillstand herrscht und sich dann alles auf einen Schlag ändert. Wenn es dann mal Probleme gibt, weiß man wo man suchen muss. Compile-Zeiten sind irrelevant, alles außer GCC und glibc ist in wenigen Minuten fertig (auf dem Desktop kann ich das Argument verstehen, da ist viel mehr Software installiert und einiges davon braucht Stunden). Zudem kann man die offiziellen Pakete bei Bedarf einfach um Patches ergänzen oder die Version bumpen, ohne dass das dann am Paketmanager vorbei passiert.