News In eigener Sache: Das neue Server-Setup von ComputerBase (2021)

Noch fragen?
@Steffen
 
  • Gefällt mir
Reaktionen: BrollyLSSJ und konkretor
Bard schrieb:
Irgendwie hätt ich gedacht, dass ihr euren eigenen Serverraum habt statt auf Anbieter angewiesen zu sein.
Lohnt nicht, für die Preise die man in Deutschland für zwei redundande 10GBe Fasern zahlen muss, kann man sich meist mehrere Server mit vergleichbarer Anbindung mieten. Mit dem Unterschied dass bei der Servermiete die Miete für Stellfläche, Klima, Service, Energie, USV, etc. bereits dabei sind und das Peering in der Regel viel besser ist.
 
  • Gefällt mir
Reaktionen: Smartbomb, foo_1337, Tom_123 und 2 andere
Wie hoch ist die Leistungsaufnahme der Server und ist die Energieversorgung nachhaltig?

Bzgl. Geschwindigkeit war Computerbase schon immer top und mir ist es völlig egal, ob der Seitenaufbau ein paar Sekunden länger dauert.

Was bringen auch die schnellsten Server, wenn eine Seite komplett mit Werbung zugemüllt ist, die dann nicht mal sauber geladen wird... noch lässt es sich bei Computerbase aber ertragen.
 
  • Gefällt mir
Reaktionen: Arkada
Cepheus77 schrieb:
Coole Hardware, coole Software. Having that said - wir sind im Cloudzeitalter. Warum um Himmels Willen macht Ihr das?

Cloud = Rechner und Speicherplatz eines anderen.
Nicht jeder will, das seine Daten auf fremden Rechnern gespeichert werden oder das sein eigenes Geschäft von anderen abhängt.
Dazu kommt auch noch, das die Anbieter in den vielen Anwendungsfällen auch noch teurer sind als eine eigene Lösung.
Sinnvoll ist die Cloud natürlich, wenn man kein kompetentes Admin-Team bezahlen kann oder kompetente Leute nicht für den eigenen Laden arbeiten wollen.
 
Zuletzt bearbeitet:
Finde ich gut.
Nicht erst warten bis es zu spät ist, sondern einfach mit der Zeit gehen. :)

Aber die Seite war auch vorher schon immer wirklich ziemlich schnell verfügbar/aufgebaut. Schneller als die meisten anderen Websites, die ich so ansteuere.
Da ist quasi immer sofort ne Reaktion wenn sich so durch die Seite klickt. Von daher merke ich da erstmal keinen großen Unterschied. :)
 
Autokiller677 schrieb:
Wurde hier im Thread schon diskutiert - kurzum deutlich teurer, und für das Hosten einer noch relativ einfachen Website + Forum völliger overkill. Das macht Sinn, wenn man schnell skalieren muss, einfach(er) weltweit ausrollen will oder andere Späße.
Könntest du das mal Amazon erklären? Die haben das mit dem New World release irgendwie nicht so mitbekommen.
Wenn es da doch nur einen grosse kompetenten weltweitbekannten Anbeiter gäber der solche Lösungen anbieten würde....
 
M@tze schrieb:
Zwei Netzteile sind üblich, das eins ausfällt eher nicht - wir hatten 2 Defekte in den letzten 20 Jahren bei 40+ Servern. Aber Du hängst beide an 2 verschiedene Stromkreise, normalerweise einmal "Normalstrom" und das andere an die Gebäude USV. Wenn jetzt eine Sicherung oder der FI fliegt, kann der andere Stromkreis den Server noch weiter versorgen. Macht natürlich am meisten Sinn, wenn auch der Rest der Infrastruktur redundante Netzteile hat. Nützt ja nichts, wenn die Switche dann alle stromlos sind. Gerade auch bei großen Datenbanken wichtig, da man nicht will dass die mitten in einer Transaktion "weggeschossen" werden und dann einen inkonsistenten Stand haben.
Alles was nach einem Stromverlust einen inkonsistenten Zustand hat ist keine echte Datenbank.

Keine moderne Datenbank hat damit ein Problem, egal ob Postgres, MySQL, SQL Server oder Oracle. Höchstens so Spielzeug wie MS Access. Die Daten konsistent zu speichern ist der Zweck einer klassischen relationalen Datenbank, das wäre ja furchtbar wenn man die so einfach in inkonsistente Zustände bringen könnte indem man sie einfach mal abschießt ohne Vorwarnung.

Praktisch jede richtige Datenbank hat sowas wie ein Write-Ahead-Log (WAL) in das die Änderungen geloggt werden bevor sie in den eigentlichen Tabellen durchgeführt werden. Wenn das ganze Ding dann mal aus irgendeinem Grund abschmiert dann spielt man dieses Log einfach nochmal ab und kommt damit in einen konsistenten Zustand zurück.
 
  • Gefällt mir
Reaktionen: Skysnake
Steffen schrieb:
ComputerBase ist am Montagmorgen nicht nur auf neue Server umgezogen, sondern auch zu einem neuen Server-Provider in ein neues Rechenzentrum. Die neuen Server verfügen erstmals seit 14 Jahren wieder über AMD-CPUs (EPYC), nutzen ein NVMe-Software-RAID und haben die doppelte Menge RAM.

Zur News: In eigener Sache: Das neue Server-Setup von ComputerBase (2021)
Mehr Likes als Kommentare sagt eine Menge über die Qualität des Artikels aus. Chapeau!
Glückwunsch zum geglückten Umzug :)
 
Die Startseite, die ihr vermutlich aggressiv serverseitig cached, lädt bei mir rasend-schnell:
1638217520640.png


Ich kenne keine technikorientierte Plattform, die sich so sehr um ihre eigene Technik kümmert.
Danke dafür!
 
  • Gefällt mir
Reaktionen: Jan und Steffen
greatdisaster schrieb:
Sinnvoll ist die Cloud natürlich, wenn man kein kompetentes Admin-Team bezahlen kann oder kompetente Leute nicht für den eigenen Laden arbeiten wollen.
Gerade dann brauchst du fähige Leute, um nicht völlige Grütze fabriziert zu bekommen. Und die findest du leider selten auf dem Markt, daher sind die Gehälter hier sehr hoch. Die typischen Linux Admins sagen "bäh, mit Cloud will ich nix zu tun haben". Daher gilt es jemanden zu finden, der bock auf alles hat. Alles bedeutet: Linux skills + infrastructure as code + netzwerk (vpc etc) + stack. Hardwareskills sind hier selbstverständlich völlig irrelevant.
Ich fahre beruflich wie privat mehrgleisig. Da ich hier rein privat bin: Ich habe Kisten in ner Colo und das Zeug, was wenig Storage braucht liegt in der Oracle Cloud auf ARM Kisten (free tier).
 
Haldi schrieb:
Könntest du das mal Amazon erklären? Die haben das mit dem New World release irgendwie nicht so mitbekommen.
Wenn es da doch nur einen grosse kompetenten weltweitbekannten Anbeiter gäber der solche Lösungen anbieten würde....
Korrekt bedienen können muss man es trotzdem noch. Und damit hatte die Abteilung von New World halt ein paar Probleme.
 
Autokiller677 schrieb:
Simples Webhosting ist da überhaupt nicht der Anwendungsfall. Eventuell könnte man statt root-Server irgendeinen Managed Server / Managed Hosting nehmen. Aber dann gehen auch viele der Low-Level Optimierungen, die CB so schnell machen, nicht mehr.
It depends. Der Traffic kostet halt immer viel. Das ist der Grund, wieso sehr viele AWS & Co nutzen aber davor ein CDN, z.B. von Akamai, Link11 & Co haben, welches die Bilder etc. cached und ausliefert. Steffen sagte ja auch, dass sie S3 nutzen aber ihre Server den Content ausliefern lassen.
Man muss sich halt Gedanken machen, was man will und dann schauen, wie man das löst. Es führen verdammt viele Wege nach Rom und man sollte erst mal nichts kategorisch ausschließen. Und je nachdem was du willst/brauchst, kannst du dir auch mit Lambda und s3 was bauen, was extrem wenig kostet und dennoch funktioniert. Natürlich nicht für Sites wie diese hier aber z.B. für IoT Geraffel für das manche auch nen Root Server oder ne VM mieten.

Mit dem "korrekt bedienen" hast du sowas von recht. Leider kapieren das viele nicht und fallen dann schnell auf die Schnauze. Klassiker: Offenes S3 Bucket ;)
 
  • Gefällt mir
Reaktionen: ComputerJunge und Piktogramm
@John Reese
Caching machen die Webserver wie Apache und Nginx von allein und das Linux unten drunter hält auch alles im Ram was es nur kann.

@Steffen
Was nutzt ihr denn fürs Softwareraid und wenn es mdadm ist, mit journal oder ohne?

@foo_1337
Ab einer bestimmten Größe braucht es zwingend fähige Leute, sonst explodieren die Rechnungen von Amazon.

washieiko schrieb:
Das bedeutet aber auch bei einem Stromausfall (klar, unwahrscheinlich im Rechenzentrum), wäre keine Datensicherheit gegeben ? Normal setzt man doch nur auf einen extra Controller für die extra Stromzufuhr über externe Batterie.
Es gibt mittlerweile Server, die den Hauptspeicher mit Stützakkus über Stunden/Tage halten können. Das wird Cbase wahrscheinlich nicht nutzen (teuer, arg speziell und daher bei Hostern meist nicht im Angebot).
Prinzipiell verlässt man sich aber auf das Journaling vom Dateisystem bzw. Softwareraid.
ZFS könne das ohne Umwege, bei BTRFS und mdadm sollte man aber mal schauen ob man deren Journaling nutzt um Raid5 und höher gegen Writeholes zu sichern.

Hardwareraids sind wirklich oll.
 
  • Gefällt mir
Reaktionen: foo_1337
washieiko schrieb:
Das bedeutet aber auch bei einem Stromausfall (klar, unwahrscheinlich im Rechenzentrum), wäre keine Datensicherheit gegeben ? Normal setzt man doch nur auf einen extra Controller für die extra Stromzufuhr über externe Batterie.
brotkastn schrieb:
Die Datacenter SSDs heutzutage haben meistens eigene Kondensatoren, die bei Stromverlust ihren DRAM noch in den NAND schieben.
Ja, die NVMe-SSDs (Samsung PM983) haben für die Power-Loss Protection einen Kondensator: "The Samsung PM983 SSD has been designed to prevent data loss resulting from unexpected power shutdowns with its power-loss protection architecture. Upon detection of power failure, the SSD immediately uses the stored energy from tantalum capacitors to provide enough time to transfer the cached data in DRAM to the flash memory, for protection against loss of data." – https://www.samsung.com/semiconduct...uct_Brief_Samsung_PM983_NF1_NVMe_SSD_1806.pdf

chartmix schrieb:
steht HTTP/3 schon auf der todo-Liste, wenn es beim Server Einzug hält?
In nginx wird HTTP/3 soweit ich weiß gerade eingebaut. Wenn das fertig ist, dann spricht denke ich nichts dagegen.

Cool Master schrieb:
Gute RZ haben Diesel Generatoren, die relativ Zeitnah nach dem Ausfall starten.
Alternativ dazu kann man glaube ich auch ein Schwungrad nutzen.

core2e6300 schrieb:
Mich würde interessieren mit welcher Netzwerkgeschwindigkeit der Server angebunden und ggf. wie hoch die maximale Netzwerkauslastung ist?
Bei dem vorherigen Setup stand ersteres dabei.
Ne, stand nicht dabei. ;) Dieses Mal kann man es sich aber aus den Bildbeschriftungen herleiten, denn SFP+-Module können nicht mehr als 10 Gbit/s.

Bigeagle schrieb:
Kann man daraus schließen dass avif auf absehbare Zeit keine Chance hat? jpegxl hat noch weniger browsersupport.
Ne. Ich würde nur sagen, dass WebP für uns tendenziell raus ist und ich auf AVIF oder JPEG XL setzen würde (habe das in den letzten Monaten nicht mehr verfolgt). Dafür, dass es JPEG schon seit Anfang der 90er gibt, ist es einfach ein irre gutes Dateiformat. Es ist ja nicht so, dass die neuen Formate es in Grund und Boden stampfen würden. :)

Bigeagle schrieb:
Bislang jage ich meine Screenshots immer durch optipng fürs Forum.
Das ist toll. Wenn es nicht auf absolute Farbtreue ankommt, kann man mit pngquant meist noch deutlich mehr rausholen. :)

Bigeagle schrieb:
Wäre deduplizierung für CB eigentlich interessant? Gab es da überlegungen oder Tests?
Ich habe keine Tests gemacht. Ich würde aber vermuten, dass hier nicht ständig dieselben Dateien immer wieder hochgeladen werden.

25Plus schrieb:
Wie hoch ist die Leistungsaufnahme der Server und ist die Energieversorgung nachhaltig?
Gerade im Moment 140 bzw. 135 Watt. Also genauso hoch wie bei den alten Servern, dort hatte ich vor ein paar Wochen nochmal nachgeschaut und ebenfalls 140 Watt gesehen. (In der alten News von 2018 steht 130 Watt, der Stromverbrauch der alten Server scheint im Laufe der Zeit also etwas gestiegen zu sein.)

"Zum Betrieb des Rechenzentrums wird 100 % Ökostrom aus Wasserkraftanlagen verwendet." – https://23m.com/de

Hier steht noch mehr zur Infrastruktur: https://23m.com/de/infrastructure

Piktogramm schrieb:
Was nutzt ihr denn fürs Softwareraid und wenn es mdadm ist, mit journal oder ohne?
mdadm. Das Journal (write-journal) ist RAID-4/5/6-spezifisch, oder? Wir nutzen RAID-1.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, BrollyLSSJ, menace_one und 5 andere
Steffen schrieb:
Alternativ dazu kann man glaube ich auch ein Schwungrad nutzen.

War bei mir gar nicht aufm Radar aber scheint wirklich eine gute Lösung zu sein:

https://green-it.baden-wuerttemberg...Dzc4wwdQuY4I/content/schwungrad-usv/maximized

Drahminedum schrieb:
Generatoren sind Standard, habe aber schon einmal erlebt dass der trotz regelmässiger Tests genau in dem Moment abkackte als es ernst wurde.

Deswegen muss man die Teile, wie jede Maschine, warten. Das gilt auch für USVs die man regelmäßig mal entleeren sollte und wieder laden.
 
  • Gefällt mir
Reaktionen: Jan und Steffen
Ich denke, den doppelten Blindtest wuerde die Seite nicht bestehen, merke keinen Unterschied.
Aber der Umzugsausloeser war bestimmt nicht ein lahmer Seitenaufbau, oder? *g

Danke fuer die Einblicke und den Erfolg. - Wurde da ein "Umzugsteam" angeheuert, oder hat man das als Sysadmin so nebenbei mit drauf? Wieviel Mannschaftsteile waren denn daran beteiligt?
 
  • Gefällt mir
Reaktionen: Jan
Zurück
Oben