News In eigener Sache: Das neue Server-Setup von ComputerBase (2021)

Die ComputerBase-Server werden zukünftig von 23M bereitgestellt, einem Provider für Dedicated Server, Colocation und Cloud Server. Der neue Server-Standort Frankfurt sorgt aufgrund seiner direkten Anbindung an einen der weltweit größten Internet-Knoten DE-CIX für eine noch etwas bessere Anbindung an die Netze der großen und kleinen DSL- und Kabel-Provider.

Schnieke Latenzen :cool_alt: als die Büchsen noch in Köln standen waren es immerhin 4-5ms mehr
Code:
|------------------------------------------------------------------------------------------|
|                                      WinMTR statistics                                   |
|                       Host              -   %  | Sent | Recv | Best | Avrg | Wrst | Last |
|------------------------------------------------|------|------|------|------|------|------|
|                      Request timed out. -  100 |    1 |    0 |    0 |    0 |    0 |    0 |
|ip-81-210-144-156.hsi17.unitymediagroup.de -  0 |    3 |    3 |    6 |    6 |    6 |    6 |
|         de-fra04a-rc1-ae-19-0.aorta.net -    0 |    3 |    3 |   10 |   10 |   11 |   11 |
|                           84.116.190.94 -    0 |    3 |    3 |   10 |   10 |   10 |   10 |
|                  decix.bb01.net.23m.com -    0 |    3 |    3 |   10 |   10 |   10 |   10 |
|            ae1-0.gw01.fra01.net.23m.com -    0 |    3 |    3 |    9 |    9 |   10 |    9 |
|                     www.computerbase.de -    0 |    3 |    3 |   10 |   10 |   11 |   11 |
|________________________________________________|______|______|______|______|______|______|
 
  • Gefällt mir
Reaktionen: Steffen
Bei dieses krassen Disk Performanceverbesserungen, könnte man ja fast vermuten, das ihr von drehenden Platten zu NVMe Disks gewechselt seid. Falls die vorherige Basis schon erwähnt wurde, dann hab ich es überlesen sorry.
 
Jup! Sehr interessant.

Forumanhänge belegen mit 450 anstatt 134 GB heute deutlich mehr Platz, vermutlich auch weil wir nach dem Umstieg auf XenForo aus guten Gründen den IMG-BBCode abgeschaltet haben.

Wenn ihr WebP Unterstützung hättet könnte man da bestimmt noch was reduzieren...
Rege mich jedes mal darüber auf wenn ich ein .WebP Foto hochladen will.

Edit: okay ich sehe das wurde bereits angesprochen und beantworten. Danke.
 
Zuletzt bearbeitet:
Die intuitive Bedienung der Foreneigenschaften und das Laden auch bei schlechtem Netz war ein Grund Warum ich mich auf diese Seite verirrt habe.

Schön dass der Umzug dann so reibungslos geklappt hat. :)
 
  • Gefällt mir
Reaktionen: chartmix und konkretor
xexex schrieb:
Einen Brand halte ich in einem RZ für äußerst unwahrscheinlich, da reicht in den meisten Fällen auch ein Backup an einen anderen Standort. Allerdings darf man hier von einem ziemlichen Luxus sprechen, die RZs die ich in Frankfurt so gesehen habe, stellen nur zwei Stromkreise pro Schrank bereit.

Unsere Rechenzentren haben auch nur 2 separate Stromkreise und geschäftskritische Daten werden nicht nur am Standort sondern auch auf die anderen Standorte gespiegelt. Deswegen könnten wir auch bei einem Totalausfall remote an einem anderen Standort weiterarbeiten, allerdings mit erheblichen Einschränkungen bei der Bandbreite. Deswegen ist zumindest der VSANcluster an jedem Standort nochmal redundant in einem anderen Brandabschnitt. Klar ist ein Brand unwahrscheinlich, aber Bestandteil vom Notfallplan. Letztes Jahr ist im Sommer in einem RZ die komplette Klimananlage ausgefallen, obwohl auch redundant, da war es dann eben wie im Brandfall, da wir die Server alle abfahren mussten. Durch Corona und Teilemangel hat es über 1 Woche gedauert, bis das Ganze repariert werden konnte - da ist man schon über das 2. RZ am Standort froh. ;)

xexex schrieb:
Sobald es dann um Switche geht oder einige andere Komponenten, wird es dann oft deutlich teurer. Für die Hersteller ist es halt ein gutes Zubrot, "redundant" hört sich ja so "sicher" an.

Gerade bei einem Switch halte ich 2 Netzteile aber für essentiell, auch wenn die redundant aufgebaut sind. Wenn im VSAN oder ESX Cluster ein Host wegbricht, erledigt sich das durch Vmotion ja von alleine. Wenn das Netzwerk Probleme bekommt, bricht mir unter Umständen die ganze Virtualisierung zusammen.

Mac_Leod schrieb:
könnte man ja fast vermuten, das ihr von drehenden Platten zu NVMe Disks gewechselt seid. Falls die vorherige Basis schon erwähnt wurde, dann hab ich es überlesen sorry.

Steht gleich oben im Artikel:

Während die alten Server noch einen Hardware-RAID-Controller mit SSDs (Betriebssystem, Datenbank, Suchindex, …) und HDDs (Bilder, Forumanhänge, …) hatten,
 
  • Gefällt mir
Reaktionen: Skysnake und Mac_Leod
Herzlichen Glückwunsch zum erfolgreichen Umzug. CB ist meine alltägliche Seite.

Die Ladezeiten sind aus Schweden 🇸🇪 echt spitze!

Eure Berichte/Infos/Notizen „in eigener Sache“ sind spannend, ehrlich und informativ.

Ich freue mich auf Euren Jahresrückblick mit Zugriffszahlen, Abonnentenzahlen, OS/Plattform Zugriffen und alles rund um CB!

Macht weiter so!

Grüße aus Schweden 🇸🇪

Philipp
 
  • Gefällt mir
Reaktionen: Jan
Feine Sache. Wird aber auch sicher wieder eine Stange Geld kosten, bzw. gekostet haben. Aber super gut.

Ich kann mich noch an die ersten Jahre von CB erinnern, da haben die Server häufig eine Denkpause eingelegt, bevor was geladen wurde. Und ich hatte damals schon DSL.
 
perkyagnostic schrieb:
Wobei ich sagen muss, dass Computerbase auch vorher schon eine der "snappiesten" Seiten war die ich kenne, jetzt erst recht.
Jap! Und zwar so, dass es sich tatsächlich positiv bemerkbar gemacht hat.
 
  • Gefällt mir
Reaktionen: perkyagnostic
M@tze schrieb:
Gerade bei einem Switch halte ich 2 Netzteile aber für essentiell,
Auch hier kommt es auf die Konfiguration an. Alle "besseren" Switche bieten heutzutage Cluster Lösungen und RSTP tuts auch. Bei Clients sieht es natürlich anders aus, vor allem PoE Switche an denen oft eine ganze Infrastruktur hängt würde ich ebenfalls mit mehreren Netzteilen und Stromkreisen absichern, das ist jetzt aber auch OT.
Ergänzung ()

Madman1209 schrieb:
Passieren kann immer alles, deshalb ist eine Disaster Recovery Lösung auch immer eforderlich. Der Punkt ist nur, wenn ein solcher Fall so unwahrscheinlich ist, dann reicht eben oft auch ein Backup.

Heutzutage kannst du im Fall der Fälle, einfach auf Azure eine RZ Umgebung aufbauen, die Sicherung wiederherstellen und weiter geht es. Natürlich sollte man aber zumindest schon das Wissen für sowas im Haus haben.
 
Zuletzt bearbeitet:
wayne_757 schrieb:
Ich habe mal eine Zeitlang meinen Homeserver mit Arch betrieben. Fand das ziemlich anstrengend, weil man z.B. Postgres manuell migrieren muss. Zudem werden gerne mal die Pakete untereinander inkompatibel. Ist das bei Gentoo besser?
Ich glaube bei den letzten MySQL-Versionssprüngen (5.6 auf 5.7 und vor Kurzem auf 8.0) hat MySQL immer alles automatisch migriert. Da hat Gentoo also glaube ich nichts zu beigetragen, aber auch nichts kaputt gemacht. Wenn man Features nutzt, die in einer neuen MySQL-Version fehlen (z.B. Query-Cache oder irgendwelche Datentypen), dann muss man da aber denke ich immer selbst bei schauen.

News schrieb:
IOPS Write Test +677%, IOPS Read Test +489%, Throughput Write Test +639%, Throughput Read Test +851%, Latency Write Test +230%, Latency Read Test +71%.
Mac_Leod schrieb:
Bei dieses krassen Disk Performanceverbesserungen, könnte man ja fast vermuten, das ihr von drehenden Platten zu NVMe Disks gewechselt seid.
Hardware-RAID mit SSD + HDD -> Software-RAID mit NVME. Die fio-Benchmarks liefen auf den alten Servern übrigens schon auf den SSDs, sonst wäre der Vergleich ja komplett unfair gewesen.

Ich habe die Benchmarks auf den alten Servern gerade nochmal wiederholt, da die alten Server ja jetzt komplett idle sind (vor ein paar Wochen musste ich versuchen, einen möglichst ruhigen Moment abzupassen, das kommt gerade auf dem zweiten Server durchaus mal vor, aber war natürlich trotzdem nicht ideal): Die Werte sind jetzt teils etwas besser, aber nur in der Größenordnung von 0–5%. Bei den krassen Unterschieden (siehe oben) fällt das dann nicht mehr ins Gewicht.

Haldi schrieb:
Wenn ihr WebP Unterstützung hättet könnte man da bestimmt noch was reduzieren...
Rege mich jedes mal darüber auf wenn ich ein .WebP Foto hochladen will.
Die Forumsoftware hält von jedem Anhang nur ein Exemplar vor, d.h. sie kann nicht verschiedene Varianten eines Anhangs erstellen. Da WebP inzwischen aber auch von Safari unterstützt wird (zumindest ab Big Sur), können wir das vielleicht bald freischalten, sodass man WebP-Dateien dann hochladen kann.
 
  • Gefällt mir
Reaktionen: Smartbomb, Haldi und cartridge_case
Danke für diese Einblicke in die Technik.
Ich betreibe eher kleinere bis mittelgroße Seiten und finde solche Hintergrundinfos von Seiten mit so viel Traffic immer sehr hilfreich und interessant. Kann einem sehr gut für eigene Entscheidungen helfen. Finde schön, dass CB hier so transparent ist. Auch deswegen weiß ich, dass die paar Euro in die Pro-Mitgliedschaft gut investiert sind :)
 
  • Gefällt mir
Reaktionen: Smartbomb, greatdisaster, Moerf und 2 andere
floh667 schrieb:
Schnieke Latenzen :cool_alt:
Kann ich bestätigen:
Code:
Host                             Loss%   Snt   Last   Avg  Best  Wrst StDev
1. 192.168.2.100                  0.0%   100    0.2   0.2   0.1   0.2   0.0
2. xxxxxxxxx.dip0.t-ipconnect.de  0.0%   100    4.8   5.8   4.6  36.7   3.9
3. x-xxx-x.F.DE.NET.DTAG.DE       0.0%   100    8.8   8.7   8.3  10.6   0.4
4. 80.150.168.242                 0.0%   100    8.4  12.5   8.0 124.4  19.0
5. ae2-20.cr01.fra03.net.23m.com  0.0%   100    8.5   8.4   7.8  24.6   1.7
6. ae2-0.gw02.fra01.net.23m.com   0.0%   100    7.9  10.0   7.8  69.6   8.7
7. www.computerbase.de            0.0%   100    7.8   7.9   7.6   8.6   0.2
 
  • Gefällt mir
Reaktionen: foo_1337 und Jan
0-8-15 User schrieb:
Kann ich bestätigen:
Code:
Host                             Loss%   Snt   Last   Avg  Best  Wrst StDev
1. 192.168.2.100                  0.0%   100    0.2   0.2   0.1   0.2   0.0
Wow, jetzt hast du mich echt kurz geschockt ;) Bei mir ist das GW auch die 2.100, was vermutlich eher selten ist.
 
  • Gefällt mir
Reaktionen: Smartbomb und Jan
"Der Grund für den Wechsel ist, dass Hardware-RAID-Controller mit der enormen Geschwindigkeit von (NVMe-)SSDs kaum noch mithalten können, weshalb man diese Aufgabe inzwischen in den meisten Fällen besser dem Betriebssystem und der ohnehin mit vielen Kernen ausgestatteten CPU überlässt."
Das bedeutet aber auch bei einem Stromausfall (klar, unwahrscheinlich im Rechenzentrum), wäre keine Datensicherheit gegeben ? Normal setzt man doch nur auf einen extra Controller für die extra Stromzufuhr über externe Batterie.
 
foo_1337 schrieb:
Bei mir ist das GW auch die 2.100, was vermutlich eher selten ist.
So selten wird das nicht sein, der DHCP Bereich fängt bei vielen Speedports bei 192.168.2.100 an.

Ich hab die IP frei erfunden, als ich die anderen Hops innerhalb meines Heimnetzes aus dem Traceroute entfernt habe und dabei ganz offenbar gepfuscht.
 
Zuletzt bearbeitet:
Wer einen Speedport nutzt, wird wohl in den meisten Fällen den Speedport selbst als GW nutzen, oder? ;)
 
  • Gefällt mir
Reaktionen: FrAGgi und 0-8-15 User
washieiko schrieb:
Das bedeutet aber auch bei einem Stromausfall (klar, unwahrscheinlich im Rechenzentrum), wäre keine Datensicherheit gegeben ? Normal setzt man doch nur auf einen extra Controller für die extra Stromzufuhr über externe Batterie.
Die Batterie am Controller ist ja dafür da, den "On-Controller-Cache" so lange leben zu lassen, bis alles wieder Strom hat und dann geschrieben werden kann. Die Datacenter SSDs heutzutage haben meistens eigene Kondensatoren, die bei Stromverlust ihren DRAM noch in den NAND schieben.

Klar ist, alles was Linux sich noch so im flüchtigen RAM vorhält ist weg. Aber, davor schützt der Controller auch nicht :)
 
  • Gefällt mir
Reaktionen: Skysnake und washieiko
Das sollte ja normalerweise eine USV regeln. Entweder die RZ-weite, oder, wenn man es sicherer / näher dran will, packt man noch eine mit ins Rack.

Ein Stromausfall sollte im RZ eigentlich nie zu einem Hard-Shutdown führen.
 
Zurück
Oben