News In eigener Sache: Das neue Server-Setup von ComputerBase (2021)

ebird schrieb:
Das ist mir schon klar - es war Polemik, da bei sehr großen Systemen die Latenz als Argument gegen DNS aufgeführt wurde. Wobei ich mich frage, was wohl länger dauert, eine Hostsdatei mit 60000 Einträgen, die auch mal gut 2-10MiB haben kann, einzulesen und zu verarbeiten oder einen DNS Server abzufragen.
Ich bin natürlich auch kein Befürworter von Hosts-Dateien außer in sehr speziellen Sonderfällen (eigentlich nur irgendwo als Override, temporär, denn sowas vergisst man, und der nächste Admin reißt sich die Haare aus)...

Die Hosts Datei braucht auch nur einmal eingelesen werden und bleibt dann im RAM, ich denke nicht, dass der Resolvercache bedeutend kleiner wäre.

Ist aber alles akademisch, bitte benutzt einfach DNS, wie normale Menschen. 😅
Ergänzung ()

foo_1337 schrieb:
Leider gibt es genug "Admins", die keine Ahnung davon haben, sich gerne IP Adressen im Kopf merken und all solche Dinge. Daher geht es auch so schleppend voran.
Bei uns sind es eher die alteingesessenen Entwickler, die nicht vom "90er-Server" und von "der 113" loslassen können.
Dabei hatten die natürlich zu keinem Zeitpunkt keinen DNS-Namen...
 
  • Gefällt mir
Reaktionen: foo_1337
ebird schrieb:
Auch die Vergabe der Maschinennamen stellt sich immer wieder so schwierig dar. Es ist ja gar nicht so einfach die Maschinen zu benennen ::affe, ::e5el usw. Die Ideen gehen mir schon mal aus.
naja,n0001-n9999 reicht meist schon vollkommen aus. Macht es dem scheduler - z.B. Slurm - auch einfacher.

ebird schrieb:
Was da für Zeiten drauf gehen, bis alleine so ein Rack mit Namen ausgestattet ist. Da wäre es vielleicht praktisch, wenn man sich so ein Schema wie ::raum:reihe:zeile:maschine oder ähnliches zu Hilfe nehmen könnte. Aber das sind ja alles nur nicht realisierbare Wünsche.
naja komm, das Schema macht man einmal und das wars dann.

Slurm kommt noch mit zwei oder drei Parametern klar,aber das wars dann. Man sollte das aber nicht übertreiben, sonst bremst man das Scheduling unnötig aus. Nicht immer wichtig, aber wenn du nen großes high throughput System hast in dem die Jobs nur Sekunden bis Minuten laufen kann dich das Prozente an Leistung kosten....

Wenn man das nach Reihen macht passt das eigentlich. Eine Reihe hat meist auch unter 1000 Knoten. Sonst werden die ziemlich lang...

Gnarfoz schrieb:
Das geht auch ohne sssd einfach in der nsswitch.conf.
Ja klar, aber heutzutage nutzt man eher den dass. Wüsste nicht wo nsswitch noch primär genutzt wird.


BrollyLSSJ schrieb:
Nicht, wenn man DNS vernünftig nutzt. Die DNS werden von Windows Systemen automatisch abgeglichen und im Zweifel aktualisiert. Deswegen gibt es ja den default mäßig gesetzten Haken "Publish to DNS" beim Netzwerkadapter in Windows. Und auch bei jeden Reboot wird der A Record im DNS erneut gesetzt.
Du hast es nicht verstanden. Es geht nicht darum das updatesnicvt automatisch gemacht werden könnten, sondern darum, dass sich das blöde Update Zeit und damit Leistung kostet....

BrollyLSSJ schrieb:
Wie gesagt, bei Windows Systemen passiert das automatisch. Ich kenne das Interwall nicht, aber wenn sich die IP im System ändert, wird automatisch der DNS Eintrag aktualisiert. Dafür ist der Haken "Publish to DNS" ja da. Die Probleme in der Vergangenheit waren halt da, weil die Kollegen mit Ihren Linux Systemen keinen DNS angefordert hatten und auch nicht beim IP Wechsel Bescheid gegeben haben.
wie gesagt, du verstehst das Problem nicht, weil du von dem einzelnen System ausgehst und nicht von großen tightly coupled Systemen. Bei 10.000 Clients im Büro ist es kack egal, wenn jeder pro Stunde 1s hängt. Bei dem großen System würde das System NICHTS mehr machen außer warten. DAS ist das Problem.

BrollyLSSJ schrieb:
Wie gesagt, seit dem bei Linux auch entsprechend korrekt DNS Einträge angefordert werden hatten wir keine Probleme mehr. Ich kann aber, wie gesagt, nur so aus dem Umfeld sprechen. Riesige Super Rechner haben wir nicht. Nur Umgebungen mit mehreren Hunderten Servern und Tausenden Clients.
Ja, da ist das auch kein Thema. Klar wenn du Zehntausende oder Millionen Systeme hast wird nen einzelner DNS irgendwann zum Problem, aber das lässt sich simpel lösen. Daher sollte DNs aich in solchen Umgebungen verwendet werden, und natürlich nutzen wir für alles externe auch DNS, weil sich die IP einfach ändern kann und im Normalfall auch nur die Frontends z.b. Lizensen auschecken müssen und nicht jeder Knoten, und man das auch eher ein Problem von kleinen Jobs ist, wo es dann auch wieder egal ist.

Aber wegen interner Kommunikation schauen wir erst im hostsfile, das eh im RAM liegt, und dann im DNS.

Autokiller677 schrieb:
Sehe ich wie @BrollyLSSJ. Ich kenne für normalen Betrieb keine Gründe mehr, irgendwo IPs manuell zu setzen. Korrekt konfiguriertes DNS & DHCP regeln das sinnvoll. Wenn man irgendwo dauerhaft eine fixe IP braucht kann man das in jedem guten DHCP mit der persistent Option regeln.
Das hat ja erstmal nichts mit Manuell zu tun. Die Hosts files, DHCP Configs etc werden bei uns automatisch generiert. Man kann also keine Fehler machen. Aber es ist halt im Betrieb schneller als dynamische Adressen. Zudem kann ich nach 4 Jahren noch in beliebige logs schauen und seh auch bei Networktraffic alleinmit IP oder MAC welcher Rechner es ist. Das ist schon ein Vorteil.

ebird schrieb:
Das ist mir schon klar - es war Polemik, da bei sehr großen Systemen die Latenz als Argument gegen DNS aufgeführt wurde. Wobei ich mich frage, was wohl länger dauert, eine Hostsdatei mit 60000 Einträgen, die auch mal gut 2-10MiB haben kann, einzulesen und zu verarbeiten oder einen DNS Server abzufragen.
Hosts file ist schneller. Liegt eh im RAM, wie das ganze OS.

foo_1337 schrieb:
Hmm? Ich habe aktuell in der Full Table knapp 900k ipv4 Prefixe und knapp 150k ipv6 Prefixe. Vor einigen Jahren mussten wir daher schon das TCAM auf den routern "umkonfigurieren". Aber ich verstehe deinen Punkt nicht.

Ipv4 braucht 32bit. Ipv6 64 Bit. Das ist so und wird auch immer so bleiben. Du musst also mehr Aufwand treiben um das zu handhaben. Und z.b. von uns verwendete Router haben z.b. ne HW Routingtabelle von 16k/8k ipv4/ipv6.

Klar, das reicht uns aktuell selbst mit IPv6 noch dicke aus. Aber es gibt auch Systeme bei denen es dann doch den Unterschied macht und das ist dann halt echt kacke, wenn du nur deswegen HW die das doppelte oder so kostet kaufen musst, weil das Größenordnungen billiger ist, als die Kosten für die ansonsten verlorene Leistung.

foo_1337 schrieb:
Wir müssen eh v4 und v6 parallel Bereitstellen. Und ganz ehrlich: Fast jeder von uns wünscht sich seit Jahren ein schnelleres Umstellen auf v6. Facebook z.B. ist intern im DC seit Jahren schon auf v6 only geswitched.
Ja nach außen in Die Welt sollte ipv6 besser zum Standard werden, aber intern kann man schon Kosten und auch Energie sparen.

Das muss man sich ja auch vor Augen führen. Wenn alle auf der Welt nur noch ipv6 statt ipv4 verwenden würden, müsstest du sicherlich nen mittleres bis großes Kraftwerk mehr betreiben...

foo_1337 schrieb:
Es ist alles kein großes Problem, man muss es nur wollen bzw. auch machen.
Zu 99.9% ja, aber es gibt wie gesagt schon auch Fälle wo es absolut keinen Sinn macht.

foo_1337 schrieb:
Leider gibt es genug "Admins", die keine Ahnung davon haben, sich gerne IP Adressen im Kopf merken und all solche Dinge. Daher geht es auch so schleppend voran.
Wenn ich Nerzwerktraffic anschauen muss ist ein schönes IPv4schema schon besser zu nutzen. Das hat teilweise schon echte Gründe, die man aber erst sieht, wenn man öfters mit gewissen Problemen konfrontiert ist.

Bei uns in der Branche geht debugging teils über Wochen und Monate auf allen Ebenen über zich Systeme. Da bist du schon froh die IP und MAC als klar definierte Dinge zu haben, die sich nie ändern und leicht auflösbar sind ohne in ner DB nachschauen zu müssen.

Gnarfoz schrieb:
Die Hosts Datei braucht auch nur einmal eingelesen werden und bleibt dann im RAM, ich denke nicht, dass der Resolvercache bedeutend kleiner wäre.
Bei stateless ist sogar die Datei im RAM.

Man muss sich ja auch vergegenwärtigen, wenn ich nen großes System bootet, dann kommen die Knoten binnen ein paar Sekunden hoch. Ich habe z.b. 10.000 Rechner, die die Auflösung für 10.000 Rechner im Zweifel haben wollen. Da kommt schon was an Last zusammen und wir haben teils bootzeitvorgaben wo du dann die Sekunde hier und dort suchst....

Gnarfoz schrieb:
Ist aber alles akademisch, bitte benutzt einfach DNS, wie normale Menschen. 😅
für 99.999 % auch absolut richtig. Man sollte aber auch wissen das es nicht überall die richtige Entscheidung ist. ;)
 
Skysnake schrieb:
Ipv4 braucht 32bit. Ipv6 64 Bit. Das ist so und wird auch immer so bleiben. Du musst also mehr Aufwand treiben um das zu handhaben. Und z.b. von uns verwendete Router haben z.b. ne HW Routingtabelle von 16k/8k ipv4/ipv6.
128bit ;) Dann haben wir aneinander vorbeigeredet. Ich sprach von der BGP Full Table. Ich ging davon aus, dass du das mit Routingtabelle meinst ;). Ganz ehrlich: Wie viele Prefixe willst du denn in einer statischen Routing Table haben, dass du meinst, da an irgendwelche Grenzen zu kommen? Da fängt man weit vorher an, sich mit dynamischen Routingprotokollen zu beschäftigen.

Skysnake schrieb:
Aber wegen interner Kommunikation schauen wir erst im hostsfile, das eh im RAM liegt, und dann im DNS.;)
Liegt es nicht. strace wird dir die wahrheit verraten. Wenn du damit meinst, dass das hosts file, weil es so oft gelesen wird, im FS Cache (somit im Ram liegt), na gut.

Skysnake schrieb:
Zu 99.9% ja, aber es gibt wie gesagt schon auch Fälle wo es absolut keinen Sinn macht.;)
Stimmt, das streitet ja auch niemand ab. Aber diese Fälle sind wie du schon sagst die absolute Ausnahme :)
Skysnake schrieb:
Ja nach außen in Die Welt sollte ipv6 besser zum Standard werden, aber intern kann man schon Kosten und auch Energie sparen.
Das muss man sich ja auch vor Augen führen. Wenn alle auf der Welt nur noch ipv6 statt ipv4 verwenden würden, müsstest du sicherlich nen mittleres bis großes Kraftwerk mehr betreiben...
Lol, ist das jetzt dein ernst? Hast du NAT, DHCP und all die sonstigen Krücken die bei ipv4 benutzt werden und CPU Zeit kosten vergessen?

Skysnake schrieb:
Wenn ich Nerzwerktraffic anschauen muss ist ein schönes IPv4schema schon besser zu nutzen. Das hat teilweise schon echte Gründe, die man aber erst sieht, wenn man öfters mit gewissen Problemen konfrontiert ist.;)
Lass mich raten, diese gewissen Probleme sind dann im Endeffekt hausgemacht? ;) Ne mal im ernst: Ich weiß was du meinst. Aber das ist mit IPv6 genau so realisierbar. Wir haben bei uns für das was statisch ist auch feste Schemen, sowohl für v4 wie auch v6.
 
Zuletzt bearbeitet von einem Moderator:
Skysnake schrieb:
Du hast es nicht verstanden.
Ne, du hast es nicht verstanden. Ich habe nur den Spruch "It's always DNS." von dir widerlegt. Nicht mehr und nicht weniger. Dass du eine Sonderlocke hast, den 99.9% der Systeme nicht betreffen, hast du ja auch erst später genannt. Und die mehrere hunderte Server bei uns hängen vielleicht nicht alle direkt zusammen, aber mehrere Cluster und Datenbankserver, die aus 10+ Servern zusammen gesetzt sind schon. Und da traten mit DNS noch nie Probleme auf.
 
Naja, so unrecht hat er ja nicht. Wir haben bei uns ein recht großes Anycast DNS Setup. Aber auch das ist nicht unfehlbar. Nun, wenn da mal was ist (1x in 10 Jahren), ist das Monitoring halt knallrot, weil nichts mehr geht. Oder auch nett: Wir haben z.B. ne Management Zone für das meiste Zeug. Wenn du hier Mist baust und es nur noch SERVFAILS hagelt, hast du genau zu dem Zeitpunkt wenn die TTL ausläuft auch erstmal richtig spaß. Zum Glück haben wir die Resolver auch unter unserer Kontrolle und können dann wenn auth gefixt ist, schnell den resolvercache leeren. Man hat halt hier ein zentrales Thema, das schnell zum zentralen Problem werden kann. Aber dennoch würde ich nie mehr auf irgendwelche hosts files zurück gehen wollen. Auf keinen Fall ;) Und man lernt ja aus den Fehlern.. Probleme mit der Mgmt Zone schließe ich für die Zukunft nahezu aus.
 
foo_1337 schrieb:
128bit ;) Dann haben wir aneinander vorbeigeredet. Ich sprach von der BGP Full Table. Ich ging davon aus, dass du das mit Routingtabelle meinst ;). Ganz ehrlich: Wie viele Prefixe willst du denn in einer statischen Routing Table haben, dass du meinst, da an irgendwelche Grenzen zu kommen? Da fängt man weit vorher an, sich mit dynamischen Routingprotokollen zu beschäftigen.
Ah ok, hatte mir h schon über die Anzahl der Einträge gewundert.

Aber hör mir bloß auf mit BGP... wir haben ein VXLAN Setup über mehrere Standorte am Laufen. Ich bin ehrlich gesagt ziemlich enttäuscht was einige Dinge anbelangt. Ich will jetzt nicht ins Detail gehen aber mache Sachen tun da echt nicht wie Sie sollten. Das ist ziemlich erbärmlich. Die Controlplane ist einfach schon sehr viel langsamer als bei nem L2 Netzwerk. Was wir da an Problemen hatten, obwohl das ja alles super schnicke sein soll... wir mussten deswegen einige Dinge ändern, weil ansonsten einfach nicht zuverlässig lief.

foo_1337 schrieb:
Liegt es nicht. strace wird dir die wahrheit verraten. Wenn du damit meinst, dass das hosts file, weil es so oft
Nein, ich meine, dass du aus Servern, clients, wireshark, Switches usw dir Daten zusammensammelst und das über nen langen Zeitraum zum Debuggen, da bist du über jede Komponente weniger froh... wir hatten z.b. mal die Situation in nem Netzwerk, das ein Switch die Migration der MAC von einem Port auf einen anderen nicht zuverlässig hinbekommen hat. Da freust du sich dann beim debuggen...

Und ne ich meine nicht den Cache, sondern das rootfs, dabei diskless deployment halt im RAM liegt ;)
foo_1337 schrieb:
Lass mich raten, diese gewissen Probleme sind dann im Endeffekt hausgemacht? ;) Ne mal im ernst: Ich weiß was du meinst. Aber das ist mit IPv6 genau so realisierbar. Wir haben bei uns für das was statisch ist auch feste Schemen, sowohl für v4 wie auch v6.
Ja, es ist aber unhandlicher und wenn du so tolle embedded devices nich mitverwalten musst die nur ipv4 machen, oder die Kundennetze kein ipv6 machen, dann freust du dich... v4 ist da halt einfach der kleinste gemeinsame Nenner und so lange man nur intern bleibt kommt man damit ja auch echt gut zurecht. V6 disabeln ist halt auch netter, als nen zweiten Satz Firewall rules zu maintainen...

foo_1337 schrieb:
Aber dennoch würde ich nie mehr auf irgendwelche hosts files zurück gehen wollen. Auf keinen Fall ;) Und man lernt ja aus den Fehlern.. Probleme mit der Mgmt Zone schließe ich für die Zukunft nahezu aus.
Ja, ich wäre auch nicht traurig das los zu werden, aber wie gesagt, es gibt da halt echte Gründe die dagegen sprechen. Leider.

BrollyLSSJ schrieb:
Und die mehrere hunderte Server bei uns hängen vielleicht nicht alle direkt zusammen, aber mehrere Cluster und Datenbankserver, die aus 10+ Servern zusammen gesetzt sind schon. Und da traten mit DNS noch nie Probleme auf.
Nochmals. 10 Server sind kack egal bei dem Problem. Auch wenn ihr 100 Sercer für die DB hätte wäre es egal spannend wird es erst bei 1.000+ also zwei Größenordnungen mehr als das was ihr habt. Aber selbst das würde noch vertretbar sein. Richtig schmerzhaft wird es halt bei 2k+ und ich mach die Software für 10k. Da muss man sich einfach mit Zeug rumschlagen der echt keinen Spaß mehr macht. Bei der Skale kackt dich schon der ldap lookup für ne id an...

Cluster boten und dann mal enumerate beim LDAP ist völlig illusorisch. Cache wird dann auch gern auf unendlich oder 24h+ gestellt, damit nicht zu viel Systemnoise da ist. Da ist dann ne lokale passwd in der aber nur die User stehen und kein PW, womit nur ssh keys tun, auch son Weg den man Zähneknirschend geht...
 
  • Gefällt mir
Reaktionen: BrollyLSSJ
Könnt ihr euch eigentlich vorstellen, dass es Leute gibt die den Thread abonniert haben und jedesmal bei eurem off-topic-Gequatsche über DNS eine Benachrichtigung erhalten, in den Thread gehen und feststellen, dass wieder nix Interessantes zum Serversetup von CB geschrieben wurde?
 
  • Gefällt mir
Reaktionen: Gnarfoz, xone92, chartmix und 2 andere
DNS ist alles aber nicht OT. Dazu kommt es macht durchaus Unterschiede in der Latenz und vor allem kann es je nach DNS auch den Seitenaufbau beschleunigen oder verlangsamen.
 
Im Diagramm im Anhang sieht man, dass nur 48 GB RAM von den Prozessen direkt genutzt werden. Den restlichen freien RAM nutzt Linux dann nach und nach als Page Cache, hält dort also eine Kopie der Daten von den NVMe-SSDs vor, um sie bei Bedarf schneller parat zu haben. Den Inhalt des Page Cache kann Linux bei Bedarf (also wenn ein Prozess mehr Speicher für eigene Zwecke braucht) sofort wieder freigegeben, weil er ja nur als kleine Performance-Optimierung dient.
 

Anhänge

  • Screenshot from 2021-12-05 22-16-35.png
    Screenshot from 2021-12-05 22-16-35.png
    39,1 KB · Aufrufe: 281
  • Gefällt mir
Reaktionen: BrollyLSSJ, LukS und Drahminedum
ripa schrieb:
Könntest du mir vielleicht auch ein Traceroute schicken? Gerne auch per PN, falls du es hier nicht veröffentlichen möchtest.

Linux und macOS:
Code:
traceroute computerbase.de
traceroute6 computerbase.de

Windows:
Code:
tracert -4 computerbase.de
tracert -6 computerbase.de
 
Skysnake schrieb:
Ja klar, aber heutzutage nutzt man eher den dass. Wüsste nicht wo nsswitch noch primär genutzt wird.
Hä? Sssd ersetzt nsswitch doch nicht? ;-)
In der nsswitch.conf legt man fest, ob z.B. hosts-Datei oder sssd Vorrang haben.
Ergänzung ()

@Steffen Seit einiger Zeit (schon vor dem Umzug) bemerke ich in der PWA (nennt man das so, wenn ich in Chrome auf Android auf computerbase.de auf "Zum Startbildschirm hinzufügen" drücke und das dann quasi als App habe?) eine relativ starke Verzögerung, wenn ich aus einem Artikel zurück zum Ticker gehe, durch drücken der Zurück-Taste vom OS.
Die Gedenkminute ist so lang, dass ich oft ein zweites mal drücke und dann ganz draußen bin.
Vermutlich eher ein Fall für ein separates Thema irgendwo anders? :D
 
  • Gefällt mir
Reaktionen: foo_1337
@ebird @ripa 23M sagt, dass das Problem mit der erhöhten IPv6-Latenz aus dem Hetzner-Netz (und vielleicht auch von anderswo?) behoben sei. Meinen Tests zu Folge stimmt das. Könnt ihr das auch bestätigen? :)

Code:
# ping -4 -c 4 computerbase.de
PING computerbase.de (212.83.33.137) 56(84) bytes of data.
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=1 ttl=56 time=3.86 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=2 ttl=56 time=3.89 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=3 ttl=56 time=4.00 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=4 ttl=56 time=4.11 ms

--- computerbase.de ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3004ms
rtt min/avg/max/mdev = 3.860/3.964/4.106/0.097 ms


# ping -6 -c 4 computerbase.de
PING computerbase.de(www.computerbase.de (2a00:f48:2000:1::137)) 56 data bytes
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=1 ttl=56 time=4.21 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=2 ttl=56 time=4.02 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=3 ttl=56 time=3.85 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=4 ttl=56 time=3.90 ms

--- computerbase.de ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3005ms
rtt min/avg/max/mdev = 3.847/3.994/4.208/0.138 ms
 
  • Gefällt mir
Reaktionen: Skysnake und knoxxi
Steffen schrieb:
@ebird @ripa 23M sagt, dass das Problem mit der erhöhten IPv6-Latenz aus dem Hetzner-Netz (und vielleicht auch von anderswo?) behoben sei. Meinen Tests zu Folge stimmt das. Könnt ihr das auch bestätigen? :)

Bei mir sieht es gut aus. Latenz bei IPv4 und IPv6 ist identisch.
Aus meinen DSL Netz ist es ebenfalls schneller geworden, kann aber auch an der Auslastung des DSL Netzes liegen.
 
  • Gefällt mir
Reaktionen: Steffen
@Steffen
Netcup bzw Anexia in Nürnberg: mit ~12ms Nachteil für v6

Code:
ping computerbase.de                                                                                         [2/144]
PING computerbase.de(www.computerbase.de (2a00:f48:2000:1::137)) 56 data bytes         
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=1 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=2 ttl=57 time=28.1 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=3 ttl=57 time=28.3 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=4 ttl=57 time=28.0 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=5 ttl=57 time=28.1 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=6 ttl=57 time=28.1 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=7 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=8 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=9 ttl=57 time=28.1 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=10 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=11 ttl=57 time=28.3 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=12 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=13 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=14 ttl=57 time=28.3 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=15 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=16 ttl=57 time=28.3 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=17 ttl=57 time=28.3 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=18 ttl=57 time=28.3 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=19 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=20 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=21 ttl=57 time=28.1 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=22 ttl=57 time=28.1 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=23 ttl=57 time=28.4 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=24 ttl=57 time=28.1 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=25 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=26 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=27 ttl=57 time=28.1 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=28 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=29 ttl=57 time=28.1 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=30 ttl=57 time=28.3 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=31 ttl=57 time=28.1 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=32 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=33 ttl=57 time=28.2 ms
64 bytes from www.computerbase.de (2a00:f48:2000:1::137): icmp_seq=34 ttl=57 time=28.3 ms
^C
--- computerbase.de ping statistics ---
34 packets transmitted, 34 received, 0% packet loss, time 33041ms

rtt min/avg/max/mdev = 28.045/28.182/28.432/0.087 ms


traceroute6 computerbase.de
traceroute to computerbase.de (2a00:f48:2000:1::137) from 2a03:4000:50:1337::42, 30 hops max, 24 byte packets
 1  2a03:4000:50::3 (2a03:4000:50::3)  3.9469 ms  0.2130 ms  0.1546 ms
 2  2a00:11c0:47:3::fa (2a00:11c0:47:3::fa)  0.3641 ms  0.3654 ms  0.2808 ms
 3  2a00:11c0:47:1:47::138 (2a00:11c0:47:1:47::138)  0.5665 ms  0.4451 ms  0.2949 ms
 4  2a00:11c0:47:1:47::212 (2a00:11c0:47:1:47::212)  21.8298 ms  21.9033 ms  21.8027 ms
 5  ams-ix.23media.com (2001:7f8:1::a504:7447:1)  27.9411 ms  28.3799 ms  28.1596 ms
 6  ae3-0.bb01.fra01.net.23m.com (2a00:f48:100:0:8000::3d)  28.1722 ms  28.3092 ms  28.2669 ms
 7  ae1-0.gw01.fra01.net.23m.com (2a00:f48:100:0:8000::32)  28.1616 ms  28.2778 ms  28.1078 ms

Code:
ping -4 computerbase.de
PING computerbase.de (212.83.33.137) 56(84) bytes of data.
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=1 ttl=55 time=16.8 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=2 ttl=55 time=16.7 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=3 ttl=55 time=16.7 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=4 ttl=55 time=16.8 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=5 ttl=55 time=16.8 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=6 ttl=55 time=16.9 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=7 ttl=55 time=16.7 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=8 ttl=55 time=16.7 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=9 ttl=55 time=16.7 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=10 ttl=55 time=16.8 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=11 ttl=55 time=16.8 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=12 ttl=55 time=16.9 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=13 ttl=55 time=16.9 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=14 ttl=55 time=16.7 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=15 ttl=55 time=16.8 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=16 ttl=55 time=16.9 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=17 ttl=55 time=16.8 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=18 ttl=55 time=16.7 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=19 ttl=55 time=16.8 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=20 ttl=55 time=16.9 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=21 ttl=55 time=17.1 ms
64 bytes from www.computerbase.de (212.83.33.137): icmp_seq=22 ttl=55 time=16.8 ms
^C
--- computerbase.de ping statistics ---
22 packets transmitted, 22 received, 0% packet loss, time 21038ms
rtt min/avg/max/mdev = 16.691/16.801/17.136/0.096 ms

traceroute to computerbase.de (212.83.33.137), 64 hops max
  1   94.16.104.3  0.156ms  0.150ms  0.156ms
  2   94.16.25.76  0.396ms  0.427ms  0.397ms
  3   144.208.208.141  11.165ms  10.737ms  11.044ms
  4   144.208.208.143  10.820ms  11.006ms  11.386ms
  5   144.208.208.210  10.558ms  10.526ms  10.577ms
  6   144.208.208.157  10.854ms  10.518ms  10.853ms
  7   80.249.213.56  38.382ms  16.837ms  17.094ms
  8   62.113.192.74  16.768ms  17.324ms  16.744ms
  9   62.113.192.88  17.006ms  16.810ms  16.954ms

Zugegeben scheint es 2a00:11c0:47:1:47::212 zu sein wo es hängt und das liegt im IP-Block von Anexia
 
Ich möchte mich einmal im Namen der 23M melden. Uns freut es mega, dass die Seite schneller geworden ist und insgesamt der Eindruck durchweg positiv ist. Genau das war unser Ziel! Wir haben einige Mitleser hier bei uns im Unternehmen...

Wir arbeiten stetig daran unsere Infrastruktur und unsere Dienstleistungen zu verbessern. In dem Zuge würde ich euch gerne einladen daran mitzuarbeiten.

Bei Latenz–Problemen ist es immer wichtig, dass wir die Hin– und Rück–Route kennen. Dazu einfach ein Traceroute (wie beschrieben) machen und dann mit der Quell–IP an support@23M.com schicken. Wir kümmern uns dann um Besserung. ☀️
 
  • Gefällt mir
Reaktionen: LukS, konkretor, Piktogramm und 7 andere
Zurück
Oben