[Sammelthread] Peering verschiedener ISP's, Diskussion

0-8-15 User schrieb:
ob ich damit wirklich besser fahre als mit dem CPX11 wird sich noch zeigen.
EIn Erfahrungsbericht waere toll. Ich bin auf der Suche nach einem gut vernetzen Hoster fuer einen NTP-Server (hohe NTP Last, sonst keine Dienste) ideal wäre ein Hoster mit PTP zur lokalen Zeitverteilung und guter eigener Zeitquelle, aber das ist Kuer.
Ergänzung ()

pufferueberlauf schrieb:
(bei 1&1 bin ich nicht sicher)
Laut @T1984 (https://www.computerbase.de/forum/threads/telekom-ftth-ausbau-ab-2021-thread.2061028/post-26640150) ist 1&1 a) mit als FTTH-Reseller an Board, b) scheint es da jetzt loszugehen.
 
Zuletzt bearbeitet von einem Moderator:
Latenz zum vServer:
Code:
                  Min    Mean  Median     Max  Stddev
                  ---    ----  ------     ---  ------
          RTT  8.36ms  8.85ms  8.84ms  9.88ms   284µs
   send delay  4.11ms  4.72ms  4.66ms  5.86ms   278µs
receive delay  3.91ms  4.13ms  4.09ms  4.87ms   147µs
                                                           
IPDV (jitter)  2.45µs   290µs   230µs  1.04ms   248µs
    send IPDV   578ns   282µs   209µs  1.32ms   278µs
 receive IPDV   191ns   127µs  85.3µs   848µs   137µs
Native:
Code:
--- fra.speedtest.clouvider.net ping statistics ---
rtt min/avg/max/mdev = 7.994/26.879/66.126/22.446 ms
====================================================
--- computerbase.de ping statistics ---
rtt min/avg/max/mdev = 7.245/7.694/8.662/0.388 ms
====================================================
--- heise.de ping statistics ---
rtt min/avg/max/mdev = 7.794/8.053/8.946/0.338 ms
====================================================
--- 1.1.1.1 ping statistics ---
rtt min/avg/max/mdev = 7.965/8.320/8.909/0.380 ms
====================================================
--- 8.8.8.8 ping statistics ---
rtt min/avg/max/mdev = 7.511/7.795/9.056/0.459 ms
Mit Umleitung über den vServer:
Code:
--- fra.speedtest.clouvider.net ping statistics ---
rtt min/avg/max/mdev = 9.090/9.634/10.665/0.419 ms
====================================================
--- computerbase.de ping statistics ---
rtt min/avg/max/mdev = 9.377/9.668/9.912/0.177 ms
====================================================
--- heise.de ping statistics ---
rtt min/avg/max/mdev = 9.662/9.930/10.239/0.209 ms
====================================================
--- 1.1.1.1 ping statistics ---
rtt min/avg/max/mdev = 9.347/9.973/11.036/0.493 ms
====================================================
--- 8.8.8.8 ping statistics ---
rtt min/avg/max/mdev = 9.168/9.461/9.800/0.192 ms
 
Die Diskussion zu 1&1als FTTH-Reseller findet hier und hier statt. Vielleicht konzentrieren wir diese Diskussion besser auf einen dieser Threads?
 
Ja irgendwie scheinen aktuell mehrere parallel Threads zu existieren. Der hier z.B. auch ^^

Btt. würde es mich eigentlich mal interessieren ob jemand von euch hier bei nem ISP arbeitet, bei dem Wissen über Peering, transit und BGP :)
 
Mit Hilfe von peering DB und den einen oder anderen looking Glass Tools kann man zumindest im Ansatz schon relativ viel selbst heraus arbeiten.
Nur wenn's halt darum geht heraus zu finden mit welchen link Kapazitäten gearbeitet wird, is schnell Ende da die ja normalerweise nicht veröffentlicht werden. Die einzigen, die da mit offenen Karten spielen sind hetzner soweit ich weiss. Die haben alle ihre PNIs auf deren Seite in ner Tabelle stehen. Mit Vodafone haben sie z.b nen 100g PNI
 
@floh667, wobei man das natürlich auch ins Verhältnis zur Kundenanzahl und deren Nutzungsverhalten setzen muss, was aber nicht heißen soll, dass ich den leisesten Zweifel daran hätte, dass sie die Übergaben nicht rechtzeitig aufbohren.
Anilman schrieb:
Sollte ich mal glasfaser von der telekom bekommen.
Je schneller die Internetleitung ist, umso schwieriger wird es, das Tempo trotz Umleitung zu halten.
 
Zuletzt bearbeitet:
0-8-15 User schrieb:
@floh667, wobei man das natürlich auch ins Verhältnis zur Kundenanzahl und deren Nutzungsverhalten setzen muss, was aber nicht heißen soll, dass ich den leisesten Zweifel daran hätte, dass sie die Übergaben nicht rechtzeitig aufbohren.
Wäre schonmal interessant zu wissen, wie es dazu kommt dass die tkom einen 400g Link zu hetzner hat und Vodafone "nur" 200g. Denn mittlerweile dürfte Vodafone ja auch einen großen Kundenstamm haben, oder sind so viele tkom Anschlüsse mehr bei hetzner unterwegs?
 
@floh667 denke das sind so Dinge, die mit der Zeit kommen. Man fängt mit einem 100G Link (oder zwei als LACP) an und sobald das Interface nem Großteil der Zeit voll läuft, upgradet man.
Zudem ist das ja nur das direkte Peering der beidem ASn ist. Viele Wege führen nach Rom und abgesehn von den FullTables die von den Transit Partnern kommen sind beide ja auch an allen möglichen IX vertreten.

Was ist eigentlich Core-Backbone für ein Upstreampartner. Noch nie gehört
 
Früher hat man Loopback Peering verwendet, um Ausfallsicherheit und Loadbalancing über mehrere Links sicherzustellen. Das wird heute eigentlich kaum noch verwendet. LACP Bündel sind je nach Vendor meist bei 64 Links begrenzt. Man könnte aber mittels Loopback Peering LACP Bündel zusammenbringen. Grundsätzlich wird heute meist von vornherein Singlelink LACP konfiguriert, um von Beginn an flexibel zu sein.
Für viele ist das allerdings zu kostspielig, weil man beim Loopback Peering immer gleich um zwei Links erweitert. (EDIT: Wenn man es mit LACP kombiniert)
Core-Backbone gibt es schon lange und ist in dem Bereich kein unbekannter Carrier, dem man auch auf allen gängigen Communities wie den RIPE Meetings begegnet. Für den Endverbraucher sind sie halt eher im Hintergrund. So wie Telehausbetreiber oder z.B. CDNs wie Akamai sind das Namen die man eher weniger kennt, wenn man wenig damit zu tun hat.
 
Zuletzt bearbeitet:
floh667 schrieb:
Wäre schonmal interessant zu wissen, wie es dazu kommt dass die tkom einen 400g Link zu hetzner hat und Vodafone "nur" 200g. Denn mittlerweile dürfte Vodafone ja auch einen großen Kundenstamm haben, oder sind so viele tkom Anschlüsse mehr bei hetzner unterwegs?
Weil Hetzner nur über diesen Link Kunden der Telekom adäquat erreichen kann. Mit den anderen T1 Carriern erreicht man die Telekom nur schwer.
 
Nativ via DTAG [AS3320]:
dtag_monitoring.png

flent_nativ.png

Code:
wget -O /dev/zero https://lg-fra.fdcservers.net/100MBtest.zip

/dev/zero 100%[============================>] 100.00M 1.94MB/s    in 54s   

2022-02-28 15:51:40 (1.86 MB/s) - ‘/dev/zero’ saved [104857600/104857600]
Code:
iperf3 -c fra.speedtest.clouvider.net -R
Connecting to host fra.speedtest.clouvider.net, port 5201
Reverse mode, remote host fra.speedtest.clouvider.net is sending
[  5] local 192.168.20.10 port 34810 connected to 91.199.118.184 port 5201
[ ID] Interval           Transfer     Bitrate
[  5]   0.00-1.00   sec  1.65 MBytes  13.8 Mbits/sec                
[  5]   1.00-2.00   sec  3.61 MBytes  30.3 Mbits/sec                
[  5]   2.00-3.00   sec  2.02 MBytes  17.0 Mbits/sec                
[  5]   3.00-4.00   sec  3.56 MBytes  29.9 Mbits/sec                
[  5]   4.00-5.00   sec  4.74 MBytes  39.8 Mbits/sec                
[  5]   5.00-6.00   sec  2.98 MBytes  25.0 Mbits/sec                
[  5]   6.00-7.00   sec  2.22 MBytes  18.6 Mbits/sec                
[  5]   7.00-8.00   sec  1.11 MBytes  9.32 Mbits/sec                
[  5]   8.00-9.00   sec  1.80 MBytes  15.1 Mbits/sec                
[  5]   9.00-10.00  sec  1.72 MBytes  14.4 Mbits/sec                
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec  25.8 MBytes  21.7 Mbits/sec   77             sender
[  5]   0.00-10.00  sec  25.4 MBytes  21.3 Mbits/sec                  receiver

WireGuard via St Hosting [AS48314]:
vpn_sth_monitoring.png

flent_sth.png

Code:
wget -O /dev/zero https://lg-fra.fdcservers.net/1GBtest.zip

/dev/zero 100%[============================>]   1.00G  19.8MB/s    in 47s   

2022-02-28 15:52:41 (21.9 MB/s) - ‘/dev/zero’ saved [1073741824/1073741824]
Code:
iperf3 -c fra.speedtest.clouvider.net -R
Connecting to host fra.speedtest.clouvider.net, port 5201
Reverse mode, remote host fra.speedtest.clouvider.net is sending
[  5] local 192.168.20.10 port 42050 connected to 91.199.118.184 port 5201
[ ID] Interval           Transfer     Bitrate
[  5]   0.00-1.00   sec  24.0 MBytes   201 Mbits/sec                
[  5]   1.00-2.00   sec  26.5 MBytes   222 Mbits/sec                
[  5]   2.00-3.00   sec  21.1 MBytes   177 Mbits/sec                
[  5]   3.00-4.00   sec  17.3 MBytes   145 Mbits/sec                
[  5]   4.00-5.00   sec  20.3 MBytes   170 Mbits/sec                
[  5]   5.00-6.00   sec  24.2 MBytes   203 Mbits/sec                
[  5]   6.00-7.00   sec  26.9 MBytes   226 Mbits/sec                
[  5]   7.00-8.00   sec  26.2 MBytes   220 Mbits/sec                
[  5]   8.00-9.00   sec  25.4 MBytes   213 Mbits/sec                
[  5]   9.00-10.00  sec  27.8 MBytes   234 Mbits/sec                
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec   242 MBytes   203 Mbits/sec  100             sender
[  5]   0.00-10.00  sec   240 MBytes   201 Mbits/sec                  receiver

WireGuard via Hetzner (CPX11) [AS24940]:
vpn_htz_monitoring.png

flent_htz.png

Code:
wget -O /dev/zero https://lg-fra.fdcservers.net/1GBtest.zip

/dev/zero  100%[============================>]   1.00G  28.5MB/s    in 40s   

2022-02-28 15:53:37 (25.3 MB/s) - ‘/dev/zero’ saved [1073741824/1073741824]
Code:
iperf3 -c fra.speedtest.clouvider.net -R
Connecting to host fra.speedtest.clouvider.net, port 5201
Reverse mode, remote host fra.speedtest.clouvider.net is sending
[  5] local 192.168.20.10 port 56888 connected to 91.199.118.184 port 5201
[ ID] Interval           Transfer     Bitrate
[  5]   0.00-1.00   sec  23.7 MBytes   198 Mbits/sec                
[  5]   1.00-2.00   sec  26.7 MBytes   224 Mbits/sec                
[  5]   2.00-3.00   sec  27.2 MBytes   228 Mbits/sec                
[  5]   3.00-4.00   sec  28.4 MBytes   238 Mbits/sec                
[  5]   4.00-5.00   sec  28.7 MBytes   241 Mbits/sec                
[  5]   5.00-6.00   sec  28.8 MBytes   242 Mbits/sec                
[  5]   6.00-7.00   sec  28.8 MBytes   242 Mbits/sec                
[  5]   7.00-8.00   sec  28.9 MBytes   242 Mbits/sec                
[  5]   8.00-9.00   sec  28.9 MBytes   243 Mbits/sec                
[  5]   9.00-10.00  sec  29.0 MBytes   243 Mbits/sec                
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec   281 MBytes   236 Mbits/sec    8             sender
[  5]   0.00-10.00  sec   279 MBytes   234 Mbits/sec                  receiver
 
Zuletzt bearbeitet:
Besten Dank! Hetzner sieht da ziemlich attraktiv aus. Muss ich wohl mal in Angriff nehmen....
 
Die Kombination aus Cloud CLI und der stundenbasierten Abrechnung macht Hetzner noch attraktiver.

Was die Netzwerkperformance von der ST Hosting (SSD KVM) Instanz angeht, werde ich wohl mal beim technischen Support nachfragen, ob sich für die doch recht häufigen Einbrüche in Uploadrichtung eine Lösung finden lässt. Wäre schade, wenn nicht, denn ich hab mich mit einem Sonderangebot locken lassen. 😊
 
Der Latenzvergleich in #115 war nicht ganz fair, da die Gegenstelle einmal Cloudflare und einmal Quad9 war, deshalb hier das gleiche noch mal, aber diesmal in jeweils mit einem Google DNS Server als Gegenstelle:
latency_monitoring_rtt.png

latency_monitoring_rtt_std.png
 
Zurück
Oben