Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Fehler behoben: Facebook, WhatsApp und Instagram sind wieder online
- Ersteller SVΞN
- Erstellt am
- Zur News: Fehler behoben: Facebook, WhatsApp und Instagram sind wieder online
Web-Schecki
Lieutenant
- Registriert
- Juni 2010
- Beiträge
- 984
Nein, das ist keine urbane Legende, sondern ein technischer Fakt - wenn bei der Beantwortung der Requests zu Facebook aus Europa irgendwelche Server in den USA beteiligt wären, dann wäre die Latenz so hoch, dass es praktisch unbenutzbar wäre.[wege]mini schrieb:Eine urbane Legende, die von Facebook selber erfunden wurde und existiert, damit der Überwachungswahn des Verrückten auf seinem Zuckerberg, klein geredet werden kann.
Dass Daten unabhängig von einem einzelnen Request in die USA synchronisiert werden, ist völlig unbestritten.
Das ist technisch eine vollkommen andere Frage. Aber ja, die Server könnten auch unabhängig von Kalifornien Requests beantworten. Wahrscheinlich würden nach einiger Zeit Probleme auftauchen, weil intern die Daten nicht synchronisiert werden können wie gewohnt, Queues volllaufen etc. Aber da kann ich als Außenstehender nur spekulieren. Mit Sicherheit wird aber der Ausfall eines einzelnen Rechenzentrums nicht weltweit alles lahmlegen.[wege]mini schrieb:Du darfst aber gerne glauben, dass Facebook in Europa noch funktionieren würde, wenn man in Kalifornien alles abschaltet oder in die Luft sprengt.
Ich habe tatsächlich alle Posts gelesen und ich verstehe es trotzdem nicht. Erleuchte mich. Was für Befehle und Ziele meinst du?Erzherzog schrieb:Wenn du alle Postings lesen würdest wäre es sogar für dich verständlicher...
Das ist erstmal wieder eine Unterstellung, mehr nicht. Kannst du sie auch belegen?Erzherzog schrieb:Er wollte nur davon ablenken das er das mit Kalifornien nicht versteht und das die dort lokal wieder auf die Server müssen.
Seine Argumentation war, dass die Wiederherstellung der Routen weltweit koordiniert geschehen muss, was auch vollkommen nachvollziehbar ist - die Router in Kalifornien bringen uns in Europa erstmal nicht so viel.
Diese Aussage hier war technisch nicht korrekt - womöglich mussten zwar auch Server neugestartet werden, aber das allein hätte nichts gebracht. Aufgrund einzelner Server fällt auch nicht weltweit facebook aus. Der springende Punkt ist: Nur in Kalifornien irgendwas zu reparieren hätte eben auch nichts geholfen, siehe oben. Darauf ist @foo_1337 eingegangen. Nirgendwo hat er behauptet, man müsse nicht auch vor Ort am Problem arbeiten, im Gegenteil.Erzherzog schrieb:dann wurde da echt ein Team hin geschickt um die Server neu zu starten.
Erzherzog schrieb:und bei google kannst du meines Wissens nach das halbe Internet lahm legen und du wirst immer noch auf deine Cloud zu greifen können, da die alles dreifach spiegeln und auf jedem Kontinent unabhängig voneinander erreichbar ist.
Hier vergleichst du technisch absolut unfundiert google mit facebook. Du suggerierst, bei facebook würde nichts georedundant gespiegelt werden, sie wären nicht unabhängig auf den Kontinenten erreichbar und sie hätten nicht mehrere ausfallsicheren Rechenzentren. Kannst du das belegen?Erzherzog schrieb:Soweit ich weiß läuft das tatsächlich alles über Kalifornien, das ist sogar bei google so, nur haben die mehrere ausfallsichere RZ.
Danach ging es los mit der bereits diskutierten Behauptung, bei traceroute würden mehrere Hops in Kalifornien auftauchen und es würde hin und hergehen, was schnell widerlegbarer Blödsinn ist. Damit hast du scheinbar versucht, die unklare Behauptung, alles würde über Kalifornien laufen, zu untermauern.
Ja, organisatorisch läuft sicherlich alles über Kalifornien. Technisch aber nicht. Das Problem bestand nicht nur in Kalifornien, sondern weltweit. Wenn in Kalifornien ein Router ausfällt, dann funktioniert facebook trotzdem, lediglich lokal kann es kurz Probleme geben.
BGP-Fehlkonfiguration, Alptraum jedes Datacenterbetreibers.textract schrieb:Klingt irgendwie als hätte da jemand STP abgeschaltet.
War eigentlich sofort klar.
Ergänzung ()
Informier dich wie BGP funktioniert, da hätte dir auch die IPs nicht weitergeholfen,ReactivateMe347 schrieb:Ist doch schön, wie komfortabel DNS ist. Man stelle sich vor, man würde hardcodierte IPs verwenden
weil zu den IPs keine Routen existieren.
KitKat::new()
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.816
gerade mal Facebook angesurft - bei mir dauern einige Requests durchaus 200-3000ms (ca. 10-20 stück).Web-Schecki schrieb:wenn bei der Beantwortung der Requests zu Facebook aus Europa irgendwelche Server in den USA beteiligt wären, dann wäre die Latenz so hoch, dass es praktisch unbenutzbar wäre.
Andere gehen in 9ms durch.
F
foo_1337
Gast
Und welche sind das? Und von was sprichst du jetzt? TTFB oder die totale Zeit des Requests? Wie groß war, falls es ein GET war die Payload? Hostname dahin? Was sagt ein (tcp)traceroute dahin? Wie gesagt, da schlägt normalerweise* nichts von dir direkt nach USA durch. Das wäre aus Webapp sicht total dämlich, das zu tun.KitKat::new() schrieb:gerade mal Facebook angesurft - bei mir dauern einige Requests durchaus 200-3000ms (ca. 10-20 stück).
Andere gehen in 9ms durch.
Und wie schon oft geschrieben: Natürlich landen deine Daten in den USA. Und nicht nur da Aber eben nicht direkt via deines Clients, sondern schön via Message Queues, Replizierungen etc. Das ganze ist sehr komplex, aber sorgt halt dafür, dass du selbst eine niedrige Latenz hast, da du alles geolokal geserved bekommst.
*Falls hier was ausfällt, ist das natürlich als failback so.
Ergänzung ()
Facebook und viele andere moderne Rechenzentren nutzen längst kein STP mehr. Das wurde durch Leaf & Spine obsolet und das ist auch gut sotextract schrieb:Klingt irgendwie als hätte da jemand STP abgeschaltet.
Mit dem Problem hier hätte das aber ohnehin nichts zu tun, da es ein BGP Problem war. STP ist rein Layer 2 und auf eine Location beschränkt.
Erzherzog
Lt. Commander
- Registriert
- März 2021
- Beiträge
- 1.301
Was genau soll daran "technisch" nicht korrekt sein? Das ist einfach nur eine Aussage. Ich habe nirgends von einer Komplettlösung gesprochen. Du hast surreale Vorstellungen und implizierst ich sei Techniker und hätte das Problem gelöst. Ich habe dagegen nur Medienberichte zitiert, was du gesehen hättest, wenn du es tatsächlich gelesen hättest.Web-Schecki schrieb:Diese Aussage hier war technisch nicht korrekt - womöglich mussten zwar auch Server neugestartet werden, aber das allein hätte nichts gebracht.
Er hat gemeint es ist gar nichts aus Kalifornien. Merkst eigentlich selber das du mir andersrum den gleichen Unsinn unterstellst?Web-Schecki schrieb:Nirgendwo hat er behauptet, man müsse nicht auch vor Ort am Problem arbeiten, im Gegenteil.
Du weist aber schon wie Netzwerke konfiguriert werden wenn die Routen down sind? Das wird natürlich zentral gesteuert und dann ausgerollt. Genauso wie aus Kalifornien die Data Center angesteuert werden.Web-Schecki schrieb:Nein, das ist keine urbane Legende, sondern ein technischer Fakt - wenn bei der Beantwortung der Requests zu Facebook aus Europa irgendwelche Server in den USA beteiligt wären, dann wäre die Latenz so hoch, dass es praktisch unbenutzbar wäre.
Das ist nicht meine Behauptung. Pech für dich. Technisch unfundiert ist höchstens das du nicht verstehst warum ich Facebook und google verglichen habe. Denen ist das nachweislich nicht passiert.Web-Schecki schrieb:Hier vergleichst du technisch absolut unfundiert google mit facebook. Du suggerierst, bei facebook würde nichts georedundant gespiegelt werden, sie wären nicht unabhängig auf den Kontinenten erreichbar und sie hätten nicht mehrere ausfallsicheren Rechenzentren. Kannst du das belegen?
Übrigens, es wird nicht besser wenn du sogar noch offensichtlich darstellst das du gar nicht weist was technisch gestern gemacht wurde. Du weist (vielleicht) was passiert ist, aber was gemacht wurde steht sogar auf bild.de besser erklärt als du das kannst. Und lass es doch hier einfach nur Unterstellungen und persönliche Attacken zu fahren, mehr machst du doch auch nicht. Ich bin nicht dein Admin und wie ich zu meinen Aussagen gekommen bin habe ich mit Quelle belegt.
F
foo_1337
Gast
Ah ja. Wo denn?Erzherzog schrieb:Er hat gemeint es ist gar nichts aus Kalifornien.
Ergänzung ()
Oh je. Auf ein neues. Kann man unkommentiert so stehen lassen, denn es sagt alles aus.Erzherzog schrieb:aber was gemacht wurde steht sogar auf bild.de
KitKat::new()
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.816
Warum wäre es dämlich?foo_1337 schrieb:Und welche sind das? Und von was sprichst du jetzt? TTFB oder die totale Zeit des Requests? Wie groß war, falls es ein GET war die Payload? Hostname dahin? Was sagt ein (tcp)traceroute dahin? Wie gesagt, da schlägt normalerweise* nichts von dir direkt nach USA durch. Das wäre aus Webapp sicht total dämlich, das zu tun.
Nicht alle Daten müssen sofort da sein.
Groesse: wenige kb
TTFB
hosts sind facebook.com (ajax, graphql), scontent-frt3-1.xx.fbcdn.net, content-frx5-1.xx.fbcdn.net, static.xx.fbcdn.net und andere
F
foo_1337
Gast
Liegt alles lokal bzw. in deiner Nähe. Es wäre dämlich, unnötige und langsame Abhängigkeiten zu schaffen, die nicht sein müssen. Schau dir mal an, was Facebook (und andere) für Efforts treiben, damit die Daten eben so schnell wie möglich bei dir sind. Wieso sollte man dann so blöd sein und einzelne Requests über potentiell congested übersee Links jagen, wenn es nicht sein muss?KitKat::new() schrieb:hosts sind facebook.com (ajax, graphql), scontent-frt3-1.xx.fbcdn.net, content-frx5-1.xx.fbcdn.net und andere
Aber vielleicht habe ich da auch einfach eine andere Blickweise, da ich aus einem Bereich komme, bei dem die Kunden dafür bezahlen, dass die Latenz zum Enduser so niedrig wie möglich ist und jegliche erdenkliche Maßnahme dafür getroffen wird
KitKat::new()
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.816
aber mit den Latenzen ist durchaus übersee möglich und unbenutzbar ist FB deswegen wohl nichtfoo_1337 schrieb:Wieso sollte man dann so blöd sein und einzelne Requests über potentiell congested übersee Links jagen, wenn es nicht sein muss?
löst nach Los Angeles aufKitKat::new() schrieb:static.xx.fbcdn.net
Gamefaq
Vice Admiral
- Registriert
- Jan. 2005
- Beiträge
- 7.052
Da sieht man mal wieder was passiert wenn es ein Monopol gibt weil alles einer Firma gehört. Ohne die Konkurrenz von Twitter hätte keiner gewusst was los ist weil eine telefonische Anfrage der Redaktionen nicht möglich ist und die Mail Ein/Ausgangsserver ja auch vom Ausfall betroffen waren.Don_2020 schrieb:Ist alles nicht so Schlimm. Es gibt ein Leben nach Facebook, WhatsApp und Instgramm.
Und das Leben ist schön. Endlich mal wieder analog mit dem Nachbarn klönen.
Passend dazu fällt mir das ein:
cryoman
Banned
- Registriert
- Jan. 2007
- Beiträge
- 586
Hier noch mal von Cloudflare sehr schön erklärt ...... also wer von Fach ist.
Ich bin nicht so der große Netzwerker. 🙈 .... Naja, den Montag gestern, wird Fratzbook jedenfalls nicht so schnell vergessen . . . 😂😂😂 .... nur so viel, es fing nach einem "Update" an . . 😱 😂
Greetz & stay frosty! ^^
Ich bin nicht so der große Netzwerker. 🙈 .... Naja, den Montag gestern, wird Fratzbook jedenfalls nicht so schnell vergessen . . . 😂😂😂 .... nur so viel, es fing nach einem "Update" an . . 😱 😂
Understanding How Facebook Disappeared from the Internet
https://blog.cloudflare.com/october-2021-facebook-outage/Greetz & stay frosty! ^^
F
foo_1337
Gast
Nope. Es ist ein CNAME auf scontent.xx.fbcdn.net. Und der löst hier (DTAG, aber eigener resolver) auf 185.60.216.19 auf: Latenz:KitKat::new() schrieb:static.xx.fbcdn.net
löst nach Los Angeles auf
% ping 185.60.216.19
PING 185.60.216.19 (185.60.216.19): 56 data bytes
64 bytes from 185.60.216.19: icmp_seq=0 ttl=56 time=5.859 ms
64 bytes from 185.60.216.19: icmp_seq=1 ttl=56 time=6.029 ms
-> Lokal.
Nutze ich den Cloudflare DNS, welcher geolocation nicht so recht kann, zeigt der A Record auf 31.13.92.14. Und auch das:
% ping 31.13.92.14
PING 31.13.92.14 (31.13.92.14): 56 data bytes
64 bytes from 31.13.92.14: icmp_seq=0 ttl=56 time=6.573 ms
64 bytes from 31.13.92.14: icmp_seq=1 ttl=56 time=7.118 ms
Nehmen wir noch nen anderen ISP aus D:
$ host static.xx.fbcdn.net
static.xx.fbcdn.net is an alias for scontent.xx.fbcdn.net.
scontent.xx.fbcdn.net has address 157.240.20.19
scontent.xx.fbcdn.net has IPv6 address 2a03:2880:f01c:8012:face:b00c:0:3
$ ping 157.240.20.19
PING 157.240.20.19 (157.240.20.19) 56(84) bytes of data.
64 bytes from 157.240.20.19: icmp_seq=1 ttl=252 time=1.38 ms
64 bytes from 157.240.20.19: icmp_seq=2 ttl=252 time=1.39 ms
Und auch von der DTAG via v6:
16 bytes from 2a03:2880:f02d:12:face:b00c:0:3, icmp_seq=0 hlim=56 time=6.765 ms
16 bytes from 2a03:2880:f02d:12:face:b00c:0:3, icmp_seq=1 hlim=56 time=6.137 ms
16 bytes from 2a03:2880:f02d:12:face:b00c:0:3, icmp_seq=2 hlim=56 time=6.283 ms
Natürlich ist es nicht unbenutzbar. Aber man will ja die Experience so gut wie möglich machen. Wenn es danach ginge, bräuchten wir ja keine globalen CDN. Und ich wäre arbeitslos. Und das würde wohl wirklich niemand wollen, denn sonst würde ich noch öfter hier rumhängen und dumme Kommentare schreibenKitKat::new() schrieb:aber mit den Latenzen ist durchaus übersee möglich und unbenutzbar ist FB deswegen wohl nicht
Ergänzung ()
Wenn du Fragen hast - feel free!cryoman schrieb:Ich bin nicht so der große Netzwerker. 🙈
Top Erklärung. CDN ist bei so Mega-Diensten manchmal auch noch ein Thema, aber ich denke, das meinst du mit etc.foo_1337 schrieb:Und welche sind das? Und von was sprichst du jetzt? TTFB oder die totale Zeit des Requests? Wie groß war, falls es ein GET war die Payload? Hostname dahin? Was sagt ein (tcp)traceroute dahin? Wie gesagt, da schlägt normalerweise* nichts von dir direkt nach USA durch. Das wäre aus Webapp sicht total dämlich, das zu tun.
Und wie schon oft geschrieben: Natürlich landen deine Daten in den USA. Und nicht nur da Aber eben nicht direkt via deines Clients, sondern schön via Message Queues, Replizierungen etc. Das ganze ist sehr komplex, aber sorgt halt dafür, dass du selbst eine niedrige Latenz hast, da du alles geolokal geserved bekommst.
*Falls hier was ausfällt, ist das natürlich als failback so.
Salamimander
Commodore
- Registriert
- Okt. 2019
- Beiträge
- 4.211
DNS Geolocation war mein größtes Problem beim einrichten des Hyperlocal, konnte es aber final lösen. (Betraf netflix sowie IPv6.. Wurde mit unbound als hyperlocal unbenutzbar)
Edit: Falls auch mal wer darüber stolpert:
Das ist alles.. Kleine Änderung, großer Erfolg
Edit: Falls auch mal wer darüber stolpert:
module-config: "subnetcache validator iterator"
#ECS Support
client-subnet-zone: "."
client-subnet-always-forward: yes
send-client-subnet: 0.0.0.0/0
send-client-subnet: ::0/64
Das ist alles.. Kleine Änderung, großer Erfolg
Web-Schecki
Lieutenant
- Registriert
- Juni 2010
- Beiträge
- 984
Ein Serverneustart behebt das grundlegende Problem nicht. Umgekehrt, wenn das grundlegende Problem behoben ist, dann kann man die Server, bei denen das nötig ist, auch wieder aus der Ferne neustarten.Erzherzog schrieb:Was genau soll daran "technisch" nicht korrekt sein?
Wenn die Bild es so darstellt, als sei ein Serverneustart vor Ort nötig gewesen, um das grundlegende Problem zu beheben, dann ist das nunmal nicht korrekt.Erzherzog schrieb:Ich habe dagegen nur Medienberichte zitiert
Dass du diesen Bild-Blödsinn zitierst und andere als naiv bezeichnest - genau mein Humor...
Was hat das damit zutun, dass Requests lokal beantwortet werden und nicht aus Kalifornien?Erzherzog schrieb:Du weist aber schon wie Netzwerke konfiguriert werden wenn die Routen down sind? Das wird natürlich zentral gesteuert und dann ausgerollt. Genauso wie aus Kalifornien die Data Center angesteuert werden.
Du hast Recht, mit asynchronen Requests etc. könnte man da sicher hohe Latenzen zum Teil auch ganz gut verbergen, aber es wird im Normalfall trotzdem nicht gemacht, weil es ineffizient und teuer wäre und ab einer gewissen Nutzerzahl auch nicht mehr funktioniert. Alle genannten Adressen erreiche ich übrigens in 13ms, also da ist auch (bei mir) nichts in Kalifornien involviert.KitKat::new() schrieb:
KitKat::new()
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.816
hab einen IP locator genutzt - weniger zuverlässig als man denktfoo_1337 schrieb:-> Lokal.
https://tools.keycdn.com/geo?host=2a03:2880:f0ff:c:face:b00c:0:3
F
foo_1337
Gast
Naja, das ist aber leicht erklärbar: BGP Anycast. Die selbe IP kann mittlerweile weltweit eingesetzt werden. Das Target ist aber jeweils ein anderes. Kannst du mit der genannten IP sehr gut mit diversen Looking Glass auf der Welt nachvollziehen. Prominente Beispiele sind hierfür z.B. auch die Resolver 8.8.8.8 oder 1.1.1.1, die weltweit die selbe IP haben aber hunderte verschiedene Nodes antworten werden.KitKat::new() schrieb:hab einen IP locator genutzt - weniger zuverlässig als man denkt
https://tools.keycdn.com/geo?host=2a03:2880:f0ff:c:face:b00c:0:3
Keycdn benutzt halt hier lediglich die ARIN informationen, was in solchen Fällen nicht hilfreich ist.
Meinetwegen auch das. Was die Verbreitung angeht braucht es einfach einen großen Vorreiter wie Google der damit anfängt und vorlegt wie so etwas aussehen kann. Beziehungsweise doch erst noch mal einen großen Branchenverband der sich auf ein gemeinsames Standard-Protokoll einigt und dieses zusammen voran treibt.KitKat::new() schrieb:Dafür gibts Alternativen, die ähnlich funktionieren: Matrix (eher neuer) und XMPP (wurde früher viel benutzt).
Nachteil: Verbreitung
Ähnliche Themen
- Antworten
- 40
- Aufrufe
- 3.080
- Antworten
- 120
- Aufrufe
- 22.656