Bundestagswahl 2017: Facebook sperrt Zehntausende Fake-Konten
Um die Verbreitung von Fake News schon im Vorfeld der Bundestagswahl 2017 zu erschweren, hat Facebook in Deutschland Zehntausende gefälschter Konten gesperrt. Das Vorgehen ist Teil des Maßnahmenpakets, das den Wahlkampf in dem sozialen Netzwerk vor Manipulationen schützen soll.
Vor Manipulationen schützen
Erkannt wurden die gefälschten Konten mittels der Analyse von Aktivitätsmustern. Die Inhalte als solches werten die Systeme nicht aus. Stattdessen schlagen Facebooks Algorithmen an, wenn etwa identische Inhalte wiederholt gepostet werden oder eine erhöhte Zahl an Nachrichten verschickt wird.
Ohnehin sollen die Systeme in den letzten Monaten generell Fortschritte gemacht haben, verkündet Facebook. Das ermögliche es nun, die Verbreitung von Inhalten zu reduzieren, die nicht als authentisch eingestuft werden. Dazu zählen Spam, Falschinformationen oder andere irreführende Inhalte, wie sie häufig von Personen verbreitet werden, die gefälschte Accounts betreiben.
Von den gesperrten Fake-Konten abgesehen kooperierte Facebook in den letzten Monaten intensiver mit Behörden wie dem Bundesamt für Sicherheit in der Informationstechnik (BSI). Hierbei geht es um Sicherheitsthemen wie der Authentifizierung von Konten. Außerdem habe man Parteien und Kandidaten sensibilisiert, etwa durch den Verweis auf eine Zwei-Faktor-Authentifizierung, um den Zugang zu den Nutzerkonten abzusichern.
Lehren aus dem amerikanischen Präsidentschaftswahlkampf
Die Maßnahmen entsprechen dem Vorgehen bei den letzten Wahlen in Frankreich und Großbritannien. Und sind grundsätzlich die Lehren aus dem amerikanischen Präsidentschaftswahlkampf, die Facebook nun umsetzt. Details zu den Desinformationskampagnen nannte das soziale Netzwerk in einer Analyse, die im April veröffentlicht wurde.
Dort wurden zunächst verschiedene Spielarten von gefälschten oder irreführenden Informationen beschrieben, die Fake-Konten verbreiten. Ein entscheidender Punkt ist allerdings: Kontrolliert werden solche Konten demnach nicht von Bots, sondern von echten Menschen. Das Ziel bleibt aber dasselbe: Sie sollen den Eindruck von öffentlichen Diskursen in dem sozialen Netzwerk verzerren.
Weitere Maßnahmen im Kampf gegen Fake News
Weitere Maßnahmen im Kampf gegen Fake News hat Facebook bereits in den letzten Monaten präsentiert. Dazu zählen etwa die Related Articles („verwandte Themen“), die als subtile Alternative zu den Fake-News-Warnhinweisen verwendet werden sollen. Bei Artikeln mit falschen Informationen erhalten Nutzer damit etwa auf dem ersten Blick eine Richtigstellung unter dem entsprechenden Beitrag.
Mittels maschinellen Lernens trainiert Facebook zudem den News-Feed-Algorithmus, um Webseiten im Ranking abzustufen, die Inhalte mit niedriger Qualität verbreiten. Außerdem geht man gegen Clickbait-Anbieter vor und hat zudem das missbräuchliche Abändern von Überschriften und Links erschwert.