Fake News: Facebook schafft „Umstritten“-Label wieder ab
Um die Verbreitung von Fake News auf Facebook einzudämmen, hatte das soziale Netzwerk Anfang des Jahres die Warnhinweise eingeführt. Bewährt hat sich das Konzept aber offenbar nicht, Facebook verkündete das Ende für das sogenannte „Umstritten“-Label.
Beendet ist Facebooks Kampf gegen Fake News damit nicht, lediglich der Schwerpunkt verlagert sich. „Wir werden das Umstritten-Label nicht mehr verwenden, um falsche Nachrichten zu identifizieren. Stattdessen setzen wir auf die verwandten Artikel, um Nutzern mehr Kontext zu einer Geschichte zu liefern“, schreibt Facebooks Produkt-Managerin Tessa Lyons in einem Blogbeitrag. Dass Facebook die verwandten Themen („Related Articles“) als geeigneteres Mittel einstuft, hat sich bereits im Verlauf des Jahres abgezeichnet.
Verwandte Themen sind effektiver als Warnhinweise
Die Warnhinweise für Artikel mit falschen oder irreführenden Informationen waren eine der ersten Maßnahmen, die Facebook nach der amerikanischen Präsidentschaftswahl im November 2016 eingeführt hatte. Insbesondere in den ersten Monaten nach der Wahl wurde das soziale Netzwerk für den Umgang mit Fake News massiv kritisiert. Um das Problem in den Griff zu bekommen, lautete daher der Ansatz: Wenn Nutzer oder der Algorithmus fragwürdige Inhalte meldeten, sollten diese von Fact-Checkern überprüft werden. Kamen diese ebenfalls zu dem Schluss, dass der Artikel falsche oder irreführende Informationen enthält, folgte der Warnhinweis.
Untersuchungen, so Lyons, hätten allerdings gezeigt, dass ein Umstritten-Label die Nutzer nicht abschreckte. Vielmehr hätten Artikel mit einem solchen Hinweis eher mehr Aufmerksamkeit erhalten – also das Gegenteil von dem, was man eigentlich erreichen wollte. Besser geeignet wären indes die verwandten Themen, die Nutzern auf den ersten Blick zusätzliche Informationen liefern.
Das lasse sich auch in Zahlen bemessen. Im Vergleich zu dem Umstritten-Label führen die verwandten Themen dazu, dass Fake News seltener geteilt werden.
Newsfeed-Ranking als Hebel
Bewährt haben sich zudem noch weitere Methoden: Indem der Newsfeed-Algorithmus Artikel herabstuft, die Fact-Checker als falsch identifiziert haben, würden die Zugriffe in der Regel um 80 Prozent zurückgehen. Damit wolle Facebook insbesondere das Geschäftsmodell von Spamern zerstören, die falsche Artikel mit „klickträchtigen“ Überschriften verbreiten, um über die Zugriffe Werbeeinnahmen zu generieren.
Am Newsfeed-Algorithmus hat Facebook ohnehin schon geschraubt. Mittels maschinellem Lernen soll dieser dahingehend trainiert werden, Fake News eigenständig zu erkennen und Webseiten im Ranking abzustufen, die falsche oder irreführende Inhalte verbreiten. Ausgewertet werden dafür verschiedene Signale. Ein Hinweis ist etwa, dass ein Artikel zwar häufig gelesen, aber nur selten geteilt wird.
Wie sich die Verbreitung von Fake News eindämmen lässt, steht bei Facebook auch im kommenden Jahr auf der Agenda. Dafür will man die Erkenntnisse aus den aktuellen Maßnahmen auswerten. Entscheidend sei zu verstehen, wie „die Nutzer entscheiden, was falsch ist und was nicht“, so Lyons.