Studie: Artikel-Überschriften mit KI-Label senken Vertrauen der Leser

Andreas Frischholz
21 Kommentare
Studie: Artikel-Überschriften mit KI-Label senken Vertrauen der Leser
Bild: markusspiske | gemeinfrei

Nicht nur beim Produkt-Marketing senkt der KI-Hinweis das Vertrauen und damit die Kaufbereitschaft. Auch im Medienbetrieb bewerten Leser eine Schlagzeile als weniger glaubwürdig, wenn die Überschrift ein KI-Label hat.

Von dem Paper von Forschern der Universität Zürich berichtet Decoder. Für die Studie wurden zwei Online-Experimente mit insgesamt 4.976 Teilnehmenden aus den USA sowie dem Vereinigten Königreich durchgeführt.

Bei der ersten Studie in den USA wurden den Teilnehmenden 16 Überschriften in einem Facebook-Format produziert, dargestellt wurde also die Schlagzeile samt Bild. Die Hälfte der Überschriften war echt und stammt aus US-Medien, die andere Hälfte wurde mit ChatGPT generiert. Mit KI-Labels wurden jeweils vier echte und vier generierte Schlagzeilen gekennzeichnet. Der Pool wurde dann den Teilnehmenden, die in mehreren Gruppen unterteilt waren, zur Bewertung vorgelegt.

Bei der zweiten Studie war die Methodik ähnlich wie bei der ersten Studie, nur dass die Teilnehmenden 10 statt 16 Schlagzeilen zu Gesicht bekamen. In diesem Fall ging es explizit um die Frage, ob die Teilnehmenden bereit wären, so einen Inhalt zu teilen.

Schlagzeilen mit KI-Label sind weniger glaubwürdig – selbst wenn diese von Menschen stammen

Wie eingangs beschrieben, lauten die zentralen Erkenntnisse der Studien: Per KI-generierte Schlagzeilen senken das Vertrauen der Leser, der Inhalt wird als weniger genau wahrgenommen. Ebenso sinkt die Bereitschaft, den Inhalt zu teilen. Was bemerkenswert ist: Ob die Schlagzeile nun von KI oder von Menschen stammt, spielt keine Rolle. Entscheidend ist das KI-Label.

Neu sind die Befunde nicht. Bereits früher hatten Forschende entdeckt, dass KI-Labels die Leser eher abschrecken. Auch die Effektstärke, die in den Studien ermittelt wurde, sei vergleichbar.

Allzu groß wären diese Effekte aber nicht. Das gelte insbesondere im Vergleich zu markierten Falschinformationen, die etwa als „manipuliert“ oder „unwahr“ gekennzeichnet sind – diese würden Leser dreimal so negativ bewerten.

KI-Labels würden Leser laut den Autoren damit – ebenso wie Labels wie „Anzeige“ – als Heuristik verwenden, um Inhalte zu bewerten. Komplette Artikel wurden in der Studie zwar nicht geprüft, die Forscher gehen aber davon aus, dass die Bewertungen ähnlich ausfallen würden. So ein Effekt kann sich mit der Zeit ändern. Werden künftig etwa viele KI-Inhalte für Falschmeldungen verwendet, könnten Menschen auf KI-Label nochmals deutlich negativer reagieren.

KI-Inhalte verbreiten sich in Medien und sozialen Netzwerken

KI-Labels verbreitet sich immer mehr – unter anderem, weil Plattform-Betreiber wie Facebook und YouTube diese nutzen. Auch klassische Medien verbreiten Inhalte, die mittels generativer AI-Tools erstellt worden sind, in manchen Fällen gibt es sogar spezielle KI-Feeds, die ausschließlich KI-Inhalte ausspielen.

Teilnehmende der ersten Studie sprechen sich indes mit großer Mehrheit dafür aus, dass Medien transparent im Umgang mit KI sein sollen. In sozialen Netzwerken sollten KI-generierte News und Inhalte ebenso markiert werden wie Falschinformationen.

Studien-Ergebnisse: Bewertung von KI-Inhalten
Studien-Ergebnisse: Bewertung von KI-Inhalten (Bild: PNAS Nexus, Volume 3, Issue 10)

Eine Mehrheit ist zudem (tendenziell) der Ansicht, Nachrichtenmedien sollten keine KI-Inhalte veröffentlichen. Das Vertrauen in akkurate KI-Artikel ist zudem ausgesprochen niedrig. Zudem ist eine Sorge vor Fälschungen erkennbar. Nur gut ein Viertel der Befragten stimmt der Aussage zu, KI-Inhalte von menschlichen Inhalten unterscheiden zu können.

Was sich aber immer mehr abzeichnet: KI-Labels schrecken Menschen ab. So hat bereits eine Studie aus dem Marketing gezeigt, dass der KI-Hinweis in der Produktbeschreibung tendenziell die Kaufabsicht sinken lässt.