Deepfakes in der US-Wahl: Midjourney will Trump und Biden aus dem Bildgenerator verbannen
Die Entwickler der generativen AI-Tools bereiten sich auf den amerikanischen Präsidentschaftswahlkampf vor. Aus Sorge vor Deepfakes erwägt Midjourney, politische Bilder für ein Jahr einzuschränken. Explizit würde das für Inhalte mit Donald Trump und Joe Biden gelten.
Das verkündete Midjourneys CEO David Holz laut einem Bericht von Bloomberg während einer Chat-Sitzung auf Discord. Es ist Teil des Versuchs, sich aus dem Wahlkampf möglichst herauszuhalten. Man will nicht so dastehen wie Facebook bei der Fake-News-Debatte rund um die US-Präsidentschaftswahl 2016.
Blockade für zwölf Monate
Den Aussagen von Holz zufolge stehe Midjourney kurz davor, Bilder von Biden und Trump für die kommenden zwölf Monate zu sperren. Der Bildgenerator gilt als einer der leistungsfähigsten auf dem Markt. „Ich weiß, dass es Spaß macht, Trump-Bilder zu machen – ich mache selbst Trump-Bilder“, so Holz. Aber wahrscheinlich sei es besser, sich während der Wahl zurückzuziehen.
Wann es soweit es, verkündete er nicht. Laut dem Bloomberg-Bericht könnte die Blockade aber plötzlich erfolgen. Midjourney würde auf diese Weise die Liste der unerwünschten Inhalte erweitern, die automatisch blockiert werden. Den Community-Standards nach sind ohnehin Inhalte verboten, die respektlos und schädlich sind sowie irreführende Darstellungen von öffentlichen Personen oder Ereignissen zeigen.
Deepfakes als Risiko im Wahlkampf
Mit dem Beginn der Vorwahlen startet die amerikanische Präsidentschaftswahl in die heiße Phase. Es wird aber damit gerechnet, dass Ex-Präsident Trump erneut gegen den Amtsinhaber Biden antritt. Dementsprechend stehen beide auch im Fokus beim Kampf gegen Desinformation und Deepfakes.
So wurde Midjourney bereits im März 2023 verwendet, um Fake-Bilder von Trump zu erstellen. Diese zeigten etwa, wie er verhaftet wird oder einen Protest anführt. Midjourney stoppte in der Folge den freien Zugang zu dem Bildgenerator, Nutzer müssen seitdem ein Abonnement abschließen.
Auf die Wahl bereiten sich auch die anderen KI-Entwickler vor. Schutz vor Desinformation und Deepfakes ist auch Teil der freiwilligen Selbstverpflichtung, auf die sich die Unternehmen im Sommer 2023 mit der US-Administration verständigt haben. Sowohl Adobe als auch OpenAI, Microsoft, Meta und Google statten ihre Bildgeneratoren etwa mit einem Wasserzeichen-System aus. Somit soll sich immer prüfen lassen, ob es sich um authentische Aufnahmen oder KI-Inhalte handelt.
Blockaden als Notlösung
Dass die Bildgenerierung bei bestimmten Persönlichkeiten blockiert wird, ist der nächste Schritt nach den Wasserzeichen. Hany Faid, Experte für digitale Forensik und Professor an der University of California in Berkeley, bezeichnet so einen Versuch dennoch als Notlösung. „Man sollte nicht glauben, ein Verbot der Bilder von Biden und Trump in Midjourney würde das viel, viel größere Probleme mit der politischen Desinformation lösen“, so Faid zu Bloomberg. Hinzu komme: Nutzer würden immer Wege finden, wie sich Sicherheitsmechanismen umgehen lassen.
Das merkte zuletzt auch Microsoft. Über das Microsoft-365-Tool Designer wurden die Fake-Nacktbilder von Taylor Swift generiert, die zeitweise mit großer Reichweite auf X (ehemals Twitter) kursierten. Microsoft versuchte, die entsprechenden Prompt-Eingaben zu sperren, benötigte aber auch mehrere Anläufe.