US-Präsidentschaftswahlkampf: OpenAI will ChatGPT und Dall-E 3 vor Wahlen in 2024 absichern
2024 ist ein wichtiges Wahljahr, vor allem der amerikanische Präsidentschaftswahlkampf wirft seine Schatten voraus. Desinformation gilt als eines der großen Risiken im Vorfeld, diese könnte vor allem mit Inhalten geschehen, die mittels AI-Systemen generiert werden. OpenAI kündigt nun Sicherheitsmaßnahmen an.
Was auf diese Weise verhindert oder zumindest erschwert werden soll, ist das Erstellen von irreführenden Deepfakes, das (massenhafte) Verbreiten von falschen bis irreführenden Informationen sowie das Entwickeln von Chatbots, die sich als Kandidat ausgeben. Insgesamt umfasst OpenAIs Strategie drei Ansätze:
- Missbrauch verhindern
- Transparenz schaffen, indem man AI-Inhalte entdecken kann
- Zugang zu akkuraten Wahlinformationen
Ein Aspekt in Wahlkampagnen ist die personalisierte Ansprache von bestimmten Bevölkerungsgruppen oder Personen. OpenAI schreibt in der Mitteilung, man erforsche immer noch, wie effektiv die AI-Tools bei dieser Kommunikation sein können. Solange kein gesicherter Informationsstand existiert, ist es daher Parteien und Gruppierungen untersagt, spezielle Anwendungen für Kampagnen und Lobby-Arbeit zu entwickeln.
Demnach dürften Parteien also etwa keine der individuell anpassbaren GPT-Modelle für den Wahlkampf entwickeln. Verstöße bei den GPTs können Nutzer an OpenAI melden.
Die AI-Modelle dürfen zudem nicht verwendet werden, um Chatbots zu erstellen, die sich als Person oder Institution ausgeben. Nutzer sollen immer wissen, ob sie sich mit echten Menschen oder einem AI-System austauschen. Ebenso wenig dürfen Anwendungen entwickelt werden, die Menschen davon abhalten, sich an Wahlen zu beteiligen – sei es durch Falschinformationen, sei es durch Aussagen wie, die Stimmabgabe wäre sinnlos.
Wasserzeichen für Dall-E 3
Transparenz um AI-generierte Inhalte ist ein weiteres der Schlagworte, im Kern verweist OpenAI aber nur auf das Wasserzeichen-System in Dall-E 3, das bereits 2023 implementiert wurde. Werden Bilder mit dem Generator erstellt, können diese zugeordnet werden.
Wesentlicher schwerer wird es zudem bei Text-Inhalten, die mittels ChatGPT generiert werden. Diese sind kaum treffsicher zu identifizieren. Ein Detection Tool, das OpenAI im Juli 2023 veröffentlicht hatte, wurde bereits im Sommer 2023 eingestellt. Es war nicht präzise genug.
Innerhalb von ChatGPT sollen die Informationen aber zuverlässiger werden – trotz der Tendenz zum Halluzinieren, also dem Erfinden von Fakten. OpenAI will das erreichen, indem man die Quellenlage verbessert. Das erfolgt durch einen Echtzeit-Zugang zu Nachrichten, ein entsprechendes Abkommen hat das Unternehmen bereits mit Axel Springer abgeschlossen, weitere Gespräche laufen. Zudem soll immer klar sein, wo die Informationen herstammen, die ChatGPT darstellt.
Alle AI-Entwickler arbeiten an Sicherheitsmechanismen
Diese Vorgaben beziehen sich nicht nur auf die USA. Wichtige Wahlen finden auch in Indien und Südafrika statt.
Schutz vor Desinformation ist ein Punkt, den alle führenden AI-Entwickler verfolgen. Eine entsprechende Selbstverpflichtung besteht seit letztem Sommer mit der US-Administration. Zu den beteiligten Unternehme zählen neben OpenAI und Microsoft auch etwa Amazon, Anthropic, Google und Meta. Wasserzeichensysteme, um AI-generierte Bilder zu erkennen, bieten etwa auch Google und Adobe.
Neben OpenAI versucht auch Google, die Systeme abzusichern. So kündigte man im Dezember an, die Auswahl an Fragen zur Wahl zu begrenzen, die der generative AI-Chatbot Bard beantworten kann. Restriktionen existieren auch bei Meta.
Wie anfällig die Systeme sind, verdeutlichte Microsofts Copilot, der ebenfalls auf der Technologie von OpenAI aufbaut. Wired berichtete im Dezember, dass der KI-Assistent Anfragen zur Wahl mit Lügen, irreführenden Aussagen und Verschwörungsideologien beantwortete.