Interview: Warum KI nicht die Menschheit auslöscht und wieso Open Source hilft
Viele Weltuntergangswarnungen kursieren angesichts der aktuellen KI-Entwicklung. Welche Risiken tatsächlich im Zeitalter von ChatGPT und Bildgeneratoren wie MidJourney bestehen und was für eine Regulierung sinnvoll ist, bespricht ComputerBase im Interview mit Prof. Antonio Krüger, dem CEO vom Deutschen Forschungszentrum für KI.
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
Center of AI Safety
Offener Brief: KI-Risiken wie Nuklearkrieg behandeln
Dass die Menschheit durch eine KI ausgelöscht wird, sollte als Risiko genauso behandelt werden wie Pandemien oder ein Nuklearkrieg, fordert das Center of AI Safety in einem offenen Brief. Unterzeichnet wurde er von Koryphäen der Branche wie dem Turing-Award-Gewinner Geoffrey Hinton, dem OpenAI-Chef Sam Altman und Googles DeepMind-Chef Demis Hassabis. Diejenigen, die die KI-Entwicklung maßgeblich prägten, warnen vor den potenziellen Folgen einer Superintelligenz und fordern eine Regulierung.
Was hinter den Ängsten vor einer KI-Superintelligenz steckt und wie ernst die Mehrheit der Forschenden diese Bedrohung nimmt, bespricht ComputerBase im Interview mit Professor Antonio Krüger, dem Geschäftsführer des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) und dem wissenschaftlichen Direktor des Forschungsbereichs „Kognitive Assistenzsysteme“ am DFKI. Seit 2009 ist er Informatik-Professor an der Universität des Saarlandes, Leiter des Ubiquitous Media Technology Lab und wissenschaftlicher Leiter des Innovative Retail Laboratory (IRL) am DFKI. 2018 saß er als Sachverständiger in der Enquete-Kommission des Bundestags für künstliche Intelligenz.
Das Interview wurde am 6. Juni via Teams geführt.
Was an den Warnungen vor KI-Superintelligenzen dran ist
ComputerBase: Dass KI-Systeme die Menschheit auslöschen könnten, ist ein zuletzt erstaunlich häufig diskutiertes Thema. In einem offenen Brief des Center for AI Safety forderten prominente Forschende und Entwickler, KI als ebenso große Gefahr für die Menschheit wie Pandemien oder einen Nuklearkrieg zu behandeln. Geoffrey Hinton sagte kürzlich, KI-Systeme seien bedrohlicher als der Klimawandel, weil man beim Klimawandel zumindest in der Theorie wisse, wie man ihn stoppen kann, bei KI-Systemen hingegen nicht. Und mit Yoshua Bengio stellt ein weiterer Turing-Award-Gewinner sein komplettes Lebenswerk infrage. Wie bewerten Sie diese Warnungen, die auch von Koryphäen der KI-Forschung stammen?
Prof. Antonio Krüger: Die Entwicklung hat sich schon ganz schön beschleunigt in den letzten fünf Jahren. Ich selber bin auch manchmal überrascht, wie viel jetzt schon möglich ist. Allerdings wirkt es schon ein bisschen anachronistisch, dass sich gerade jetzt so einige doch etablierte Herren zu Wort melden. So ganz unabsehbar war die Entwicklung nicht, GPT 3 gibt es schon länger – seit 2020 – und man konnte alle möglichen Sachen damit machen. Hätte jemand aber 2020 gesagt, KI ist der Weltuntergang, hätten alle nur gelacht. Durch ChatGPT hat es aber eine viel stärkere mediale Aufmerksamkeit bekommen. Jetzt hören die Leute zu und es gibt eine Bühne, die etwa durch die offenen Briefe bespielt wird. Ich halte es da eher wie Yann LeCun [Anm. der Redaktion: LeCun ist KI-Entwicklungschef bei Meta]: Zum Teil erleben wir aktuell eine gewisse Freude an der medialen Aufmerksamkeitsgenerierung. Natürlich gilt: Aufmerksamkeit erzeugt auch immer Geld, egal in welche Richtung Aufmerksamkeit erzeugt wird.
Darüber hinaus verschieben die Warnungen den Blick in die Zukunft. Sie sagen nicht, die Welt wird morgen ausgelöscht, sondern erklären: Wenn wir jetzt nichts machen, ist es irgendwann zu spät. Diese Art von Argumentation lenkt von den real existierenden Risiken ab, die jetzt existieren und nichts mit dem Weltuntergang zu tun haben – also etwa Deep Fakes und eine Regulierung, die die Auswüchse direkt unterbindet. Der letzte Brief ist zudem nicht ungeschickt formuliert, weil dort nicht direkt gesagt wird, wie die KI die Weltherrschaft übernimmt.
Also ich bin überhaupt kein Freund von diesen öffentlichen Briefen, die nun kursieren. Ich sehe die Risiken, die durch KI entstehen können, ganz klar. Die sind nicht völlig aus der Luft gegriffen. Das betrifft zum Beispiel auch Kriegsszenarien. Da habe ich auch vor Jahren einen Brief unterzeichnet, der „vor einem Atomkrieg aus Versehen“ warnt. Es kann eskalieren, wenn Maschinen autonom handeln und am Ende der Entscheidungskette kein Mensch steht. Man sollte vollautomatischen Systemen etwa nicht die Entscheidung überlassen, Atombomben zu starten. Ich wüsste aber auch nicht, dass das im Moment geplant wird. Dennoch sind das viel konkretere Risiken als der letzte Aufruf mit diesem einen Satz. Ansonsten betrifft es eher solche Bereiche, die uns im Alltag begegnen. Also etwa Manipulationsrisiken, die auch die Demokratie gefährden können, wenn man nicht zu guten Regeln findet.
ComputerBase: Um nochmal kurz zu den AGI-Superintelligenzen zu kommen. Wenn man bei diesen von einer Bedrohung ausgeht, muss man dann diese Science-Fiction-Vorstellung haben? Also etwa Skynet aus den Terminator-Filmen oder Shodan aus der System-Shock-Reihe?
Prof. Antonio Krüger: Also ich weiß nicht, was die Warner genau meinen. Ich halte das für völlig absurd, aber ich glaube schon, dass es Menschen gibt, für die so etwas eine ernste Bedrohung ist. Was ich sehe, ist, dass die generative KI zwar klare Anzeichen von Alltagsintelligenz zeigt, aber ich kann überhaupt nicht erkennen, wie diese Systeme so eine Bedrohung darstellen sollen. Ich wüsste auch gar nicht, wo es herkommen soll, dass generative KI-Systeme in irgendeiner Form eine eigene Agenda entwickeln. Die leben von den Daten, mit denen sie trainiert wurden, aber ohne diese auf Meta-Ebene zu reflektieren. Insofern kann ich eine Superintelligenz, die ihre eigenen Ziele verfolgt, in der jetzigen Technologie überhaupt nicht erkennen.
Es mag sein, dass so etwas in zehn Jahren entsteht. Selbst dann besteht aber immer noch die Frage, ob solche Systeme tatsächlich ein Bewusstsein entwickeln und eigene Ziele formulieren können, um diese dann selbst zu verfolgen. Zum anderen brauchen sie den Zugang zur realen Welt. Der ist notwendig, denn ohne echten Zugang zur realen Welt kann man diese auch nicht ernsthaft verändern. Wobei man natürlich mit einem Internetzugang und KI-gesteuerten Hacker-Attacken viel Chaos und Durcheinander stiften kann.
ComputerBase: In dem ersten offenen Brief wurde ein sechsmonatiges Moratorium für die Entwicklung besonders leistungsfähiger Systeme gefordert, um Sicherheitsmechanismen und sichere Designs zu entwickeln. Wenn man die Bedrohung aber nicht präzise beschreiben kann, lassen sich dann überhaupt sichere Designs entwickeln?
Prof. Antonio Krüger: Wenn man jetzt die klassischen Language-Models oder Basismodelle nimmt, die auf einer Transformer-Architektur beruhen und einen stark regressiven Mechanismus haben, der vorwärts generiert, wird man immer zu einem bestimmten Prozentsatz Quatsch produzieren. Das lässt sich kaum vermeiden. So gibt es bereits Diskussionen, in denen es heißt, alte ChatGPT-Varianten waren besser als die aktuelle, weil die neueren restriktiveren Regeln folgen. Wenn man sich Google Bard anschaut, ist dieser offensichtlich etwas freizügiger mit seinen Fehlern, dafür aber auch kreativer.
Wenn Sie also ein ganz sicheres KI-System wollen, dann wird es vermutlich weniger innovatives Potenzial haben. Für viele Anwendungen ist so etwas kein Problem. Der neueste Assistent in meinem Text-Editor benötigt keine große Kreativität, der soll mir einfach Vorschläge unterbreiten und ich arbeite damit weiter. Daher bin ich ein Befürworter einer Mensch-KI-Zusammenarbeit und glaube, diese wird das nächste Jahrzehnt prägen. Man lässt also die KI das machen, worin sie wirklich gut ist: große Datenmengen durchwühlen und erste gute Vorschläge erstellen. Der Mensch verfeinert und verbessert diese dann. So werden wir, denke ich, viele Anwendungen sehen, die großes Potenzial haben - und das ist eine tolle Nachricht. Denn so lassen sich die Produktivität und auch das Ergebnis von Arbeit deutlich verbessern, ohne dass jetzt der Einzelne von der KI bedroht wird – selbst in seinem Arbeitsplatz nicht.
ComputerBase: Zu den Unterzeichnern der Briefe zählen immerhin Koryphäen wie die Turing-Award-Gewinner Hinton und Bengio, Sam Altman oder Demis Hassabis, der Chef von Googles DeepMind-Abteilung. Wie weit verbreitet sind die Ängste vor einer künstlichen Superintelligenz, die die Menschheit auslöscht, in der Forscher- und Entwicklergemeinde?
Prof. Antonio Krüger: Bei der künstlichen Intelligenz existiert schon immer ein Lager von Wissenschaftlern, das völlig überzeugt davon war, dass es – auch in absehbarer Zeit – möglich sein wird, eine starke KI tatsächlich zu entwickeln. Das bedeutet: Eine KI mit eigenen Zielen, mit dem eigenen Bewusstsein, im Prinzip also mit einem künstlichen Geist. Diese Art von Wissenschaftlern, die jetzt auch warnen, sind in der Minderzahl. Vielleicht 5 bis 10 Prozent der KI-Wissenschaftscommunity fallen in dieses Lager.
Es sind deswegen keine schlechten Wissenschaftler, sie glauben eben daran. Man sagt immer, Wissenschaft habe nichts mit Glauben zu tun, das stimmt aber nicht. Wissenschaft braucht immer eine starke Idee, um Wissenschaft gut zu betreiben. Ich zum Beispiel glaube sehr stark daran, dass KI ein unglaubliches Potenzial als Werkzeug hat, um gemeinsam mit Menschen eine Vielzahl von Problemen zu lösen. Wenn Sie aber eine Vision einer starken KI haben und fest davon überzeugt sind, kommen solche Äußerungen mit etwas Panik zustande. Andererseits: Wenn Sie selbst vor Ihren Visionen warnen, erheben Sie sich auf ein Podest. Es ist wie bei Nostradamus. Die Weltuntergangspropheten sind die, die Aufmerksamkeit erhalten und am Ende sagen können: „Ich wusste es vorher!“ Von daher denke ich, dass in diesen Briefen eine Portion Psychologie, eine Portion Aufmerksamkeitsbedürfnis und auch eine Portion Geld stecken.