Google: Kein Ausschluss mehr bei KI-Anwendungen für Waffen
Bis dato erklärte Google in den firmeneigenen KI-Grundsätzen, KI-Technologie nicht für Waffen oder Überwachungssysteme zu nutzen. Dieser Passus fehlt nun, solche Anwendungen werden somit nicht mehr ausgeschlossen.
Von dieser Änderung der KI-Grundsätze berichtete zuerst die Washington Post. Demnach hat Google zunächst die entsprechenden Passagen gestrichen, ohne das zu kommentieren. Auf Anfrage verwies der Konzern auf einen gestern veröffentlichten Blog-Beitrag von Googles DeepMind-Chef Demis Hassabis und den für den Bereich Technologie und Gesellschaft zuständigen Vice President James Manyika.
KI als geopolitischer Faktor für Demokratien
In dem Beitrag verweisen Hassabis und Manyika zunächst auf die rasanten Fortschritte bei der KI-Entwicklung sowie die Sicherheitsmaßnahmen, auf die man setzt. Zu diesen Maßnahmen zählt etwa das Frontier Safety Framework, das für Modelle wie Gemini 2.0 bereitgestellt wurde.
Gleichzeitig heißt es aber auch, dass ein globales Wettrüsten bei der AI-Entwicklung in einem geopolitisch immer komplexer werdenden Umfeld stattfinde. Demokratien sollten laut Hassabis und Manyika führend im Bereich der Künstlichen Intelligenz sein und für Werte wie „Freiheit, Gleichheit und Respekt für Menschenrechte“ stehen. Daher sollten Firmen mit Regierungen und Organisationen zusammenarbeiten, um Menschen zu beschützen, globales Wachstum zu gewährleisten und die Nationale Sicherheit zu unterstützen.
Kurzum: Google beschreibt KI als geopolitischen Faktor für Demokratien. Die Technologie soll daher immer noch im Rahmen von „gemeinhin akzeptierten Grundsätzen des Völkerrechts sowie der Menschenrechte“ eingesetzt werden und Google will diese auch testen, um ungewollte oder schädliche Auswirkungen zu verhindern. Doch das Ganze klingt nun viel weniger konkret, als es zuvor der Fall war.
Früher Ausschluss für Waffen mit Googles KI-Systemen
Welche Grundsätze Google früher verfolgte, lässt sich etwa noch in den KI-Grundsätzen von 2023 nachlesen. Konkret nannte man noch vier Bereiche, in denen man KI-Technologie nicht einsetzen wollte. Dazu zählten zunächst Technologien, die einen allgemeinen Schaden verursachen oder wahrscheinlich verursachen werden. Bei Punkt 2 handelt es sich um Waffen, bei Punkt 3 um Überwachungssysteme, die gegen international anerkannte Normen verstoßen. Der vierte Bereich zielt auf den Schutz des Völkerrechts sowie der Menschenrechte.