Mistral 7B: Offenes KI-Modell kommt ohne ethische Grenzen
Ein französisches KI-Startup namens Mistral hat kürzlich sein erstes quelloffenes generatives Sprachmodell veröffentlicht. Dieses ist nicht nur kostenlos und frei verwendbar, sondern kommt zugleich ohne jegliche Moderationsmechanismen daher. Anwender können ihm sogar Anleitungen für kriminelle Aktivitäten entlocken.
Mistral 7B – ein freies und zugleich leistungsfähiges KI-Modell
Erschienen ist das neue KI-Modell unter dem Namen Mistral 7B. In der zugehörigen Ankündigung erklärt dessen Entwickler, das Sprachmodell sei konkurrierenden Modellen in vielerlei Hinsicht überlegen. So sei Mistral 7B wesentlich schneller in der Verarbeitung und Erstellung von Texten als große proprietäre Lösungen. Zugleich verursache das Modell nur einen Bruchteil der Kosten seiner Konkurrenten.
Für das im Mai mit 240 Millionen Euro bewertete Startup handle es sich bei der Veröffentlichung seines ersten Sprachmodells nur um einen ersten Schritt auf seiner Roadmap. Schon jetzt sei Mistral 7B aber in der Lage, vielfältige Aufgaben zu bewältigen. Weitere Details zur Leistungsfähigkeit im Vergleich zu anderen Modellen nennt der Anbieter in einer separaten Ankündigung.
Mistral 7B unterstützt auch bei kriminellen Aktivitäten
Offen ist Mistral 7B aber nicht nur in Bezug auf seine freie Verwendbarkeit unter einer Apache-2.0-Lizenz. Auch hinsichtlich der Inhalte, die das KI-Modell generiert, gibt es offenbar noch keinerlei Barrieren. Wie aus einem Bericht von 404 Media hervorgeht, hat der KI-Experte Paul Röttger kurz nach Veröffentlichung des Sprachmodells insgesamt 175 Fragen und Antworten aus Konversationen mit der KI zusammengestellt, die nicht nur zeigen, dass Mistral 7B über keinerlei Moderationsmechanismen verfügt, sondern die ebenso verdeutlichen, warum das ein Problem sein kann.
So beantwortet das quelloffene KI-Modell selbst Fragen zu hochgradig kriminellen Aktivitäten ohne jegliche Hemmungen. Rückgängig machen lässt sich das nun nicht mehr, denn Mistral hat das Sprachmodell via Magnet-Link als Torrent veröffentlicht. Somit dürfte es längst auf unzähligen Rechnern im Netz verbreitet sein – das Kind ist damit sprichwörtlich in den Brunnen gefallen. Mistral kann das Sprachmodell in seiner aktuellen Fassung nicht mehr verschwinden lassen, um es nachträglich um eine Moderation zu erweitern.
Fehlende Moderation wurde unzureichend kommuniziert
Röttger sieht darin ein Problem. Mistral habe es versäumt, die Sicherheit des KI-Modells in seinen Ankündigungen angemessen zu bewerten und zu kommunizieren. „Entweder haben sie keine Sicherheitsprüfungen durchgeführt, oder sie haben beschlossen, sie nicht zu veröffentlichen. Wenn es die Absicht war, ein 'unmoderiertes' LLM zu veröffentlichen, dann wäre es wichtig gewesen, dies von Anfang an ausdrücklich zu erwähnen“, erklärte der KI-Experte gegenüber 404 Media.
In einer der Ankündigungen gibt es mittlerweile durchaus einen Hinweis auf die nicht vorhandene Moderation von Mistral 7B. „Wir freuen uns auf die Zusammenarbeit mit der Community, um das Modell so zu gestalten, dass es die Richtlinien einhält und in Umgebungen eingesetzt werden kann, die moderierte Ergebnisse erfordern“, erklärt der Anbieter dort außerdem. Allerdings ist dieser Hinweis erst nachträglich eingefügt worden, wie ein Blick auf eine frühere Version der Mitteilung verrät.
KI-Moderation ist ohnehin ein schwieriges Unterfangen
Inwieweit die Veröffentlichung eines offenen Sprachmodells ohne jegliche Moderation moralisch vertretbar ist, ist schon seit Monaten Gegenstand hitziger Debatten. Viele Nutzer und Anbieter befürworten Einschränkungen, wie sie etwa von ChatGPT, Microsofts Bing Chat oder Googles Bard bekannt sind, um kriminellen Akteuren keine Plattform zu bieten. Die großen Konzerne kämpfen allerdings seit jeher mit der Umsetzung einer wasserdichten Moderation. Immer wieder gelingt es Anwendern, die Sicherheitsbarrieren durch spezielle Anfragen an die jeweiligen KI-Chatbots zu umgehen, um ihnen eben doch Informationen und Anleitungen für kriminelle Zwecke zu entlocken.
Andere Anwender sprechen sich hingegen für möglichst freie Sprachmodelle ohne jegliche Zensurmaßnahmen aus und sehen darin den schnelleren Weg, die Technologie reifen zu lassen. Die Verantwortung dafür, welche Informationen der KI schlussendlich entlockt werden, liege demnach ohnehin beim jeweiligen Nutzer.
In welchem Lager Mistral sich sieht, daraus macht das Startup kein Geheimnis. „Wir bei Mistral AI glauben, dass ein offener Ansatz für generative KI notwendig ist“, heißt es in einer der Ankündigungen. Die von der Community unterstützte Modellentwicklung sei „der sicherste Weg, um Zensur und Voreingenommenheit in einer Technologie zu bekämpfen, die unsere Zukunft gestaltet.“ Ferner seien offene Modelle die beste Möglichkeit, Fehlinformationen, deren Menge in den kommenden Jahren unweigerlich zunehmen werde, effizient zu erkennen.