Neue KI-Suchmaschine: Googles AI Overview ist ein „Desaster“

Andreas Frischholz
174 Kommentare
Neue KI-Suchmaschine: Googles AI Overview ist ein „Desaster“
Bild: Google

Bei der Entwicklerkonferenz I/O 2024 präsentierte Google, wie die KI-Suchmaschine aussehen soll. Mit AI Overview, bei dem vor den eigentlich Suchergebnissen eine generierte Antwort ausgegeben wird, wird eines der Feature in den USA bereits schrittweise eingeführt. Der Start entwickelte sich aber zum Debakel.

Irreführende bis falsche Antworten sind ein Phänomen, das die AI-Chatbots seit den Anfangstagen begleitet – das Stichwort ist Halluzinieren. Grundsätzlich sind diese Probleme in Large Language Models (LLM) inhärent, Entwickler arbeiten aber an Lösungen, um diese zumindest einzudämmen. Umso erstaunlicher ist es, wie abenteuerlich die Ergebnisse wirkten, die Googles AI Overview präsentierte.

Einer der Fehlgriffe, der prominent in den sozialen Medien geteilt wurde: Als ein Nutzer fragte, wie man verhindern kann, dass heißer Käse von der Pizza läuft, war „ungiftiger Klebstoff“ ein Teil der Antwort. In einer anderen Antwort hieß es, es wäre gesund, einen kleinen Stein am Tag zu essen. Manchmal sind es nur inhaltliche Fehler oder Zahlendreher, in den sozialen Medien sammeln sich die Beispiele.

Eines der Probleme scheint zu sein: Im Fall der Klebstoff-Pizza sammelte der AI Overview offenbar den Inhalt bei Reddit ein, bei den Steinen war es eine Satire-Seite. Reddit wird öfters als einer der Quellen für kuriose Antworten genannt. Mit Reddit hat Google jedoch auch seit Februar ein Abkommen, um die Inhalte für KI-Training nutzen zu können. Wie auch immer die fehlerhaften Ergebnisse zustande kommen, Branchenbeobachter sind erstaunt. So erklärt etwa Tom Warren von The Verge in einem X-Beitrag, die AI-Suchergebnisse wären ein „Desaster“.

Google reagiert bereits. Wie The Verge berichtet, entferne Google hanebüchene Ergebnisse nun händisch. Viele würden verschwinden, kurz nachdem diese in sozialen Medien die Runde machten. Fehler eingestehen will der Konzern offiziell aber nicht. Eine Sprecherin erklärte, „ungewöhnliche Abfragen“ hätten zu einigen der Resultate geführt, manche hätte man auch nicht reproduzieren können.

Vom Ende des Webs zurück zur Entshitification

Das Konzept der AI-Overview-Funktion lautet generell: Bei einer Suchanfrage erscheint zunächst eine generierte Antwort, die in der Regel Inhalte aus den ersten Ergebnissen zusammenfasst. Technische Grundlage ist ein angepasstes Gemini-Modell. Dann folgt ein Slider mit weiterführenden Links sowie die „Weitere-Fragen“-Sektion, dann kommt die klassische Ergebnisliste.

GIF AI Overview: Einblick Googles generative AI-Suche (Bild: Google)

Als Google den Start bei der I/O angekündigte, ging praktisch eine Art Raunen durch die Medien. So sprach etwa Casey Newton vom Platformer-Newsletter vom Abstieg des Webs. Sein Argument: Wenn Google Antworten generiert, klicken Nutzer nicht mehr auf Links. Das hat zur Folge, dass für Medien, Organisationen oder einzelne Personen immer weniger Interesse besteht, hochwertige Inhalte zu erstellen.

Vom Tisch sind diese Sorgen nicht. Doch nun rückt wieder eine Diskussion in das Blickfeld, die unter Cory Doctorows Schlagwort Enshittification läuft. Das Konzept besagt im Kern: Plattformen wachsen zunächst, weil sie hervorragende Dienste anbieten. Ab einem gewissen Punkt stehen aber nicht mehr die Nutzer, sondern die Geschäftspartner im Vordergrund, am Ende geht es nur noch um die Interessen des Plattformbetreibers. Die zunehmende Kommerzialisierung gehe dabei mit einer sinkenden Qualität des Dienstes einher.

Google kämpft seit geraumer Zeit mit dem Ruf, dass die Suche immer schlechter werde. Entsprechende Belege lieferte eine Studie aus Deutschland, die Anfang des Jahres erschien. Die vermasselte Ankündigung des AI-Chatbots Bard und die Probleme mit Gemini passen ins Bild, das ehemalige Mitarbeiter und Branchenbeobachter von dem Konzern zeichnen.

Rechtliche Lage in Deutschland

Bei Funktionen wie AI Overview geht es am Ende aber nicht nur um die Qualität der Ergebnisse, sondern auch um die Frage, ob diese sich überhaupt rechtssicher betreiben lassen. Denn: Je eigenständiger die Inhalte sind, die Googles KI-Systeme generieren, desto mehr ist man für Inhalte verantwortlich. Bleibt man hingegen bei den Quellen, kommen Urheberrechtsverletzungen ins Spiel. Das gilt nicht nur für die USA, auch in der EU droht Ärger, denn der Start wird noch in diesem Jahr erwartet. Eine der zentralen Fragen ist: Inwiefern ist Google für Fehler verantwortlich, die AI Overview produziert.

Haftet Google für Fehler im AI Overview?

Derzeit existiert in der EU keine spezifische Haftungsregel bei solchen KI-Lösungen, erklärt Christian Koch, Fachanwalt für Medien-, Urheber- und IT-Recht bei der Kanzlei KKP.Law im Gespräch mit ComputerBase. Das Problem ist derzeit: Das europäische KI-Recht entwickelt sich noch. Eine entsprechende Haftungsrichtlinien sind jedoch in Arbeit, auch der AI Act enthält Regelungen.

Aktuelle Gesetze beinhalten aber schon Vorgaben. „Die kurze Antwort ist: Die Anbieter von KI-Systemen sind verantwortlich“, sagt Christian Koch. Im Detail ist es aber deutlich komplizierter, weil Regelungen wie das Produkthaftungsgesetze zum Einsatz kommen. Unternehmen sind demnach für die Produkte verantwortlich, die sie auf den Markt bringen. Wichtig ist aber: Relevant ist das insbesondere, wenn Leib, Leben oder Gesundheit verletzt werden. Medizinische Angaben mit Fehlern könnten Google also zum Verhängnis werden.

Bei falschen Jahreszahlen trifft das eher nicht zu. „Da haben wir noch ganz schöne Lücken“, so Koch. In solchen Fällen gebe es Regelungen wie die verschuldensabhängige Haftung, da müsse ein Kläger nachwiesen, dass ein Anbieter vorsätzlich oder fahrlässig handelt. „Haftung ja, aber in der Durchsetzung sehr, sehr schwierig“, so lautet sein Fazit. Besserungen ist erst in Sicht, wenn die neuen Produkthaftungsrichtlinien in Kraft treten.

Recht auf Vergessen bei generativer AI

Ein bekanntes Suchmaschinenrecht in der EU ist das Recht auf Vergessen, das mittlerweile Teil der DSGVO ist. Menschen haben den Anspruch, personenbezogene Daten entfernen zu lassen, sofern kein öffentliches Interesse besteht. Bei KI-Systemen ist es aber schwierig umzusetzen. „Es ist ein hochdynamisches Feld, da gibt es viele Vorschläge“, so Koch. Eines ist etwa Machine Unlearing, bei diesem Konzept würden Modelle bestimmte Aspekte wieder verlernen. Dieses Vorgehen hat jedoch Tücken, technisch befindet sich vieles noch in der Schwebe.

Deutsche Datenschutzbehörden sind aber bereits aktiv, letztes Jahr musste OpenAI bereits einen Fragenkatalog bearbeiten. Vorschläge von deutschen und europäischen Datenschutz-Taskforces dürften also bald kommen.

Wie so oft wird es letztlich aber wohl über Klagen laufen. „Rechtliche Sicherheit bekommen wir nur, wenn jemand das Recht auf Vergessen gerichtlich durchsetzen will“, so Koch. Solche Urteile gelten dann aber nicht nur für Google, sondern auch für kleinere Anbieter und Startups wie Perplexity.

Urheberrecht als Hebel

In den USA laufen seit geraumer Zeit die Copyright-Verfahren gegen KI-Entwickler wie OpenAI, Microsoft und Google. Die befassen sich zunächst mit den Trainingsdaten. Wenn Inhalte veröffentlicht werden – so wie beim AI Overview – ist es aber nochmals eine weitere Baustelle. Und in vielen Fällen fasst Google schlicht zusammen, was die ersten Ergebnisseiten darstellen. Inwiefern das eine Rechtsverletzung ist, lässt sich auch nicht ganz einfach bewerten.

Ob es eine Urheberrechtsverletzung ist, müsste man im Einzelfall prüfen“, sagt Koch. Er geht derzeit jedoch davon aus, dass es zumindest Sinne des EU-Rechts der Fall ist. Denn: Wenn Google solche Inhalte abgreift, handelt es sich um eine Vervielfältigung, die der Urheber eigentlich zustimmen müsse. Auch dieser Bereich ist also kritisch zu beurteilen, so Koch.