aid0nex schrieb:
KI bzw. LLMs können eine Sache richtig gut: Bei völliger Ahnungslosigkeit maximal selbstbewusst auftreten. D
So ist es, solche Chatbots scheinen die intellektuellen Abwehrkräfte der Menschen zu unterlaufen.
In Ergänzung zu
post 14
Ich habe nicht die Zeit für einen vollständigen Leserartikel, aber einen kleinen Einblick will ich doch mal in das Problem geben. Hier sind ja viele Experten, die das verstehen.
In der Informationsvermittlung lernen technische Redakteure folgende Grundsätze:
- Fehlerfreiheit
- Innere Konsistenz
- Spezifizität
- Vollständigkeit
- Einhaltung juristischer Normen
- Einhaltung Firmen-spezifischer Normen
Um das sicherzustellen, gilt das 6-Augenprinzip:
- Ein Auftraggeber (Produktmanager)
- Ein technischer Redakteur
- Ein Prüfer (Systemtester)
Ein derart erstelltes Kapitel ist dann zum Zeitpunkt der Erstellung das qualitativ hochwertigste, was die Firma zu bieten hat. Perfektion gibts nie, aber sagen wir zum Verständnis des Problems ein solches Kapitel hätte ein Qualität von 90%.
Jetzt wird das Thema aber auch an vielen weiteren Stellen behandelt. Aber mit deutlich reduziertem Qualitätsanspruch. In Schulungsunterlagen, Marketingunterlagen, Support -emails usw. Dort hängt die Qualität von den Umständen ab - sagen wir die Qualität schwankt zwischen 50 und 80 %.
Die Aufgabe des Chatbots bzw der "KI" dahinter ist aber PER DEFINITION alle (!) Quellen zu berücksichtigen und daraus eine Antwort zu formen.
Es entsteht eine Antwort, die den Durchschnitt der Quellen bildet. Damit MUSS die Antwort schlechter sein als mein Kapitel, denn der Durchschnitt von 50 + 70 + 62 + 80 + 90 ist weniger als 90.
Problem verstanden? Wenn eine Quelle, die aus prozessgründen die höchste gewollte Qualität abbildet, vermischt wird mit Quellen, die einen niedrigeren Qualitätsanspruch haben, dann gilt:
- Die Antwort ist besser als die schlechteste berücksichtigte Quelle
- Die Antwort ist schlechter als die beste berücksichtigte Quelle
Das ist ein SYSTEMATISCHES Phänomen bei KI-basierten Antworten.
Damit unterscheidet sich die Wahrnehmung einer KI-basierten Antwort von einer guten Volltextrecherche: bei einer Volltextrecherche bekommt der Anwender ein Kontinuum an Antworten. Wenn sich der Anwender fragt: und welche davon ist richtig? Lautet die Antwort: das musst du als Anwender entscheiden. Lies die verschiedenen Antworten durch und entscheide.
Eine KI-basierte Antwort ist aber eine EINZELNE Antwort, die maximalen "Wahrheitsanspruch" vermittelt. Ohne diesen Anspruch einhalten zu können.
Die Motivation für die Programmierung dieses Chatbots war, dass "die Inforecherche zu schwierig und aufwändig sei". Ein Chatbot würde schneller und einfacher eine Antwort liefern. Schneller und einfacher: das stimmt.
Aber eben nicht von besserer Qualität.
Denn die Schwierigkeit der bisherigen Recherche besteht ja darin, dass es Quellen mit unterschiedlicher Qualität gibt. Ein KI-basierter Chatbot löst dieses Problem aber nicht, denn er versteht die verschiedenen Antworten ja nicht.
Maximal kann ein Chatbot die verschiedenen Quellen etwas gewichten. Und wer dann die Gewichtung kontrolliert, kontrolliert die Antworten. Und damit das Wissen der Anwender.
Das war übrigens bei der google-Suche auch schon so: wer den google-Algorythmus kontrolliert, der kontrolliert das Wissen der Welt.
Aber bei google gab es zumindest noch mehrere Antworten.
Jetzt nur noch eine.
Deswegen ist die Nutzbarkeit von "KI" auf absehbare Zeit auf folgende Anwendungsfälle beschränkt:
- Die Qualität des digitalen Produkts (Text, Bild, ...) ist nachrangig
oder
- Die Anwender sind bereit, ihre Ansprüche zu senken
Diese KI-basierten Antworten liefern ja alles mögliche. Zum Beispiel auch Scriptblöcke. Das funktioniert noch so halbwegs, wenn man sich auf eine spezielle MS Programmiersprache als Framework einigt und die Routine kurz hält. "hello world".
Aber wenn mehrere Frameworks gemischt werden (in unserer Software haben wir zum Beispiel firmenspezifische Änderungen), dann kommt nur kompletter Müll raus.
Wenn man dagegen einer KI sagt "Erzeuge ein Bild von einem liebenden Päarchen", dann kommt es eben nicht auf Exaktheit und ein BESTIMMTES Pärchen an - das Ergebnis kann irgendwas sein. Liegend, stehend, gemischt, homosexuell, schwarz, weiß, lila.
KI-basierte Antworten sind also per Definition im "Konversationsbereich" angesiedelt: so lange die Antwort gesellschaftlich akzeptabel ist, ist der Grad der Fehlerfreiheit egal. Für die Akzeptanz der Antworten ist nicht entscheidend, dass sie wahr sind. Sondern dass der Anwender mit den Antworten gesellschaftlich punkten kann - keinen Fauxpas begeht.
Ist das jetzt sachlich genug für diejenigen, die hier "eine irrationale Abwehrhaltung gegen KI" glauben gesehen zu haben?