@Whitehorse1979 Die KI hat irgendwann mal seinen Namen gelesen, zusätzlich wurden in dem Kontext in der Quelle auch seine Kinder genannt.
KI ist sehr gut darin Zusammenhänge zu finden, schießt dabei aber auch leicht über das Ziel hinaus, wie die KI die darauf trainiert wurde Hautkrebs zu erkennen und die erkannte als Zusammenhang, dass Hautkrebs auf Bildern häufig mit einem Maßstab/Lineal daneben zu finden ist um die Größe darzustellen. Ist auf Bildern von Hautflecken also ein Lineal, muss der Hautfleck Krebs sein.
In diesem Kontext gibt es vielleicht einen anderen Kindermörder mit dem Namen - oder auch nur seinem Vornamen und dem Vornamen seines Kindes und die KI hat das in einen Zusammenhang gesetzt.
Wie
@stefan92x schon sagt, die allgemeinen Sprachmodelle haben kein Faktenwissen sondern sind eben nur Modelle um Sprache zu generieren. Da das Lehrmaterial heutzutage quasi der gesamte textliche Output der Menschheit ist, ist aber bereits darin oft kompletter Bullshit, weil KI-Modelle eben Witze oder Trollerei nicht erkennen können und Bullshit den sie so erlernt haben intern nicht als Bullshit kennzeichnen können.
Alles Erlernte ist für sie mehr oder weniger gleichwertig.
Und dann kommt noch hinzu, dass ihre Aufgabe nicht die Reproduktion von Fakten ist sondern die Erstellung von plausiblen Sätzen - du kannst ChatGPT eine Wissensfrage stellen, wahrscheinlich ist der Textoutput auch korrekt, weil es häufiger ähnliche Sätze gelesen und erlernt hat mit einem korrekten Inhalt und versucht diese nachzuahmen. Das ist aber nicht gesichert.
Und wenn du ChatGPT dann nach Quellen zu der Aussage fragst bekommst du auch welche - aber auch die werden "generiert", d.h. du kriegst z.B. Bücher genannt die plausibel klingen und Autorennamen aus dem Fachgebiet beinhalten - aber da stimmt dann mal der Vorname der einen Autorin nicht, der Autor hat nicht das "Handbuch der XYZ" geschrieben sondern das "Lehrbuch der XYZ" und an dem Punkt weißt du schon, dass die Quelle einfach erfunden wurde - auf plausiblen Daten basierend, aber eben nicht korrekt.
Ein Beispiel noch, wie man evtl. einfach die Funktionsweise von Sprachmodellen nachvollziehen kann:
Die Tastatur auf dem Smartphone hat heutzutage ja häufig eine Wortvervollständigungsfunktion und auch eine Satzvervollständigungsfunktion.
Tippe ich
H A L L ein wird
Hallo vorgeschlagen. Tippe ich
Mit freundlichen ein wird als nächstes Wort
Grüßen vorgeschlagen. Weil eben
Mit freundlichen Grüßen sehr häufig genau so geschrieben wird und andere Sätze die mit
Mit freundlichen anfangen viel viel seltener sind.
Das Problem: Als nächstes Wort würde ja üblicherweise der Name des Schreibenden erwartet werden, weil das der logische Aufbau eines Textes ist, in dem
Mit freundlichen Grüßen vorkommt.
Aber wir heißen alle anders und das System erlernt eben nur nach Häufigkeiten, nicht nach der eigentlichen Intention hinter einer Schlussformel in einem Brief oder einer Mail, nämlich den eigenen Namen hinter die Verabschiedung zu setzen.
Auf dem iPhone führt das dann dazu, dass mir nicht mein Name als nächstes Wort vorgeschlagen wird - obwohl das iPhone weiß wie ich heiße - sondern
Andreas und wenn ich das Wort übernehme dann als weiteres Wort
Schmidt (oder
Müller, bin gerade nicht sicher und zu faul es erneut zu testen), eben weil Andreas so ziemlich der häufigste männliche Vorname ist (und Männer wahrscheinlich mehr förmliche Mails schreiben?!) und Schmidt entsprechendes beim Nachnamen. Das nächste vorgeschlagene Wort ist dann übrigens
Rechtsanwalt... Wahrscheinlich weil mehr Rechtsanwälte ein iPhone gekauft haben, es für Geschäftskommunikation verwenden und eine förmliche Schlussformel verwenden und als Disclaimer noch ihren Beruf angeben.
Und das ist die Funktionsweise hinter den Sprachmodellen, nur dass die etwas größer denken als die einfache iOS-Tastatur.