Bright0001 schrieb:
ChatGPT ist hier für mich genauso wenig haftbar wie ein Google, das mir Falschinformationen als ersten Link vorschlägt
da widerspreche ich. Google zitiert direkt eine Seite, und bietet noch zahlreiche andere Quellen an. Da es sich um ein direktes Zitat handelt, ist die Darbietung transparent. Klar kann auch Google durch selektives Filtern bestimmte Antworten/Meinungen ausschließen, aber man bekommt von dem was man bekommt ein direktes Zitat. Man wird nicht von der Suchmaschine angelogen, sondern vom Autor der Seite hinter dem Link. Welche Ergebnisse man bekommt, hängt davon ab, wieviele Seiten man manuell durchsucht.
gpt (Bing) kreiert eine eigene Antwort aus diversen Quellen, die zwar angegeben werden, aber nicht immer korrekt interpretiert werden, dh. auch wenn gpt eine Quelle angibt, heißt das nicht, dass das auch wirklich das ist, was die eigentliche Quelle angegeben hat. gpt ist ein Übersetzungslayer zwischen User und Information, und da passieren Fehler - aber gpt ist teilweise extrem hartnäckig, was die Qualität der eigenen Information angeht, was gpt auch im Fehlerfall enorm überzeugend macht. Man muss in bestimmten Bereichen schon mehr oder weniger Profi sein, um hier Fehler aufzudecken.
Das kritische an gpt ist, dass Informationen trotz verlässlicher Quelle (Herstellerseite bspw) falsch sein können, und gpt pocht auf die Korrektheit der Information anhand der Quelle.
hier einfach nur "ANWENDERFEHLER" proklamieren greift mir hier bei der intensiven Interaktion zwischen Mensch und Maschine und dem riesigen Potential an Missbrauch und Informationshoheit zu kurz.
Ich sage nicht, dass man wegen jedem Fehler gpt einkasteln sollte, aber man darf sich hier ruhig schonmal Gedanken machen.
jetzt ist das noch eine kleine Spielerei, aber lass da mal 5 bis 10 Jahre drübergehen.
AI aufbereitete Informationen werden Lebensbestimmend werden, so wie jetzt schon die Googlesuche. Nur ist hier die AI um einiges kritischer und gefährlicher - jetzt nicht unbedingt im Sinne von skynet, eher im Sinne von 1984.
Ich habe jetzt schon ein ungutes Gefühl bei den "Faktencheckern". Wenn wir mal so weit sind, dass eine privat betriebene AI "Faktenchecks" übernimmt, wirds unangenehm.