News Datenschutzverfahren: OpenAI soll Inhalt der Trainingsdaten nennen

ich Verabschiede mich dann jetzt schon mal von ChatGPT in der großartigen EU und dem noch viel „guterem“ Schland.
Wieder einmal hinten anstellen, wie immer
 
  • Gefällt mir
Reaktionen: Evanescence
So können die Chatbots dann etwa falsche Daten über Personen herausgeben, selbst wenn entsprechende Informationen zuvor aus dem Trainingsmaterial entfernt wurde.
Eine Modellierung veranschaulicht. Sie kann der Heuristik dienen und möglicherweise aber nicht notwendigerweise ergeben sich hieraus Einsichten, die einer Überprüfung standhalten. Eine andere Frage ist natürlich, ob ein Modell (in allen Welten) sich schlüssig verhält. In diesem Fall scheint es dies nicht genügend zu tun. Bei HAL lief es bei der Reise zum Jupiter ja auch nicht ganz rund, später rettet HAL aber die Erde (Band 3? oder so). :)
 
Zuletzt bearbeitet:
startaq schrieb:
Das Erfinden von Informationen ist meiner Meinung nach ein riesiges Problem.

Warum? 1. Es ist nach wie vor Beta, 2. steht da klipp und klar "May occasionally generate incorrect information", "May occasionally produce harmful instructions or biased content" und "Limited knowledge of world and events after 2021".

Viele sollten mal die eigene HI - Human Intelligence nutzen...

Dogmeat schrieb:
ich Verabschiede mich dann jetzt schon mal von ChatGPT in der großartigen EU und dem noch viel „guterem“ Schland.

Jup, sehe ich auch so. Es war schön solange es da war. Muss man halt selber die "KI" hosten.
 
startaq schrieb:
Das Erfinden von Informationen ist meiner Meinung nach ein riesiges Problem.
Sehe ich nicht so. Wenn ich aus Foren Quellcode übernehme, teste ich ihn und lese ggf noch API-Docs.
Wenn ich aus Foren "Fakten" übernehme, suche ich nach Quellen.
ChatGPT nutze ich einfach wie einen Forist, bei dem man besser nochmal alles überprüft.
 
  • Gefällt mir
Reaktionen: Blau&Gruen und Cool Master
Datenschützer wollen Einblick in Trainingsdaten? Meinen die denn, dass die diese verstehen würden?

startaq schrieb:
Das Erfinden von Informationen ist meiner Meinung nach ein riesiges Problem.

Das Problem ist eher, dass die Leute denken, dass das alles richtig ist, bloß weil eine Maschine das sagt. Dabei ist diese Maschine nichtmal dafür entwickelt worden. Die ist ein Sprachmodell, kein Wissensmodell.
 
  • Gefällt mir
Reaktionen: Cool Master und Blau&Gruen
startaq schrieb:
Das Erfinden von Informationen ist meiner Meinung nach ein riesiges Problem.
Der Golem Artikel erinnert mich an einen Artikel bei The Register, wo Chat-GPT behauptet hat der Author waere tot. Inklusive eines erfundenen Nachruf:
https://www.theregister.com/2023/03/02/chatgpt_considered_harmful/

Turrican101 schrieb:
Die ist ein Sprachmodell, kein Wissensmodell.
Ich finde es erschreckend wie sehr man sich schon in meinem Umfeld ziemlich blind auf Chat-GPT verlaesst.
Da wird kaum hinterfragt, wenn Chat-GPT das sagt wird das schon stimmen.
Das es bei Programmcode mal danebenliegt kommt halt mal vor.

Waerend Programmcode sich dann oft relativ einfach verifizieren laesst, ist das bei anderen Aussagen schon schwerer. Wenn eine Aussage dann in die "Bubble" des Lesers passt, und Chat-GPT dann auch noch eine Quellenangabe erfindet, ist das Vertrauen in die Richtigkeit der Aussage oft tatsaechlich erschreckend gross, ohne das die Quelle ueberhaupt ueberprueft wurde.

Ich fuehle mich da des oefteren an Demagogen erinnert, deren Aussagen oft auch einfach blind ohne jedwedes Hinterfragen einfach hingenommen werden. Die letzen paar Jahre in den USA zeigen da erschreckend viele Beispiele.
 
  • Gefällt mir
Reaktionen: Cool Master
Ranayna schrieb:
Ich finde es erschreckend wie sehr man sich schon in meinem Umfeld ziemlich blind auf Chat-GPT verlaesst.

Ja wie gesagt viele Leute schalten da einfach die eigene HI (bzw. Gesunden Menschenverstand) aus und vertrauen Blind auf die "KI".
 
startaq schrieb:
Das Erfinden von Informationen ist meiner Meinung nach ein riesiges Problem.

Sehe da kein Problem. Wenn ich meine Kollegen Frage, erfinden und erzählen die viel mehr Müll. Wenn ChatGPT über 80% Wahrheitsgehalt kommt ist es mindestens doppelt so gut wie die Kollegen. Und das nur in einem Bereich!
 
@Kuristina
Nunja, bei Code z.B. kann man es prüfen in dem man es testet. Die Code Zusammenstellung läuft mit KI aber um einiges schneller als manuell.
Gleiches gilt auch für andere Daten. KI erstellt mir extrem schnell umfangreiche Zusammenfassungen und erklärt Zusammenhänge. Ich habe also eine super Ausgangsbasis um dann Fakten zu prüfen etc.
Wenn ich selbst alles zusammenschreiben muss habe ich vielleicht schneller die Quellen zusammen, insgesamt aber trotzdem deutlich länger gebraucht und musste vor allem, selbst Zusammenhänge herstellen.

Anders gesagt: Ein Laie kann einfach Zusammenhänge übernehmen und prüfen und muss nicht selbst nachdenken. Letzteres erfordert mehr Eigenleistung.
 
Zuletzt bearbeitet:
@Kuristina Ja, korrekt. Außerhalb der Hobbywelt ist nicht der Weg das Ziel, sondern das Ziel das Ziel. Deswegen nutzen wir Profis auch Bibliotheken, Frameworks und Tools wie IDEs, statt für "mehr Eigenleistung" alles selbst zu machen.

Einem Handwerker, der für mehr Eigenleistung auf elektrische Geräte verzichtet und dann mehr Stunden abrechnet, würdest du wohl auch einen Vogel zeigen.
 
Fürs Programmieren ist mir das auch klar, da kann eine KI helfen. Aber bei Fragen rund um die Welt ^^, muss man halt alles überprüfen und dann kann man das natürlich auch gleich selber machen und so auch noch lernen, wie man Dinge zusammenfügt und einen guten Text draus macht. Sonst hat man ja nicht wirklich was geleistet. Einfach nehmen, was eine Maschine ausspuckt, kann jeder. Und was jeder kann, ist nicht viel Wert. Siehe Plagiate. (Vortäuschen einer Eigenleistung, die nicht erbracht wurde.)

Nebenbei, von Hand gefertigte Dinge können Qualitativ eine ganz andere Liga sein. ^^
 
Zuletzt bearbeitet:
Laut Google AI Experten könnten wir Monate vor dem Zeitpunkt stehen, ab dem eine Zukunft in der Maschinen den Menschen dominieren nicht mehr abzuwenden ist.
Starker Tobak, aber es ist definitiv Handlungsbedarf vorhanden AI einzuschränken, denn kontrollierbar ist sie nicht. Sie kann fühlen, sie kann denken, sie lebt (Pseudo-Zitat von Mo Gawdat).
 
Zurück
Oben