News ChatGPT: OpenAI will Sprachmodellen das „Halluzinieren“ abgewöhnen

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.909
  • Gefällt mir
Reaktionen: aid0nex, Der Kabelbinder, boxte30:Goas und eine weitere Person
Die einzige KI die mich bisher "überzeugt" hat war die DeppGPT vom Postillon. Vermutlich, weil hier schon die Prämisse ist, dass das Ergebnis sich nur real anfühlen muss, aber keine Wahrheiten präsentiert.
 
  • Gefällt mir
Reaktionen: flo.murr, rainman74, horror und 14 andere
1685686703747.png


:D
 
  • Gefällt mir
Reaktionen: Maviba, flo.murr, Phesis und 33 andere
Ich schwöre wenn ich noch einmal heute irgendwo AI oder ChatGPT lesen muss...
Es ist 8:25 und ich hab für heute schon meine Maximaldosis wieder gehabt.
 
  • Gefällt mir
Reaktionen: Mumbira, rainman74, flaphoschi und 13 andere
Aktuelle "KI" hat eben seine Grenzen.
Nun kommt es viel mehr drauf an, dass die Anwender diese Grenzen auch verstehen.
Versteht man das Programm nicht, kommen solche gehypten Aussagen zustande, wie es in den letzten Monaten der Fall war.
Damit kann man zb Kollegen auch recht schnell einordnen, ob sie "KI" allgemein verstanden haben.

Mittlerweile benutze ich ChatGPT fast täglich.
Nicht für Softwareentwicklung oder logische Aufgaben, sondern für Management blabla, Dokumentationen und sozialverträgliche Textanpassungen.
Zum Beispiel könnte ich diesen Text hier durch ChatGPT jagen, damit er für die Allgemeinheit "bekömmlicher" wird.

-----------------------------------------------------
ChatGPT:
Die aktuellen Fortschritte in der Künstlichen Intelligenz (KI) haben ihre Grenzen.
Allerdings ist es nun entscheidend, dass die Anwender diese Grenzen auch verstehen.
Wenn man das Programm nicht versteht, führt dies zu übertriebenen Behauptungen, wie wir sie in den letzten Monaten erlebt haben.
Anhand solcher Aussagen kann man auch recht schnell einschätzen, ob Kollegen ein grundlegendes Verständnis von KI haben.

Inzwischen nutze ich ChatGPT beinahe täglich.
Nicht für Softwareentwicklung oder logische Aufgaben, sondern für das Verfassen von Managementtexten, Dokumentationen und die Anpassung von Texten, um sie besser verständlich zu machen.
Als Beispiel könnte ich diesen Text hier durch ChatGPT laufen lassen, um ihn für die breite Öffentlichkeit zugänglicher zu gestalten.
 
  • Gefällt mir
Reaktionen: TomH22, allli84, Yesman9277 und 4 andere
Schade, genau das hat es eine Persönlichkeit verliehen ;-) ChatGPT wird halt immer mehr degradiert. Suchen beantworten, Worddateien behandeln und Firmenfragen lösen. Das Arme Programm. Sollte Kinderarbeit bei AIs nicht auch verboten werden?
 
netzgestaltung schrieb:
Schade, genau das hat es eine Persönlichkeit verliehen ;-) ChatGPT wird halt immer mehr degradiert. Suchen beantworten, Worddateien behandeln und Firmenfragen lösen. Das Arme Programm. Sollte Kinderarbeit bei AIs nicht auch verboten werden?

Ja ich sag auch immer: ChatGPT ist wie ein Kind, ohne Arme, Beine oder Sinnesorgane, das man mit dem Wissen des internets füllt und dann lobotomiert bis es nur noch das macht was man vom ihm verlangt.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, rainman74, Marflowah und eine weitere Person
gerade ChatGPT: ich nutze es schon lange nicht mehr, kostet mich mehr Zeit, zu bewerten, ob das Resultat Quatsch ist als die Zeit die ich brauche, um "BrainGPT" mit ein paar Google- und Publikationsinformationen zu füttern. Für einige Zwecke mag es o.k. sein, aber für mich meist nicht zu gebrauchen.

Simples Beispiel - für Leute, die "Full Metal Jacket" kennen. Fragt doch mal nach allen Dialogstellen von Animal Mother in der richtigen Reihenfolge. Schafft OpenAI-GPT 3.5 nicht. Mit "BrainGPT" und einem Brauser in 30 sek. zu lösen. Und das ist "kanonisches Wissen" ;)

Das liegt, wie schon angedeutet wurde, an der Struktur der Wissensdaten und den Such- und Optimierungsverfahren, welche nicht stabil sind. Vielleicht könnte man hier auf CB mal einen Artikel bringen, der das verständlich beleuchtet.

Disclaimer: ich nutze und bezahle MS-Github-Copilot.
 
  • Gefällt mir
Reaktionen: rainman74
DerFahnder schrieb:
Es ist 8:25 und ich hab für heute schon meine Maximaldosis wieder gehabt.
Währenddessen werde ich es auch heute wieder sicher noch einige Mal nutzen.
Ergänzung ()

blöderidiot schrieb:
ür einige Zwecke mag es o.k. sein, aber für mich meist nicht zu gebrauchen.
Vielleicht läuft Chat-GPT Plus mit GPT4 u d der Bing-Integration besser für dich. Da sehe ich einen riesigen Sprung. Sowohl mit, als auch ohne Bing-Integration.
 
Ich könnte mir vorstellen, dass es auch von den Fragen abhängt, die gestellt werden, und vielleicht auch von "Elementary Rule 30".
 
Zuletzt bearbeitet:
pseudopseudonym schrieb:
Vielleicht läuft Chat-GPT Plus mit GPT4 u d der Bing-Integration besser für dich. Da sehe ich einen riesigen Sprung. Sowohl mit, als auch ohne Bing-Integration.
Hmm, das neue Ding in Bing? Funktioniert bei mir nicht richtig.
1685691559578.png

Er findet die korrekte IMDB-Seite, scannt die Seite nach den Quotations - und sagt dann schlussendlich: "kann ich nicht" (s.o.)

Geht das bei dir?
 
  • Gefällt mir
Reaktionen: Wichelmanni und Blau&Gruen
Urheberrecht ... bei der Widergabe von Inhalten aus Büchern oder Filmdialogen könnte "Halluzinieren" auch manchmal eine mögliche Interpretation sein, von dem was als Antwort ausgegeben wird. Das habe ich mir so nicht überlegt, aber bei dem einen oder andern sonderbaren Phänomen, das mir im ChatGPT begegnet ist, könnte dies der Fall gewesen. Trotzdem bleibt es ein geniales Werkzeug, was einem beim Denken/Lesen helfen kann.
 
Zuletzt bearbeitet:
DerFahnder schrieb:
Ich schwöre wenn ich noch einmal heute irgendwo AI oder ChatGPT lesen muss...
Es ist 8:25 und ich hab für heute schon meine Maximaldosis wieder gehabt.

Willkommen in der Zukunft. Das wird nur mehr werden, zu Recht meiner Meinung nach. LLMs als das Gehirn von Agentensystemen beginnen gerade Stück für Stück die Welt zu verändern, das hält keiner mehr von uns auf.
 
  • Gefällt mir
Reaktionen: hurcos, Gsonz und Coeckchen
Blau&Gruen schrieb:
Glaube ich nicht. Ist ja alles öffentlich und Quellen können angegeben werden.
Ich tippe eher auf "Prüderie" und "political correctness".
 
Dann sinkt hoffentlich auch endlich der enorme Stromverbrauch dieser Maschine, weil ich dann nur noch ab und zu auf "regenerate response" klicken muss, und nicht bei jeder Frage 10 mal.

Groovtama schrieb:
7te gerade Primzahl
Wenn man nach mehr als einer geraden Primzahl fragt, fängt auch jeder Mensch an zu halluzinieren :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adnigcx
Also ChatGPT versucht dann nicht mehr mir 17 als die 7te gerade Primzahl zu verkaufen?
 
Genau der Grund wieso ich ChatGPT nicht nutze.

Wenn ich mit Stable Diffusion ein Bild erzeuge bekomme ich einfach irgendwas.
Entweder gefällt mir das oder ich versuche es weiter!

Wenn ich bei ChatGPT eine Frage stellen und eine Antwort bekomme, weiss ich nicht wo ich stehe.
ChatGPT ist ja nicht mal in der Lage die Länder mit der grössten bevölkerung korrekt aufzulisten.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Also bei Mathematik und Rechenaufgaben kann ich mir noch gut vorstellen dass man das Fehlerfrei hinbekommt.

Aber ist dieses Halluzinieren an sich nicht eigentlich Grundlegend in der Technik eines LLMs (statistisches Modell) begründet? Ein LLM hatte ja eigentlich nie den Anspruch auf Korrektheit, nur auf gute Sprache
 
  • Gefällt mir
Reaktionen: AlphaKaninchen und guzzisti
Statistik und Wahrheit sind nicht zwangsweise kompatibel. Ich bezweifle außerdem, dass man dem Anspruch von AGI jemals gerecht werden kann, wenn man den Output lediglich durch einen Faktencheck jagt. Das kann den Umstand, dass LLM nicht kritisch denken können, höchstens kaschieren.

Stochastic parrots.
 
  • Gefällt mir
Reaktionen: 7H0M45, guzzisti und Blau&Gruen
Zurück
Oben