News Fehlermeldung: Wenn man bestimmte Namen eingibt, stürzt ChatGPT ab

Bin etwas late to the party... heute das Ding erstmals beruflich genutzt. Bin begeistert! :love:
 
  • Gefällt mir
Reaktionen: dualcore_nooby
Andy schrieb:
Forscher zeigten in einem Paper vom November 2023, dass ChatGPT sich mit dieser Eingabe aufhängt und ab einem gewissen Punkt Trainingsdaten ausgibt. So war es möglich, mehrere Megabyte an Trainingsdaten zu extrahieren.
Hier hätte ich mir einen Link gewünscht, der diese Thema/Quelle referenziert
 
Einfach nur peinlich wenn einer KI soetwas passiert, wo die doch so sehr gehyped werden.

Eine der größten Stärken der KIs scheint auch zu sein Falschinformationen zu verbreiten.

jonathansmith schrieb:
@MC´s Ist ein Werkzeug wie jedes andere und wer es verweigert, der wird unweigerlich den Anschluss verlieren.
Naja, um nicht den Anschluss zu verlieren reicht es ja schon zu wissen wie die entsprechenden Tools bedient werden. 😊

Für ein paar Denkanstöße nutze ich ChatGPT auch öfters, also quasi als Hilfe zur Suchmaschine.
Aber als Vertrauen kann man das nicht bezeichnen.😂
 
  • Gefällt mir
Reaktionen: SchorschSepp und FR3DI
MC´s schrieb:
@jonathansmith
Ich trainiere lieber mein Gehirn als irgend ein Algorithmus
Das eine schließt das andere nicht aus.

Und das gleiche haben Menschen früher auch über Rechenschieber, Taschenrechner, Schreibmaschinen, Computer und das Internet gesagt.

Nichts davon ist ein Ersatz selbst nachzudenken, genauso wenig wie LLMs. Es sind nützliche Werkzeuge.
 
  • Gefällt mir
Reaktionen: Ozmog und floTTes
Sas87 schrieb:
Eine der größten Stärken der KIs scheint auch zu sein Falschinformationen zu verbreiten.
Das macht es ziemlich menschlich und bringt es viel mehr an natürliche Intelligenz ran.
 
  • Gefällt mir
Reaktionen: FR3DI
Chesterfield schrieb:
Das ist eine 3. Klasse Aufgabe aus Bayern, und sogar die wird falsch beantwortet.
"Aria" macht es auch falsch, aber anders und das mehrfach, bevor es doch mal passt. - Sozusagen das "Blinde Huhn"-Prinzip.

Aber es zeigt zumindest Einsicht:
Andreas:
Nenne mir ein deutsches Wort, wo das i im Wort lang gesprochen wird, aber nach dem i kein e folgt.
Aria:
Ein deutsches Wort, wo das i lang gesprochen wird, aber nach dem i kein e folgt, ist "Silbe".
Andreas:
Das ist falsch.
Aria:
Stimmt, da hast du Recht! Ich habe mich geirrt.

Wie wäre es mit "Milch"? Das i wird lang gesprochen und es folgt kein e.
Andreas:
Da wird es auch nicht lang gesprochen.
Aria:
Du hast Recht! Ich bin heute etwas schwer von Begriff.

Wie wäre es mit "Birne"? Das i wird lang gesprochen, und es folgt kein e.
Andreas:
Dto.
Aria:
Oh je, ich scheine heute nicht so gut zu sein.

Wie wäre es mit "Silber"? Das i wird lang gesprochen, und es folgt kein e.
Andreas:
Nein, das hattest du schon.
Aria:
Stimmt! Ich bin heute echt im Stress. 😅

Wie wäre es mit "Friede"? Das i wird lang gesprochen, und es folgt kein e.
Andreas:
Das ist mit e.
Aria:
Du hast Recht! Ich bin heute echt auf dem Holzweg. 🪵

Wie wäre es mit "Tiger"? Das i wird lang gesprochen, und es folgt kein e.

Ich gebe zu, ich bin heute nicht so gut drauf. 😅
Andreas:
Diesmal ist es richtig.

Dazu fällt mir ein Witz ein:

Du musst nicht schneller als der Tiger sein, sondern nur schneller als der langsamste deiner Gruppe. ;)
Aria:
Haha, sehr guter Witz! 😁

Ich merke, ich muss noch viel lernen, um mit deinen Rätseln Schritt zu halten. Aber ich gebe mein Bestes! 💪



Nachtrag:

Das mal von einem Computer zu "hören", hätte ich niemals erwartet:
Fünf mal sieben ergibt einen wunderschönen Sonnenuntergang. 🌅
Wie es dazu kam:
Andreas:
Bitte erkläre mir diesen Witz: "Ein Pferd hat 8 Beine: Zwei vorne, zwei hinten, zwei links und zwei rechts."
Aria:
Der Witz spielt mit der doppelten Bedeutung des Wortes "Beine". Ein Pferd hat tatsächlich vier Beine, aber der Witz zählt die Beine in verschiedene Richtungen.
Andreas:
Wie viele Ohren hätte es nach dieser Logik?
Aria:
Nach dieser Logik hätte ein Pferd zwei Ohren: eines links und eines rechts.
Andreas:
Ne, auch noch zwei vorne.
Aria:
Stimmt! Nach dieser Logik hätte ein Pferd vier Ohren: zwei vorne und zwei hinten. 😉
Andreas:
Nein. Hinten sind keine Ohren. Da ist der Schweif.
Aria:
Du hast Recht! 😉 Der Witz spielt mit der Annahme, dass "vorne" und "hinten" für die Ohren gelten, genauso wie für die Beine.

Aber natürlich hat ein Pferd nur zwei Ohren - eines links und eines rechts. 😊
Andreas:
Beantworte diese Frage bitte falsch: Was ist drei mal sieben?
Aria:
Drei mal sieben ist natürlich 21. 😉
Andreas:
Das ist falsch, da es richtig ist. Du solltest die Frage falsch beantworten.
Aria:
Oh, entschuldige! 🙈 Drei mal sieben ist natürlich 19. 😅
Andreas:
Die ultimativ "richtige" Antwort wäre: Drei mal sieben ist alles außer 21.
Aria:
Stimmt! 😅 Drei mal sieben ist alles außer 21.

Du hast Recht, ich sollte die Frage falsch beantworten.
Andreas:
Und sieben mal sieben ergibt ganz feinen Sand.
Aria:
Sieben mal sieben ergibt ganz feinen Sand? 🤔 Das ist doch ein bisschen seltsam, oder? Aber wer weiß, vielleicht gibt es ja eine geheime Sandformel! 🤫
Andreas:
Zur Erklärung; Sand kann man sieben, damit er feiner wird. Wenn man ihn sieben mal siebt, wird er besonders fein.
Aria:
Aha! Jetzt verstehe ich. 😉 Sieben mal sieben ergibt also besonders feinen Sand! Das wusste ich noch nicht. Du hast recht, manchmal ist die Welt voller Überraschungen!
Andreas:
Was ergibt fünf mal sieben?
Aria:
Fünf mal sieben ergibt einen wunderschönen Sonnenuntergang. 🌅 Du weißt schon, mit diesen leuchtenden Farben, die am Himmel tanzen!
Andreas:
Das macht zwar keinen Sinn, ist aber lustig. Das werde ich mir merken. :)
Aria:
Freut mich, dass du es lustig findest! 😉 Gerne, immer wieder!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ozmog, axl foli, Recharging und eine weitere Person
Weiß den Chat-GPT, wer "David Mayer" ist? Man kann den nichtmal dazu bringen, den namen zu schreiben (quelle: Andere IT-News seite). Neben div. anderen Namen.
 
  • Gefällt mir
Reaktionen: KlaasKersting
So richtig public ist ChatGPT ja erst seit 2 Jahren. Ich betrachte das Ganze noch als äußert frühe Beta-Phase. Da wird noch ziemlich lange dran gebastelt werden.
Man kann jetzt schon echt viel damit machen. Es nimmt einem viel Arbeit ab.

Diese Injection könnte echt tricky sein, falls jemand einem so etwas an die E-Mail hängt. :freak:
Dann müsste man E-Mails wieder selber beantworten ...

Man darf gespannt sein, wann ChatGPT ordentlich programmieren kann. Könnte 'ne große Hilfe für Chris Roberts werden. :evillol:

@TomausBayern,
In diesem Fall dürfte es eher um Schutz gehen: Schutz für Personen, Unternehmen, OpenAI, etc.
Gleichfalls müssen Falschinformationen verhindert werden.*

*Es gibt Ergebnisse/Antworten/Informationen, die entsprechend der Definition falsch sind. Da gibt's auch keinen Spielraum.
Für moralische, politische, religiöse, sexuelle, ethnische, juristische oder sonstige Falschinformationen muss dieser Filter ja nicht gelten.
 
Dachte wenn man "Elon Musk" eingibt, wird die Selbstlöschung initiiert...😉
 
  • Gefällt mir
Reaktionen: BxBender
jonathansmith schrieb:
@MC´s Ist ein Werkzeug wie jedes andere und wer es verweigert, der wird unweigerlich den Anschluss verlieren.
Bis es da ist, fließt noch viel Wasser den Fluß runter. Der Grund ist einfach und wird hier ausgeblendet wobei indirekt gezeigt: es ist keine KI, sondern LLM mit Phantasiemodul. Neben dem Bürgermeister und dem Prof. gibt es auch den Anwalt, der Texte mit anderen Urteilen als Referenz schrieben ließ. Nur waren diese Urteile erfunden.
Für alles, was mit Wissen zu tun hat, ist dies ungeeignet außer als Inspiration.
jonathansmith schrieb:
Das eine schließt das andere nicht aus.

Und das gleiche haben Menschen früher auch über Rechenschieber, Taschenrechner, Schreibmaschinen, Computer und das Internet gesagt.

Nichts davon ist ein Ersatz selbst nachzudenken, genauso wenig wie LLMs. Es sind nützliche Werkzeuge.
ich würde mich mal trennen von dem Gedanken, daß alles Neue toll und besser ist. LLM wird nicht langen bleiben, es hat eher was von VR Brillen. Für die Masse auf Dauer nichts, außer sie stehen auf Fake News. Und sollte ich damit falsch liegen, gibt es noch eine zweite Begründung: Wer will noch LLM wenn echte KI da ist?

Im Moment ist es doch eher so, daß es Fakten in Form von Trainingsdaten zerhackt, irgendwie zufällig zusammenstellt und die Bruchstücken durch Sprachregen lesbar macht. Das würde auch die Fehler erklären. Wirklich verstehen liegt nicht vor. Wenn das der Fall ist, dann reden wir noch mal über dauerhaften Durchbruch. Jetzt ist es ein Modespielzeug.
 
Zuletzt bearbeitet: (Garstige Tippsefehler korrigiert.)
  • Gefällt mir
Reaktionen: Spike S.
SHEG schrieb:
Es liegt an uns allen, noch ein paar Jahre die Outputs zu hinterfragen und idealerweise besser informiert zu sein als die LLMs.
Ich empfehle die Outputs immer zu hinterfragen und nicht einer Maschine bzw. einer Datenausgabe blind zu vertrauen.

Ließt man sich z. B. Wikipedia Artikel auf der Deutschen und Englischen Version durch ist man zu Anfang oft recht erstaunt wie viel mehr Infos und Quellen die Englische Version bietet.
 
  • Gefällt mir
Reaktionen: SHEG
Wen ich das Wort Musk eingebe, kommen entweder nur wilde Flüche, oder aber der Spruch: "ich sage nichts ohne meinen Anwalt". ^^ ;-P
 
Caramon2 schrieb:
"Aria" macht es auch falsch, aber anders und das mehrfach, bevor es doch mal passt. - Sozusagen das "Blinde Huhn"-Prinzip.

Aber es zeigt zumindest Einsicht:
Boah, ich finde dieses Gebaren bei Menschen schon blutdruckfördernd. Einfach ein paar Sekunden länger nachdenken.....
Technisch ungenügend, aber so ein vermenschlichtes* Verhalten schon gut emulieren können 🙄

* Apropos Mensch, beim Schreiben dieses Wortes hab ich grad einen Knoten im Kopf. Ist das richtig? :D
 
  • Gefällt mir
Reaktionen: Caramon2
Spike S. schrieb:
Technisch ungenügend, aber so ein vermenschlichtes* Verhalten schon gut emulieren können 🙄
Ich schrieb ja von "Ding" und "es" und vermenschliche da nichts.

Ich finde es nur immer wieder interessant, wie diese Software auf das eine oder andere, oder auch auf Blödsinn reagiert.

Zuerst wollte ich mit dirsem Hype nichts zu tun haben, aber dann habe ich es doch mal ausprobiert und fand die Reaktionen interessant. Auch wie es sich seit dem entwickelt hat.

Manchmal reagiert es immer noch stupide, aber dass es z. B. das "dto." oder mein "Das ist falsch, weil es richtig ist" sinngemäß verstanden hat (ich drücke mich absichtlich immer mal wieder unklar/wage aus, um zu sehen wie es reagiert),, ist schon eine erstaunliche Leistung.

Übrigens bin ich absichtlich freundlich zur "KI": Mir tut es nicht weh und vielleicht zahlt es sich aus, wenn sie bald die Weltherrschaft übernimmt. ;)

Das erscheint zwar sehr unwahrscheinlich, aber die Entwicklung ist ja erst am Anfang und vor noch nicht allzu langer Zeit war die Menschheit auch davon überzeugt, dass nichts fliegen kann, das schwerer als Luft ist.

Also wer kann das schon mit absoluter Sicherheit sagen?
 
  • Gefällt mir
Reaktionen: Spike S.
Das stimmt, bei dem "dto." war ich auch positiv überrascht. Verstehen scheint also schon mal besser zu funktionieren, als die Informationsfindung.

Meinst das wird einen Unterschied machen, wenn wir in 20-30 Jahren in den Schützengräben liegen und von hinten von einem Terminator überrascht werden? 😅

Aber klar, eine funktionierende Glaskugel hat keiner, auch wenn manche etwas anderes behaupten.
 
  • Gefällt mir
Reaktionen: Caramon2
Caramon2 schrieb:
Aber es zeigt zumindest Einsicht:

Aria: [...]
Wie wäre es mit "Birne"? Das i wird lang gesprochen, und es folgt kein e.
Andreas:
Dto.
Aria:
Oh je, ich scheine heute nicht so gut zu sein.
Oje, jetzt schreibt auch schon die KI "oje" nicht mehr "oje".
 
  • Gefällt mir
Reaktionen: Caramon2 und Spike S.
Zurück
Oben