News Bing-Suche mit ChatGPT: Microsofts Fazit nach 7 skur­rilen und fehlerhaften Tagen

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Man darf tatsächlich nicht vergessen, dass diese KI ein probabilistisches LLM ist, welches kein eigenes, logisch konstruiertes Verständnis von der Materie hat, sondern lediglich sprachliche Plausibilitäten sucht. Im Grunde ist es eine Simulationsmaschine im Sinne Turings, die uns mittlerweile fast perfekt imitieren kann ... mit allen Stärken und Schwächen, die im weiten Datensatz liegen.

Fachlich uneindeutige, einseitige bis hin zu unsinnige Outputs kommen vor allem deshalb zustande, weil die KI den in ihrer Qualität und Quantität mitunter stark variierenden Datensatz nicht methodisch lesen kann. Dahinter steckt ja kein hermeneutisches Modell mit spezifischen Fachkenntnissen, die es erlauben, Positionen genau auszuwerten und einzuordnen. Das ist zum Teil wirklich dem Zufall überlassen, wenn sich die Antwort nicht nach statistischen Prinzipien finden lässt. Daher sollten wir auch unsere grundsätzliche Erwartungshaltung dahingehend anpassen, keine reflektionsfähige Intelligenz zu erwarten. Simulation von Reflektion, so würde ich es bezeichnen.
 
  • Gefällt mir
Reaktionen: breedmaster, hans_meiser, der|pate und eine weitere Person
C.J. schrieb:
[...]

Wie wird sowas eigentlich geprüft? Wenn ich Software schreibe, kann ich doch nicht einfach ungeprüft irgendwelchen Fremdcode reinpasten und davon ausgehen, dass er das tut, was ich will. Das wäre mir viel zu viel Risiko, wenn die Software später Blödsinn macht und ich dafür haften muss.
Eventuell fehlt hier die Erfahrung in dem Bereich, aber das ist eigentlich gar kein Problem. Wenn man den bereitgestellten Code liest, erkennt man eigentlich schon direkt ob er das macht, was er machen soll. Spätestens mit Tests kann man sich hier endgültig absichern.

Es ist sogar ganz interessant, wenn man die Engine auf Fehler oder mögliche Verbesserungen hinweist, bekommt man auch höflich eine korrigierte Fassung geliefert.
 
Habe ChatGBT gerade mal ausprobiert.
Meine Frage war: Welches ist die schnellste CPU für computer gaming?

Antwort:
The fastest CPU for computer gaming will depend on various factors, such as the specific game, the graphics card being used, and other components in the gaming PC. However, currently, one of the fastest CPUs for gaming is the Intel Core i9-12900K, which was released in 2021.
Das ist doch clever geantwortet. Er sollte aber häufiger hier auf CB seine Bibliothek auftanken.

Denn beim Satz:
... the graphics card being used
gibt es Abzüge. Zudem leben wir ja in 2023 u. es hat sich schon was getan.
 
Zuletzt bearbeitet:
C.J. schrieb:
Wie wird sowas eigentlich geprüft? Wenn ich Software schreibe, kann ich doch nicht einfach ungeprüft irgendwelchen Fremdcode reinpasten und davon ausgehen, dass er das tut, was ich will. Das wäre mir viel zu viel Risiko, wenn die Software später Blödsinn macht und ich dafür haften muss.
Von Hand oder durch automatische Tests. Ich lese Code natürlich auch, bevor ich ihn einfüge. Über einen Pull-Request guckt auch noch mindestens eine weitere Person rüber. Man könnte auch sagen, dass man sowieso immer davon ausgeht, dass der Programmierer Mist gebaut haben könnte.
 
Artikel-Update: Um die Bing-KI vom Eskalieren abzuhalten, beschränkt Microsoft die Anzahl der Chat-Anfragen. Von nun an liegen die Grenzen bei 50 pro Tag sowie bei fünf pro Chat-Session, schreiben die Entwickler in einem Blog-Beitrag. Haben Nutzer in einer Chat-Sitzung die Fünf-Anfragen-Grenze erreicht, werden sie aufgefordert, ein neues Thema zu starten.

Das Problem ist wie oben beschrieben: Einer der Gründe für die kuriosen Antworten sind zu viele Chat-Anfragen innerhalb einer Sitzung – diese verwirren das KI-Modell, weil es den Kontext nicht mehr präzise zuordnen kann. Am Ende jeder Chat-Sitzung wird der Kontext daher entfernt.

Laut Microsoft nutze die große Mehrheit innerhalb einer Chat-Sitzung ohnehin nur fünf Anfragen oder weniger. Und nur rund 1 Prozent habe Chat-Sitzungen mit mehr als 50 Nachrichten.
 
  • Gefällt mir
Reaktionen: Kazuja und Xood
Stimmt, gerade war ich mit ihm am Chatten und irgendwann sagte sie dass ich nun ein neues Thema starten müsste. Schade. Aber ok, und verständlich. Das ist dann eben eine der Baustelle an denen gearbeitet werden könnte.
Aber besser als Alex, Siri und Co. ist sie ja schon lange und ich kann es kaum erwarten bis z.B. Alexa auf dem Level ist. Dann wird einiges deutlich bequemer.
 
Und wieder etwas Cooles deutlich uncooler gemacht, um das eigene Image zu wahren. Ist zwar verständlich, wenn so viele Leute mal wieder nicht verstehen, dass so ein System halt nicht perfekt sein wird, aber schade ist es dennoch. Unterhaltungen führen und die Grenzen des System austesten war sehr unterhaltsam.
 
  • Gefällt mir
Reaktionen: drmaniac
7H0M45 schrieb:
Ich mein wir wissen ja, dass das Ding nicht wirklich intelligent ist sondern nur statistische Wahrscheinlichkeiten berechnet welches die passenden Worte sind. Solche Sätze passen für mich da irgendwie nicht rein.
Woher kommt diese Info, dass das reine probability Modelle sind?
 
1676744466188.png


Also selbst als jemand der über Trump kein gutes Wort verlieren würde, finde ich es sehr bedenklich, wie schnell OpenAI einfach nur zu einem weiteren Filterblasentool wurde.

Ein wenig Neutralität würde nicht schaden.
 
  • Gefällt mir
Reaktionen: TodboT, ro///M3o, Zockmock und 2 andere
Makkaroni schrieb:
gibt es Abzüge. Zudem leben wir ja in 2023 u. es hat sich schon was getan.

Deshalb steht auch direkt auf der Startseite, dass es nur Daten bis 2021 hat. Soweit also alles in Ordnung.
 
  • Gefällt mir
Reaktionen: Tr0nism und Schatten123
Wow, Microsofts neues Bing-Update mit dem ChatGPT-Motor ist ja anscheinend ein echter Knaller! Wer hätte gedacht, dass eine KI-basierte Suchmaschine tatsächlich fehlerhafte und skurrile Antworten liefern würde? Das ist ja völlig überraschend und neu! Aber keine Sorge, Microsofts erstes Fazit ist dennoch positiv, denn die Mehrheit der Nutzer ist angeblich zufrieden. Und wenn es mal nicht so gut läuft, kann man ja immer noch auf das hilfreiche Feedback der Community zählen. Denn schließlich wissen wir alle, dass die Entwicklung von KI nicht im Labor, sondern nur durch unzählige Aussetzer und Fehler in der echten Welt funktionieren kann.

Und auch die Tatsache, dass Bing ähnliche Probleme wie Googles Bard-Präsentation hat, ist wirklich überraschend. Wer hätte gedacht, dass KI-basierte Suchmaschinen Schwierigkeiten bei der Auswertung von Finanzberichten und der Berechnung von Kinoterminen haben könnten? Das ist ja fast so, als ob sie nicht perfekt wären.

Aber hey, Microsoft ist ja bereits dabei, diese kleinen Probleme zu lösen. Bald soll die Menge der in das Modell eingepflegten Basisdaten vervierfacht werden, damit auch Fragen nach Sport-Ereignissen korrekt beantwortet werden können. Und falls die KI mal wieder zu lange Chat-Sitzungen hat und den Ton verliert, können Nutzer einfach per Knopfdruck eine Art Neustart verpassen. Super praktisch, oder?

Und keine Sorge, auch bei beleidigenden Äußerungen und Hetze ist Microsoft dran. Die KI-Variante soll in Zukunft selbstverständlich nicht mehr rassistisch, sexistisch oder diskriminierend antworten. Denn wir wissen alle, dass KI natürlich von Natur aus nicht diskriminieren würde. Das machen nur die Nutzer, die sie mit ihren Fragen beeinflussen.

Insgesamt sieht es also wirklich rosig aus für Microsofts Bing-Update. Und wenn es mal nicht so gut läuft, können wir ja immer noch auf die täglichen Überarbeitungen des KI-Modells zählen, die sicherlich alle Probleme lösen werden. Denn schließlich wissen wir ja, dass KI immer besser wird, je öfter man sie trainiert.
 
Conqi schrieb:
Und wieder etwas Cooles deutlich uncooler gemacht, um das eigene Image zu wahren. Ist zwar verständlich, wenn so viele Leute mal wieder nicht verstehen, dass so ein System halt nicht perfekt sein wird, aber schade ist es dennoch. Unterhaltungen führen und die Grenzen des System austesten war sehr unterhaltsam.
https://chat.openai.com/auth/login

Das geht auch weiterhin. Nur nicht über MS.
 
Xood schrieb:
Stimmt, gerade war ich mit ihm am Chatten und irgendwann sagte sie dass ich nun ein neues Thema starten müsste. Schade. Aber ok, und verständlich.
Das zugrundeliegende Modell vergisst so ab dem 6. - 7. Input den Kontext. Auch schon aus der Perspektive des sinnvollen Nutzens, macht die Limitierung mehr als Sinn, man kriegt danach höchstwahrscheinlich Antworten die nicht in den Kontext der ersten Frage passen.

Grundsätzlich ist es wie viele schon gesagt haben ein probabilistisches Modell. Während des Trainings erlernt das Modell wie die menschliche Sprache aufgebaut ist und welche Wörter mit welchen Konzepten verbunden sind und in welchen Zusammenhang diese stehen (gehen, laufen, fahren z. B. beschreiben das Konzept der Fortbewegung).
Wenn man nun das trainierte Modell, verwendet, versucht es als Sequenzmodell einfach nur das nächste Wort vorherzusagen. Das passiert aber nicht ganz naiv, es werden Wörter gesucht die in den Kontext des Inputs passen und die Wahrscheinlichkeit maximieren die passende Antwort zu sein.
Jetzt sind eben viele der passenden Antworten auch die richtigen Antworten, das Modell "weiß" aber zu keinem Zeitpunkt was richtig oder falsch ist, da es nur die probabilistische Verteilungen von Wörter und Konzepten etc. innerhalb der menschlichen Sprache erlernt hat.

Wer genauer wissen will wie das Modell funktioniert kann sich auch diesen gut verdaulichen und fachlich größtenteils richtigen Artikel von Golem durchlesen.
 
  • Gefällt mir
Reaktionen: Xood
Ich will keine zensierte und gefilterte Suchmaschine. Schade, so wird unendliches Potential zerstört.
 
  • Gefällt mir
Reaktionen: Zockmock und Tr0nism
Ja, Chat-GPT ist noch mit Vorsicht zu genießen, man darf halt nicht alle Treffer 1:1 und ohne manueller Überprüfung übernehmen.

Aber vielleicht wird es mit der Zeit genauer.
 
Mit Verlaub, wenn ich mich auf einen derartigen Bot verlassen müsste, wäre ich verloren. Ich bin, was AI betrifft ganz klassisch unterwegs. Meine AI ist eine echte KI. Der Rechner dazu ist zwischen meinen Ohren verbaut. Seit meiner Geburt. Und die Maschine wird tag-/täglich besser.

Ich habe mein Wissen in meinem Leben, meiner Ausbildung und meinen Studien erlernt und aufgebaut. Z.B. weiß ich im Gegensatz zu den ganzen Klima/-Ökofreaks, daß man Energie weder verbrauchen noch generieren kann. Da gibt es sowas wie das Energieerhaltungsgesetz. Auch weiß ich, wie Wissenschaft wirklich funktioniert. Durch Beobachtung und Schlußfolgerungen. Es muß nicht zwangsläufig stimmen. Es ist nur sehr wahrscheinlich daß es stimmen könnte.

Selbst in der Physik,bei der der allgemein gebildete Mensh denkt, es sei alles auf Naturgesezten aufgebaut, weiß man nicht immer weiter. So passt Einstein und seine Theorien nicht zur Quantenphysik. Man muß etwas, in diesem Fall die Dunkle Materie bzw. Dunkle Energie erfinden und einführen, um beide Welten zur Zusammenarbeit zu bewegen.

Man sollte sich auf seinen Verstand, die Logik und sein Hirn verlassen, statt solche Bot's als referenz zu nutzen. Aber das Lernen die Kiddies vermutlich ebensowenig wie die Nutzung des eigenen Hirns. Stattdessen sind sie lieber ein Versager vor dem Herrn, kleben sich auf irgendwelchen Gassen fest und erfreuen sich, wenigstens so in die Nachrichten zu kommen.
 
  • Gefällt mir
Reaktionen: Wechsler und efferman
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben