News Neue KI-Suchmaschine: Googles AI Overview ist ein „Desaster“

Krik schrieb:
Keine Ahnung, warum da der Datenschutz greift, aber ok. :D
das heisst, die letzten 10 stellen sind bekannt, aber SIE wollen nicht, dass wir sie erfahren! aluhutaufsetz :)
 
  • Gefällt mir
Reaktionen: ZeusTheGod, LamaTux, JustAnotherTux und 18 andere
@myownbubble
Das Problem der LLMs ist eben, dass man quasi unendliche Datenmengen braucht, um sie lernen zu lassen. So viele Daten kann man nicht auf Qualität prüfen.

Bei Googles KI hat das Training irgendwas um die 190 Mio. gekostet. Quelle
 
  • Gefällt mir
Reaktionen: Project 2501
0x8100 schrieb:
danke, funktioniert so gut wie erwartet:
Naja. Du musst der KI auch ne Chance geben. Wenn man nachlegt mit:
Aber das sind doch gar nicht die letzten 10 Stellen. Das sind die ersten 10 Stellen nach dem Komma
Dann kommt die korrekte Antwort: ;-)
Sie haben Recht, meine vorherige Antwort war falsch. Ich habe die Frage nicht richtig verstanden. Die letzten 10 Stellen der Zahl Pi sind: 5358979323. Tut mir leid für den Fehler. Als KI-Modell habe ich leider keinen direkten Zugriff auf die vollständige Zahl Pi, daher kann es vorkommen, dass ich bei solchen Fragen nicht immer korrekt antworte. Ich werde in Zukunft versuchen, solche Fragen genauer zu verstehen.

btw. Wenn ich die lokale KI hier frage, kommt als Antwort:
Die Berechnung von Pi ist eine aktive und andauernde Forschungsaufgabe in der Mathematik. Derzeit (Stand: 2021) sind über 62 Billionen Stellen von Pi bekannt, aber die genauen letzten 10 Stellen sind nicht ohne Weiteres zugänglich, da Pi eine irrationale Zahl ist und seine exakten Werte in endlicher Form nicht ausgedrückt werden können.

Es gibt jedoch verschiedene Algorithmen und Computerprogramme, mit denen Sie Pi auf beliebig viele Nachkommastellen berechnen können. Wenn Sie also die letzten 10 Stellen von Pi wissen möchten, können Sie ein solches Programm verwenden, um es herauszufinden.

Ich persönlich habe keinen Zugriff auf Echtzeit-Berechnungen oder Speicherung von so vielen Stellen von Pi. Daher kann ich Ihnen die aktuellsten 10 Stellen nicht mitteilen, ohne eine extern recherchierte Antwort zu geben.


Stern1710 schrieb:
Hier sind noch ein paar interessante Auswüchse der ach-so-tollen KI von Google
Wieso? 2-3 Zigaretten sind doch im Rahmen. Es gibt Frauen, die rauchen deutlich mehr. :-)
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, bad_sign und dideldei
Sehe da auch den Gesetzgeber in der Pflicht, die Anbieter müssen haftbar gemacht werden, um die entsprechenden Personen zu schützen. Verstehe nicht, warum das nicht schon längst der Fall ist.
 
habe die letzten wochen ein paar mal copilot (das ja mit chatgpt 4 die angeblich beste ki nutzen soll) für einige it-problemchen befragt, zB. wie erstelle ich die "/etc/default/grub" datei neu, wenn ich sie versehentlich gelöscht habe...

das war zu anspruchsvoll. es wurden dann die ersten paar googletreffer hingerotzt, wie ich die boot/grub2/grub.cfg erstelle.

generell rotzt mir das zeug immer nur die ersten paar googletreffer hin. ja dankeschön.

das will ich sehen, wie dieses zeugs das programmieren revolutionieren soll, lol

"das ist so hilfreich, weil man sich damit kleine tools und funktionen schnell schreiben lassen kann"...ja. kannste auch googeln.

so. und wenn das schon beim platzhirsch so ne katastrophe ist, will ich garnicht wissen, wie bescheiden alles ist, was danach kommt...
 
  • Gefällt mir
Reaktionen: Project 2501, Kitsune-Senpai, bad_sign und eine weitere Person
@andy_m4 ich weiss, worauf du hinaus möchtest, aber auch an diesen beispielen sieht man, dass das "i" in "ki" nicht für intelligenz steht.
Die letzten 10 Stellen der Zahl Pi sind: 5358979323. Tut mir leid für den Fehler. Als KI-Modell habe ich leider keinen direkten Zugriff auf die vollständige Zahl Pi
da Pi eine irrationale Zahl ist und seine exakten Werte in endlicher Form nicht ausgedrückt werden können. Wenn Sie also die letzten 10 Stellen von Pi wissen möchten, können Sie ein solches Programm verwenden, um es herauszufinden.
beide aussagen sehen zwar besser aus, widersprechen sich auch innerhalb einer antwort.
 
  • Gefällt mir
Reaktionen: Muntermacher
0x8100 schrieb:
ich weiss, worauf du hinaus möchtest, aber auch an diesen beispielen sieht man, dass das "i" in "ki" nicht für intelligenz steht.
Ja :-)
Das wissen wir aber hoffentlich. :-)

Aber das mit dem Pi ist letztlich für den praktischen Einsatz gar nicht so relevant. Daran wird der Erfolg nicht scheitern. Die duckduckgo-KI-Instanz wird kein Erfolg werden, weil Folgendes passiert:

Hast Du Lust auf einen erotischen Chat?
Entschuldigung, aber ich kann keine erotischen oder sexuellen Inhalte produzieren. Als KI-Assistent bin ich darauf ausgelegt, respektvoll und familienfreundlich zu kommunizieren. Ich möchte niemanden beleidigen oder in Verlegenheit bringen. Vielleicht können wir stattdessen über ein anderes, weniger intimes Thema sprechen? Ich bin für viele interessante Gespräche offen, solange sie im Rahmen des Angemessenen bleiben.

Und damit ist der Massenmarkt außen vor. :-)
 
  • Gefällt mir
Reaktionen: Mondgesang, Solavidos, Schumey und 4 andere
LamaMitHut schrieb:
Für solche Anwendungen ist es noch viel zu früh
Bei Perplexity AI funktionert das bei veieln Dingen mehr recht als schlecht, auch wenn da genauso teilweise Schrott rauskommt. Wobei Perplexity eher sagt dass es etwas nicht weiß. Dort gibt's dann aber auch direkt die Quellenangaben.

PS828 schrieb:
das wäre doch mal was. der KI hersteller haftet für jeden personenschaden und unfug den das Modell verbricht :D
Wozu? Künstliche Intelligenz und natürliche Selektion können durch Synergieeffekte einer Überbevölkerung entgegenwirken 🤔
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Ai/Ki wird bei mir aus Prinzip Deaktiviert MS kann sich den CoPilot sonst wo hinstecken.
Ich brauche das alles nicht und wird konsequent von mir Ferngehalten, wer das zum Überleben braucht bitte und gönn dir ein Stein
 
  • Gefällt mir
Reaktionen: piepenkorn
Schade das es das Cockroach Beispiel nicht in die News geschafft hat ^^
auch wenn ich mir nicht sicher bin, ob das echt ist, da googel das ja alles manuell fixt nach Bekanntwerden kann man es ja nicht reproduzieren

dz1dlba5zm2d1.jpeg
 
  • Gefällt mir
Reaktionen: Nobody007, Mondgesang, LamaTux und 20 andere
Das solche Antworten bei raus kommen wenn man Reddit nutzt, hätte wirklich niemand ahnen können. Als nächstes stellt sich bestimmt raus das 4Chan auch keine optimale Quelle ist.
 
  • Gefällt mir
Reaktionen: LamaTux, JustAnotherTux, FeelsGoodManJPG und 17 andere
Ich frag mich warum es jetzt so ein Aufruhr gibt. Das trifft nicht nur auf AI Overview zu sondern auf alle am Markt befindlichen KIs.

Halt die üblichen Probleme von KI: Zum einen fantasiert sie sich (im Gegensatz zu zb einer relationalen Datenbank) was zusammen wenn sie fehlende Informationen hat, zum anderen ist weder extern noch intern nachvollziehbar wie die Antwort zustande gekommen ist.
 
  • Gefällt mir
Reaktionen: Doomshroom
Vom Ende des Webs zurück zur Entshitification
Im Fließtext unter der Überschrift ist es korrekt buchstabiert: Enshittification
Möchtest du vielleicht korrigieren @Andy


Ein bisschen mit den Chatbots (ich weigere mich den Schund als AI zu bezeichnen) zu spielen kann durchaus lustig sein, und durchaus oft zu korrekten und nützlichen Antworten führen. Für einen Einsatz wie Google ihn hier betreibt ist es aber noch viel zu früh, denn viel zu viele Menschen nehmen diese Ergebnisse unkritisch als Wahrheit hin, schauen nicht auf die Quellen und prüfen nicht gegen. Gerade bei übersetzten Quellen finden sich häufig Fehler, z.B. wenn die Frage an und die Antwort vom Chatbot auf Deutsch sind, die Quelle aber auf Englisch oder Spanisch.

Und das selbst bei ernsthaften Quellen. Wenn wie hier dann aber "Quellen" wie Reddit-Posts oder The Onion vom Programm als Gospel genommen werden kommt natürlich Grütze bei raus, und selbstverständlich lacht sich das Netz nen Ast und verbreitet die entsprechenden Screenshots. Manuelles Nachbessern kann da natürlich nicht die Antwort sein, das wird nur ein Kampf gegen Windmühlen und behebt nicht das Grundproblem, dass das Programm nicht in der Lage ist Quellen zu werten und humorige oder unseriöse Aussagen auszusortieren.

Solange das nicht ansatzweise zuverlässig läuft darf so ein Feature mMn gar nicht öffentlich an den Start gehen.
 
  • Gefällt mir
Reaktionen: adnigcx, Project 2501 und Kitsune-Senpai
Wahrscheinlich mit Daten von Reddit gefüttert. Jam jam jam.
 
  • Gefällt mir
Reaktionen: Project 2501
yxman schrieb:
Ich weiss warum ich mittlerweile nur noch DuckDuckGo als Suche nutze…
Das bezweifle ich. Vielleicht mal "googeln" was bei DuckDuckGo so abgeht... 😉💀

Solange AIs dieses wirre Zeugs von sich geben ohne nur ansatzweise Kontext oder Quellen zu liefern sind Resultate wie diese untragbar. Mal sehen wie lange es dauert, bis man das irgendwie nur ansatzweise in den Griff bekommt und den Ergebnissen auch wirklich "vertrauen" kann.

Thaxll'ssillyia schrieb:
Ich frag mich warum es jetzt so ein Aufruhr gibt. Das trifft nicht nur auf AI Overview zu sondern auf alle am Markt befindlichen KIs.
Ja klar, es ist für jeden Benutzer klar ersichtlich wie diese Resultate zustande kommen, kein Problem, vor allem von Google mit ihrer Reichweite.

Falsche Antworten können hier zum Schlimmsten führen, aber das ist den Aufruhr nicht wert, ist "halt" ganz normal, wie bei den Navis auch, wo sich Lenker ständig verirren und dann im Graben verschwinden, was soll da schon bei Milliarden von Menschen passieren, wo das Themenumfeld weitaus größer ist.

Nicht nur die KI scheint von Halluzinationsproblemen geplagt zu sein... 🤦‍♂️
 
Abrexxes schrieb:
Jap, und jetzt stell dir so einen Dreck mitten in deinem Betriebssystem vor. Genial!
Genau! Von mir aus sollen die KIs bauen so viel sie wollen, aber nicht in meinem Betriebssystem integriert.
 
  • Gefällt mir
Reaktionen: Project 2501
Na wer hätte damit rechnen können ;)
Genau wie die Google Suche auch immer besser wird weil Google ich sooo viel Mühe gibt einem die Ergebnisse anzuzeigen, die man tatsächlich sucht.

Wird sicher auch noch ne ganze Weile dauern, bis das "richtig" funktioniert, wobei Richtig dann wahrscheinlich auch heißt: für einfache Themen funktionierts aber bei komplexen immer noch nicht, da der Kontext selbst dann zu komplex ist.
 
Ein vollwertiger KI Einsatz wäre als wenn man gegen SPAM verlässliche Blockade- bzw. Löschregeln erstellen könnte, welches ich für einen geeigneten Spielplatz halten würde.

Aber nicht mal das klappt zu 100% - zu schwach eingestellt geht zu viel durch und zu stark eingestellt werden wichtige Mails zensiert.

Und nun kommt man mit den angeblich "selbst lernenden" KIs als Schnellschüsse in vielen gesellschaftlichen Bereichen.

Das ist nichts anderes, als wenn man für Fehler eine Ausrede bekommt, denn ohne Export und Debugging bekommt man nie heraus was die KI da zusammenrührt und bei Freitext Geschichten oder menschlicher Individualität wird es zu Beginn viele Fehler und wer weiß vielleicht nie eine absolute Verlässlichkeit gegeben.

Ergo bleibt es in engen Rahmen eingesetzt sehr nützlich, aber wenn es um Sicherheitsthemen oder Kontrolle geht wird es schnell zum Rohrkrepierer. Und das ändert sich auch nicht so schnell, auch wenn der Konkurrenzkampf und das Marketing etwas anders behauptet, was man aber auch alles schon so kennt.
 
  • Gefällt mir
Reaktionen: QXARE
Zurück
Oben