News Neue KI-Suchmaschine: Googles AI Overview ist ein „Desaster“

Eine AI mit Reddit trainieren... Was kann dabei nur schief gehen? Achja, das hier:

1716773502721.png
 
  • Gefällt mir
Reaktionen: Relict, Herdware, Schumey und 2 andere
User mit Hirn können solche falschen Antworten sofort identifizieren und nen Piss drauf geben. Leider hat gefühlt der Großteil der Internetuser kein Hirn bzw. nutzt es nicht. Da wird blind geglaubt was Google sagt und das macht es so gefährlich.
 
  • Gefällt mir
Reaktionen: tritratrullala, Benjamin_Blume, aid0nex und 5 andere
Hm erst kürzlich ein Youtuber gesehen der wohl aktuelle Probleme mit eben YouTube hat , strikes kassiert für totalen Blödsinn und aktuell davon ausgeht das ein bot/ki seine strikes ausführt und auch wenn er Manuels begutachten anfragt kein Mensch mehr dahinter sitzt sondern der bot

Scheinbar haben Google/YouTube da schon ihre KI voll im Einsatz und ruinieren damit Mal eben den Lebensunterhalt mancher Menschen

Finde das wenn das alles korrekt sein sollte YouTube bzw Google gewaltige Strafzahlungen aufgezwungen werden sollten

Auch wenn das am Ende nur zur Hälfte stimmt finde ich das eine Frechheit , man bereichert sich an den Werbeeinnahmen und ein bot striked die kontenterzeuger die bekommen nichts
 
  • Gefällt mir
Reaktionen: aid0nex, Schumey, Project 2501 und eine weitere Person
Soviel zu fehlerfreien Ai die gibt es nicht und deswegen wird sich das auch nicht durchsetzen
wer einmal begriffen hat wie ne ai funktioniert versteht auch das Fehler bewusst sind nur fehlt der ai ein bezug zur Realität. Und konsequenterweise ein Bewusstsein ws lernt.
Ai ist pure Mathematik und dessen regeln in binären system und weil es binär ist, ist es beschränkt.
Ein algo wird immer genauer sein aber man muss den selber als mensch erstellen.
Wo ai helfen kann ist bei upscaling sowie chatbots für die unterhaltung
Das ersetz kein Arbeitsplätze und ersetz keine stupide Arbeitsabläufe. Ein algo ist keine ai.
 
  • Gefällt mir
Reaktionen: Mondgesang
Ich frag mich warum das den Leuten erst "jetzt" auffällt.

Ich habe bzw. Nutze das öfter für Fragen bei rätseln, und bisher scheitert die gnadenlos.
Aber halt nicht nur das, Microsoft bzw. Chat gpt sagt dann wenigstens "tut mir leid ich kenne die Antwort nicht"

Gemini haut auf jede Frage eine Antwort raus, und die teilweise unglaublich plausible, auch begründet, ist aber Grottenfalsch.

Ich sehe generell viel Potential in der Suche, wenn einem die ki 3h Recherche nah einem Produkt spart, dann sind die Leute später bestimmt auch bereit dafür zu zahlen.
Aber dann muss halt die Qualität stimmen.

Die Haftungsfrage kommt erst noch...
 
  • Gefällt mir
Reaktionen: Project 2501
Naja die Ki ist so schlau, wie die Daten, mit der man sie gefüttert hat. Erwartet da jemand wirklich so viel mehr?

Ich war letztes Jahr auf einer Konferenz, wo es auch hauptsächlich um AI ging und ich habe denen alle die gleiche Frage gestellt, wie hoch ist der Aufwand zu validieren, ob die Antworten richtig sind und ob es dann nicht doch einfacher ist, es direkt selbst zu machen.

Btw. sowas wie Coding in Homeassistant ist es ganz praktisch als Hilfe
 
Krik schrieb:
Das Problem der LLMs ist eben, dass man quasi unendliche Datenmengen braucht, um sie lernen zu lassen. So viele Daten kann man nicht auf Qualität prüfen.
Das Problem ist glaube ich eher, dass es keine wirkliche Intelligenz ist sondern vorallem Mustererkennung / Mustererzeugung. Man kann soviele Daten füttern wie man will, die Probleme werden vielleicht kleiner aber nicht weggehen. Und für das was diese LLMs können, gibt es enorm viele Einsatzzwecke für die das ein wirklicher Mehrwert ist. Das Problem ist nur dass es jetzt plötzlich überall eingesetzt werden soll, auch wenn es nicht dafür geeignet ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Project 2501, chaopanda, MR2007 und eine weitere Person
andy_m4 schrieb:
Wobei das Problem Du ja auch schon jetzt hast. Eine klassische Suchmaschine liefert Dir ja Webseiten. Und da kann man ja auch nicht erwarten, das das was da steht die absolute Wahrheit darstellt
Eine klassische Suchmaschine zeigt mir die Domain von jedem Eintrag an und ich kann meinen Domaintrustscore anwenden. Dieser fällt für seriöse Medien höher aus als für mir unbekannte Seiten. Bei Reddit gilt der Hausverstand und lieber nochmal nachforschen, was vorgeschlagen wird.

Ja, wenn Google jetzt meinen content stiehlt macht es das absolut unattraktiv, weiterhin möglichst hochwertige Inhalte zu produzieren. Ohne Clicks keine Finanzierung.
 
Brrr schrieb:
Und das was diese LLMs können gibt es enorm viele Einsatzzwecke für die das ein wirklicher Mehrwert ist. Das Problem ist nur dass es jetzt plötzlich überall eingesetzt werden soll auch wenn es nicht dafür geeignet ist.
Eben das. Trainiert mit einem nicht redaktionell überprüften Datensatz, egal wie umfangreich, kommt halt auch nur das heraus, was Eingang in das Modell gefunden hat.

Das Modell besteht aus mehreren Schichten. Eines davon ist die Wiedergabe natürlicher Sprache. Das funktioniert sehr gut. Eine andere Schicht, ist die Informationsebene. Wenn diese schlecht ist, sind die Ergebnisse auch schlecht.

Die Technik ist an sich o.k., auch wenn es Unterschiede in der "Verarbeitungsqualität" gibt. Mit dem richtigen Trainingsdatensatz und guten Netzen, kommen auch gute Ergebnisse zustande.

Nochmal: Das Ergebnis ist nicht überraschend. Aber warum wurde das überhaupt freigegeben? Hier versagt in erster Linie ein Mensch, oder ein Team. Die "AI" macht nur das, was ihr beigebracht wurde. Und deswegen läuft generelle Kritik an der Technik auch ins Leere, bzw. in die falsche Richtung.

Die Kritik müsste lauten: "Seid ihr völlig besoffen, das Ding auf unsere Kunden loszulassen?"
 
  • Gefällt mir
Reaktionen: Brrr und LamaMitHut
Vigilant schrieb:
Mit dem richtigen Trainingsdatensatz und guten Netzen, kommen auch gute Ergebnisse zustande.
Eines der Probleme mitterweile ist es, die Datensätze frei von bereits LLM-generierten Daten zu halten :).

Wenn man da nicht aufpaßt, verdummt sich das Ganze exponentiell selbst.
 
  • Gefällt mir
Reaktionen: Herdware, Schumey, Project 2501 und eine weitere Person
Ich könnte mir auch vorstellen, dass der Umfang bei der Nutzung von ChatGPT, Co-Pilot, Claude und Co. mittlerweile ein Niveau erreicht, dass sich signifikant auf die Zugriffszahlen der Google-Suche auswirkt. Wenn dem so ist, bekommen da ein paar Leute evtl. Panikattacken.
 
Eins der großen Probleme, die ich gerade sehe, ist die Fertigkeit der LLMs auch den größten Bullshit als Antwort zu verkaufen. Und das auf eine vehemente und teils sehr 'überzeugende' Art.

Das verleitet viele, sich auf die getätigten Aussagen zu verlassen. Wenn das meiste stimmt, tut es der Rest auch. Das klappt schon.

Hab im anderen Thread zu Copilot schon den Golem-Artikel verlinkt zum Thema LLMs und Programmierung: https://www.golem.de/news/ki-im-kre...chatgpt-als-programmierhilfe-2405-185442.html
 
  • Gefällt mir
Reaktionen: Mondgesang und Project 2501
M4ttX schrieb:
Ja, wenn Google jetzt meinen content stiehlt macht es das absolut unattraktiv, weiterhin möglichst hochwertige Inhalte zu produzieren. Ohne Clicks keine Finanzierung.
Das ist eine sehr eindimensionale Perspektive.

Richtig ist doch - dass sogenannte "hochwertige Inhalte" längst keinen "Wert" mehr darstellen, der irgendwie vergütet würde - sondern lediglich einen Köder für die Aufmerksamkeit des Konsumenten - die an die Werbeindustrie verkauft wird, und somit das eigentliche "Produkt" darstellt.

Aus einer gesamtgesellschaftlichen Perspektive ist diese Situation völlig schräg - und Geschäftsmodelle, die darauf beruhen, gehören in den Mülleimer der Geschichte.
 
  • Gefällt mir
Reaktionen: Solavidos, ErbarmeHesse, Vigilant und eine weitere Person
PS828 schrieb:
das wäre doch mal was. der KI hersteller haftet für jeden personenschaden und unfug den das Modell verbricht
Bitte nicht. Wir haben heute schon viel zu wenig Selbstverantwortung.
Ich finde da sollte man auch keinerlei Zweifel aufkommen lassen, dass der User selbst verantwortlich ist und den Output einer KI evaluieren muss.
 
  • Gefällt mir
Reaktionen: schnrsnkl, LamaMitHut und ComputerJunge
h00bi schrieb:
Ich finde da sollte man auch keinerlei Zweifel aufkommen lassen, dass der User selbst verantwortlich ist und den Output einer KI evaluieren muss.
was ist dann der vorteil, wenn ich alles klassisch recherchieren muss, weil ich der ki nicht trauen kann? dann kann ich mir den technologischen und energetischen aufwand auch sparen und gleich wie gehabt meine antworten suchen.
 
Das ist kein Qualitätsfehler seitens Google und auch nichts, was bei einer Qualitätskontrolle hätte auffallen können, da man eine unendliche Anzahl an Fragen und deren dazu per "AI" erzeugten Antworten überhaupt nicht testen kann.

Das was ihr da verlangt ist eine Zensur der (Trainings)Daten, also eine gezielte Blindmachung eines Auges, damit das andere nur noch das sieht, was einem passt:

Fakt ist, das mit dem Kleber war wohl die Antwort eines Menschen (https://x.com/petergyang/status/1793480607198323196) und die AI hat zum Thema wohl nichts anderes, passendes finden können und ob so was stimmt oder nicht... nun ja, es ist eine AI! Die ist nur künstlich und wenig intelligent, auch wenn das die Marketingabteilungen immer wieder anders erzählen. Die weiß nicht, ob man "ungiftigen Kleber" zusetzt und selbst wenn sie das doch hinterfragen würde, würde sie zum Schluss kommen, dass in Fertignahrung doch Klebstoffe zum Einsatz kommen und selbst wenn es nur Gluten ist: Googelt doch mal nach "klebstoff teig": Weizengluten wird (bei mir zumindest) bereits beim ersten Treffer als Kleber bezeichnet: https://www.vgms.de/staerkeindustrie/lebensmittel/proteine/weizengluten-kleber

Die AI hat somit keine falsche Aussage getroffen: Ein Mensch hat das als Lösung vorgeschlagen und diese Antwort wurde offensichtlich nicht widerlegt und auch nicht hinterfragt. Das ist ein ganz normales Verhalten bei einem Stück Software, dass eben Zusammenhänge nicht erkennt und offensichtlich auch keine "Zweitmeinungen" einholt: Wenn man nur eine einzige Antwort findet, könnte sie ja falsch sein. Und selbst wenn es sehr viele Antworten gibt, muss sie nicht richtig sein.
 
Zuletzt bearbeitet: (Edit: "überhaupt nicht" im ersten Abschnitt ergänzt.)
  • Gefällt mir
Reaktionen: h00bi
0x8100 schrieb:
was ist dann der vorteil, wenn ich alles klassisch recherchieren muss, weil ich der ki nicht trauen kann?
Das ist ist ein Thema für die KI Entwickler, nicht für deine Sicherheit und deine Haftung.
Den Säufern vom Stammtisch glaubst du ja auch nicht alles was die von sich geben und beruftst dich dann hinter her drauf "ja aber er hat gesagt...."

Außerdem musst du nicht aufwendig recherchieren, du musst nur das Ergebnis der KI Recherche evaluieren. Das ist ggf. eine Zeitersparnis von >75%, aber ein bisschen was wirst du auch bei KI immer machen müssen.
 
  • Gefällt mir
Reaktionen: Solavidos
Zotac2012 schrieb:
Interessant, macht eine KI mal Fehler, löst das gleich einen riesigen Shitstorm aus und sofort kommen antworten, was KI für ein sche... ist.
Krasser Denkfehler. Was Du hier siehst sind offensichtliche und kuriose Fehler. Die Masse der nicht offensichtlichen oder langweiligen Fehler werden gar nicht gezeigt.
 
  • Gefällt mir
Reaktionen: Relict
Zurück
Oben