News Neue KI-Suchmaschine: Googles AI Overview ist ein „Desaster“

Ich bin grundsätzlich pro KI eingestellt, weil ich der Meinung bin das sie in vielen Bereichen sinnvoll eingesetzt werden kann.
Wenn ich dann aber sehe das ein KI Model mit dem world wide web gefüttert wird, wo Seiten wie Reddit und andere Foren als Grundlage herangezogen werden, dann bezweifle ich den Erfolg.

Ich gehe einfach mal von meinem "Fachbereich" aus, da sind selbst in guten Foren oft sehr viele Falschinformationen unterwegs. Das kann eine KI gar nicht erkennen. Selbst für Fachleute mit jahrelanger Erfahrung ist das oft schwer.
Auch hier im Computerbase Forum sind oft zweifelhafte Aussagen oder gar Falschaussagen unterwegs.
Wie soll das gehen?
Ich glaube wir sollten dabei bleiben den Kindern weiter einzubläuen das nicht alles wahr ist, was im Internet steht. ...egal ob KI generiert oder von Menschenhand geschrieben.
Es kann eben immer noch jedes überzeugt Ego ohne großes Wissen einen Youtube Kanal, einen Blog, eine Social Media Page, oder sonst was starten.
 
  • Gefällt mir
Reaktionen: Vigilant
DarkSoul schrieb:
Das ist kein Qualitätsfehler seitens Google und auch nichts, was bei einer Qualitätskontrolle hätte auffallen können, da man eine unendliche Anzahl an Fragen und deren dazu per "AI" erzeugten Antworten testen kann.

Das was ihr da verlangt ist eine Zensur der (Trainings)Daten, also eine gezielte Blindmachung eines Auges, damit das andere nur noch das sieht, was einem passt:

Du meinst Zensur, so wie es Google selbst gemacht hat in den letzten paar Jahren? Sämtliche Webseiten in ihren Suchresultaten zensiert, die nicht in ihre Agenda gepasst haben? Und übrig geblieben sind dann überwiegend Schwurbel- und Verblödungsseiten? (das was Google auch auf Youtube immer gefördert hat).

Wenn die AI dann mit denselben Limitierungen gefüttert wird, muss man sich nicht wundern, dass nur Geschwurbel rauskommt. Also doch ein Fehler seitens Google, weil sie sich mit ihren Maßnahmen selbst sabotiert haben.
 
  • Gefällt mir
Reaktionen: dersuperpro1337
DarkSoul schrieb:
Das was ihr da verlangt ist eine Zensur der (Trainings)Daten, also eine gezielte Blindmachung eines Auges, damit das andere nur noch das sieht, was einem passt:
Nicht wirklich. Es geht vielmehr darum, offensichtlichen Bullshit keinen Eingang in ein Modell finden zu lassen, dass bestimmten Sicherheits- und Qualitätskriterien gerecht werden soll.

Für die Reproduktion offensichtlichen Käses braucht es kein LLM. Es sei denn, das ist Zweck des Modells.

Und hier kommt wieder diese merkwürdige Sache mit der Manipulation der Aufmerksamkeits- und Verweildauer potentieller Nutzer ins Spiel.

Je länger, desto höher die Chance mehr Werbung adressieren zu können. Wenn die Verweildauer aber weniger durch Qualität und Korrektheit beeinflusst wird, sondern durch anderes, schräges Zeug und die ausgelieferten Inhalte daraufhin ausgerichtet werden, haben wir aktuelle Probleme mal wieder elegant auf die neue Technik übertragen.

Von daher ist nicht unbedingt die Technik an sich das Problem, sondern - mal wieder - die Art, wie sie verwendet wird. Kritik an der Technik, obwohl durchaus angebracht, ist dann ungefähr so, als würde ich einen Hammer verteufeln, nur weil sich damit ein paar Leute den Daumen flach geklopft haben.
 
Zuletzt bearbeitet:
AI Overview zeigt meiner Meinung nach ganz wunderbar, was AI eigentlich ist: Ganz viel A und wenig I, wobei die Illusion der Intelligenz dadurch erreicht wird, dass AI von enormen Mengen an Daten lernt - und dabei eben auch ganz viel bullshit verarbeitet und von diesem bullshit lernt, wenn Menschen nicht lenkend eingreifen.
 
  • Gefällt mir
Reaktionen: Vigilant
h00bi schrieb:
Den Säufern vom Stammtisch glaubst du ja auch nicht alles was die von sich geben und beruftst dich dann hinter her drauf "ja aber er hat gesagt...."
einen säufer kann man als solchen erkennen und vorab als nicht vertrauenswürdig einstufen. google, microsoft & co. werden alles daran setzen, dass genau das nicht eintritt, denn sonst wäre ihr produkt wertlos. interessant wird es erst richtig, wenn man services nutzt, die sich nicht als ai zu erkennen geben, z.b. irgendwelche hotlines. da gehst du nämlich erstmal davon aus, dass die antwort richtig ist.

und dass die leute einer ki-generierten antwort einfach glauben werden, sieht man daran, dass schon heute zum teil billigster scam erfolgreich ist. ein plausibel klingendes resultat einer ki wird da noch weniger misstrauen auslösen.
 
0x8100 schrieb:
ein plausibel klingendes resultat einer ki wird da noch weniger misstrauen auslösen.
Genau deswegen, weil man nicht von Anfang an klar kommuniziert, dass man selbst verantwortlich ist und Haftungsfragen beim stupiden Befolgen von KI-Output überhaupt in diskutiert.

Das ist wie die Diskussion ums autonome Fahren oder Fahrassistenten. Die Verantwortung sollte ganz alleine beim Fahrzeugführer liegen. Er aktiviert den Assistenten.
 
Stell dir vor, du bist in einer Position und bekommst so richtig viel $$$ und haust so eine Entscheidung raus.

Wie kann man so Weltfremd leben / handeln um (WTF) Reddit als Quelle zu verwenden? Das Portal ist voll mit Schrott und /s

Bin auch der Meinung, dass K"I" hilfreich ist hier hat sie in dieser Form nur einfach nichts zu suchen - der Großteil der Leute ist jetzt schon überfordert Informationen zu verifizieren oder gar überhaupt zu finden.
Nun gibt es überall K"I" und alle verlassen sich darauf :(

Evtl. sollte man die K"I" nur für sinnvolle Aufgaben einsetzen, das würde sicherlich einiges an CO2 einsparen.... Gleiches gilt für stable diffusion, was hier an unnötigem CO2 produziert wird, weil Bildchen erzeugt werden :(
 
  • Gefällt mir
Reaktionen: Vigilant
da mein duckduckgo tab noch offen war und er "get computer help" vorgeschlagen hat:

1716795094759.png

ich seh schon die leute mit dem hammer hantieren :) das ist jetzt kein geheimes wissen, dass es keine am4-boards mit ddr5 gibt, aber das hier ist "peak technology" in die milliaden investiert wird...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kuristina und Vigilant
Kadett_Pirx schrieb:
wurde mit anderen "AIs" gegengescheckt oder gehts nur um google-bashing?
Ich habe mal ein paar der hier eingestellten Beispiele mit Chat-GPT verglichen und da kommt kein offensichtlicher Quatsch raus. Aber dafür gibts ja andere Prompts aus denen GPT Mist baut.

Die Brisanz ist hier, dass Google diese Antworten den Suchergebnissen vorschaltet. Sie schätzen es also so ein, dass diese Antworten relevanter als ihre Suchergebnisse sind.
Und dafür sollte es dann doch deutlich besser funktionieren.
 
  • Gefällt mir
Reaktionen: Kadett_Pirx
Das oder ähnliches sollte vielleicht als Disclaimer unter jeder Antwort stehen oder vorgeschaltet sein. Es ist wichtig, dass immer darauf hingewiesen wird, dass Ergebnisse nicht nur falsch, sondern auch absurd falsch sein können. Insbesondere dann, wenn das LLM-Produkt noch frisch ist. Ein Alpha- oder Beta-Tag wäre dann auch angebracht.

1716795557457.png
 
franzerich schrieb:
Wenn die AI dann mit denselben Limitierungen gefüttert wird, muss man sich nicht wundern, dass nur Geschwurbel rauskommt. Also doch ein Fehler seitens Google, weil sie sich mit ihren Maßnahmen selbst sabotiert haben.
In dem Fall ja nachweislich nicht, oder würdest du die Empfehlung Elmer's Glue als eine seriöse Datenquelle bezeichnen? ;)
 
Seliador schrieb:
In einer der verlinkten Quellen gibt es ein Beispiel, wo auf die Frage "I'm feeling depressed" von der KI der Tipp gegeben wird, von der Golden Gate Bridge zu springen.
Ist doch genial mit so einem versuchten Suizid ist es viel einfacher einen Psychiatrieplatz zu bekommen. /s

Was ich daran nicht verstehe warum Trainiert man das Model nicht tatsächlich darauf die ersten paar Ergebnisse sinnvoll zusammenzufassen, statt zu versuchen die Informationen im Model zu speichern?
 
Vigilant schrieb:
Nicht wirklich. Es geht vielmehr darum, offensichtlichen Bullshit keinen Eingang in ein Modell finden zu lassen, dass bestimmten Sicherheits- und Qualitätskriterien gerecht werden soll.
Und wer definiert was "Bullshit" ist und was nicht? Willst du z. B. ComputerBase ausschließen, weil es ja auch hier so was gibt? Es gibt auch genügend Fachbücher, in denen Blödsinn steht. Und selbst wenn es, als das Buch geschrieben wurde nicht als Blödsinn galt, kann das in Zukunft der Fall sein. Siehe Erziehungsmethoden, das wurde so viel experimentiert, dass man gar nicht mehr weiß, was Genz Z nun genau hervorgebracht hat. ;)
Vigilant schrieb:
Von daher ist nicht unbedingt die Technik an sich das Problem, sondern - mal wieder - die Art, wie sie verwendet wird. Kritik an der Technik, obwohl durchaus angebracht, ist dann ungefähr so, als würde ich einen Hammer verteufeln, nur weil sich damit ein paar Leute den Daumen flach geklopft haben.
Die Technik muss, wenn man sie etabliert, schon zuverlässig funktionieren. Ich kann Enterprise mal als Beispiel nennen: Wenn man einen Computer mittels Sprachbefehlen Anweisungen gibt, dann muss das zuverlässig funktionieren, und nicht einfach den Warpkern sprengen, nur weil das auch mal die Lösung für ein Problem war.

Ich würde kein System damit steuern bzw die Kontrolle überlassen wollen, mein Voice-Assistent in meinem Auto bekräftigt meine Meinung bei jeder Nutzung, vor allem wenn das Ding mit einem beleidigten Unterton den Dienst quittiert.
 
@AlphaKaninchen
So funktionieren LLMs nicht. Denen muss man tonnenweise Text vorlegen, damit sie überhaupt die Fähigkeit erlangen, verständliche Sätze zu bilden.
 
DarkSoul schrieb:
Das ist kein Qualitätsfehler seitens Google und auch nichts, was bei einer Qualitätskontrolle hätte auffallen können, da man eine unendliche Anzahl an Fragen und deren dazu per "AI" erzeugten Antworten überhaupt nicht testen kann.
Das halte ich aber für eine Ausrede. Wenn ich Qualitätskontrolle nicht leisten kann, darf ich entweder:
So ein Produkt nicht rausbringen
oder muss halt ranschreiben, das das Ding Mist erzählt. Und zwar nicht irgendwo in den Nutzungsbedingungen auf Seite 23, sondern direkt oben über der Eingabezeile.

Das Problem ist nicht, das das Ding stellenweise Mist erzählt. Das habe ich bei der klassischen Internetsuche nämlich auch. Das ich da obskure Webseiten kriege. Das Problem ist, das das Ding so tut, als wären das valide Informationen. Leute wie Du und ich wissen das auch. Aber das kann man von vielen Anwendern eben nicht erwarten.

Eine Lösung könnte ebenfalls sein, das transparent gemacht wird, woher die Infos stammen. Dann kann ich nämlich selbst notfalls hinterher-recherchieren. Außerdem kann ich schon mal eine grobe Einordnung vornehmen. Infos auf einer redaktionell betreuten Seite werde ich eher Glauben schenken, als irgendeinem Tweet-Comment von irgendwen.
 
  • Gefällt mir
Reaktionen: Kuristina und Vigilant
DarkSoul schrieb:
Und wer definiert was "Bullshit" ist und was nicht? Willst du z. B. ComputerBase ausschließen, weil es ja auch hier so was gibt?
Es geht nicht (nur) darum Quellen auszuschließen, sondern Informationen auf Korrektheit zu überprüfen. Das geht sicherlich nicht in allen Themen mal einfach so, vor allem, wenn sie Ideologisch geprägt sind. Aber es gibt Dinge, die sind einfach offensichtlich Käse, weil sich bspw. physikalischen Gesetzen widersprechen.
 
Krik schrieb:
@AlphaKaninchen
So funktionieren LLMs nicht. Denen muss man tonnenweise Text vorlegen, damit sie überhaupt die Fähigkeit erlangen, verständliche Sätze zu bilden.
Das ist mir schon klar, aber wenn man ein Model wie GPT4 oder Gemini hat kann man diesem doch auch sagen fasse Text XY zusammen, warum macht man das nicht mit den ersten paar Ergebnissen, statt zu versuchen es aus dem Model heraus zu beantworten? So wären die Antworteten ohne nachtrainieren aktuell, man würde sich klarer von Chatbots abgrenzen und es wurde auch mehr dem Feature Name AI Overview entsprechen.
 
  • Gefällt mir
Reaktionen: andy_m4
Zurück
Oben