News Neue KI-Suchmaschine: Google rechtfertigt AI-Overview-Desaster und will nachbessern

Bin mal gespannt, wann die Erkenntnis durchsickert, dass eine Mischung aus Intelligenz, Bildung, Erfahrung und gesundem Menschenverstand hilfreicher ist als die Bullshit Antworten dieser angeblichen Intelligenzen, die den Namen nicht verdient haben...
 
Genau wie das Metaverse will doch kein User diese Features haben, geschweige denn a la Microsoft aufgezwungen bekommen. Was Google seiner AI jetzt beibringen will, haben sie ohne AI vor 15 Jahren schon gelöst.
 
  • Gefällt mir
Reaktionen: tso und Marius
ReVan1199 schrieb:
Ich finde es witzig, dass das bei der Konkurrenz abgefangen wird und das auch noch lustig:
Die Opera "Browser-KI" (Opera-Mobile) antwortet:
Es wird empfohlen, etwa 5 Portionen Obst und Gemüse am Tag zu essen, aber es gibt keine spezifische Empfehlung, wie viele Steine man essen sollte. Es ist wichtig, eine ausgewogene Ernährung mit einer Vielzahl von Nahrungsmitteln zu sich zu nehmen. Steine sind definitiv kein Bestandteil einer gesunden Ernährung.
 
Mal eine Frage an Auskenner: KI, wird ja (fälschlich) für alles genommenw as irgendwie mit dem Thema zu tun hat. Worin aber unterscheiden sich jetzt diese LLMs von den Systemen, die zB in Medizin oder Materialforschung benutzt werden um neue MAterialien pder Proteine zu finden?
 
chillipepper schrieb:
Bin mal gespannt, wann die Erkenntnis durchsickert, dass eine Mischung aus Intelligenz, Bildung, Erfahrung und gesundem Menschenverstand hilfreicher ist als die Bullshit Antworten dieser angeblichen Intelligenzen, die den Namen nicht verdient haben...
Ernsthaft? Der Zug ist doch längst abgefahren - wenn ich mich in der Nachbarschaft oder auf der Arbeit umschaue, kommt da auch nix mehr...
 
Alles mit KI ist bisher unnützer Rotz.
Ich vermute das geht den Weg von VR.
Spätestens, wenn dafür gezahlt werden soll.
Wie bei BEV auch.
Ja, nette Spielzeuge, aber sein letztes Hemd geben die wenigsten dafür her.
Fahre beides, trage keine Hemden.
:p :p :p
 
Hinzu kommt das Urheberrecht. Wenn Google die Inhalte von Quellen übernimmt, stellt sich umso mehr die Copyright-Frage. Auch hier dürfte es bald zu weiteren Klagen kommen.
Praktisch alle Verlage werden nun ganz genau hinsehen woher die Ergebnisse herkommen und dann Die AI Anbieter mit Copyright Klagen überschütten. So das diese praktisch am Ende dazu gezwungen werden monatlich/jährlich eine hohe Millionen Summe als Lizenz Gebühr zu bezahlen...mal sehen wann die erste News erscheint das zb. der Axel Springer Verlag Google, Microsoft und Co. verklagen wird deswegen.
 
Gamefaq schrieb:
der Axel Springer Verlag Google, Microsoft und Co. verklagen wird deswegen.
die arbeiten ja schon zusammen. nur damit du weisst, womit die "ki" so zum teil trainiert wird. könnte dann ein paar antworten des bots in zukunft erklären :)
 
Laz-Y schrieb:
Vermittelt den Eindruck dass bei Google die BWLer übernommen haben. Passiert irgendwann bei jeder Firma. Der Anfang vom Ende.
Ich erhöhe:
BWLer, die nicht zwangsläufig nach dem Kriterium "Kompetenz" eingestellt worden sind.
 
  • Gefällt mir
Reaktionen: Laz-Y und Slim.Shady
MaverickM schrieb:
Die wird von Tag zu Tag unbrauchbarer, dank Millionen Seiten mit generischem SEO-optimierten Bullshit zur Affiliate-Link-Spamerei.

Google müsste den Bewertungsalgorithmus komplett über den Haufen werfen.
Würd schon reichen wenn sie einen Branch von vor 10 Jahren deployen, das Ding wird echt mit jedem Tag unbrauchbarer.

SEO ist sowieso ein Witz; Wenn jeder das macht, dann sind trotzdem alle gleich.

chillipepper schrieb:
Bin mal gespannt, wann die Erkenntnis durchsickert, dass eine Mischung aus Intelligenz, Bildung, Erfahrung und gesundem Menschenverstand hilfreicher ist als die Bullshit Antworten dieser angeblichen Intelligenzen, die den Namen nicht verdient haben...
Vieles davon ist aber jetzt schon sehr brauchbar. Ich kann ner KI ne Methode reinschmeißen, und sagen dass es mir die Unit-Tests generieren soll; Macht es. Ein mal drüber lesen und ggf. Variablen anpassen ist deutlich entspannter als den ganzen Bums von Hand zu schreiben.

zweitnick schrieb:
Worin aber unterscheiden sich jetzt diese LLMs von den Systemen, die zB in Medizin oder Materialforschung benutzt werden um neue MAterialien pder Proteine zu finden?
Auf der einen Seite in allem, auf der anderen in nichts. Es ist und bleibt Machine Learning, aber wie man die Eingangsdaten kodifiziert, wie man die Architektur aufbaut, und wie man dann Inputs runterbricht ist halt sehr Zielbezogen. Dazu kommt wie viele Trainingsdaten vorhanden sind, und wie sie aufbereitet werden, und wie groß das Netz beim Lernen tatsächlich ist.
 
  • Gefällt mir
Reaktionen: N00bn00b und zweitnick
Interessanterweise bekommt Google was AI betritt vieles nicht gescheit auf die reihe im Vergleich zur Konkurrenz.

Und ein weiterer Tipp: Produkte erst veröffentlichen wenn ein gewisser Reifegrad vorhanden ist. Gibt sonst nur ärger....
 
Wie soll der Reifegrad erreicht werden?
Ein Team aus 20 Programmierern, die 20.000.000 Suchanfragen bis zu ihrem Lebensende testen?

Es ist absolut unmöglich eine KI vernünftig zu testen, da die Ergebnisse im Laufe der Zeit sich selbständig ändern (müssen).

Es wird eine allwissende Intelligenz wie in Kinofilmen erwartet. Aber die Realität ist kein Film.
Und vor allem: Eine KI ist und wird niemals ein Mensch sein. Eine KI lernt Informationen aus dem Internet bzw. Datenbanken und weiß nicht mal, dass sie eine KI und kein Mensch ist. Die Antwort, dass sie eine KI ist, ist ein Text, dass sie vorließt, aber nicht verstehen kann.

Wie soll eine KI Zusammenhänge erkennen, wenn es unglaublich viel Schwachsinn im Internet gibt, dessen Wahrheitsgehalt nicht geprüft werden kann? Auch von Menschen nicht!

Es gibt auch viele Millionen absolut dummer Menschen, die an erfundene Erzählungen glauben, diese weiterverbreiten und sogar nicht nur ihr Leigenen eben an ihrer Überzeugung ausrichten, sondern es auch anderen Menschen (teils mit Gewalt) aufzwingen.
Solche Menschen haben auch Internet.

Und dann soll eine KI klüger als der Mensch werden?
Und wenn die KI sich auf Fakten und Statistiken bezieht, wird ihr manchmal beigebracht, dass sie diese ignorieren soll, weil einigen (dummen?) Menschen die Wahrheit nicht gefällt?
Und dann kommt allgemeine Zensur hinzu, welche regional völlig unterschiedlich ist.
Und dann noch Propaganda, welche sich von Region zu Region stark unterscheidet.

Letztlich entwickelt sich eine KI zum Spiegelbild der Gesellschaft. Neben sehr klugen Antworten wird es also immer auch sehr dumme Antworten geben.
 
  • Gefällt mir
Reaktionen: Banjo
ThoughtPolice schrieb:
Wie soll eine KI Zusammenhänge erkennen, wenn es unglaublich viel Schwachsinn im Internet gibt, dessen Wahrheitsgehalt nicht geprüft werden kann?
wie wäre es, wenn man nicht verifizierbare informationen beim training ignoriert? einfach die gesamte datenbasis als "wahr" annehmen ist nicht sonderlich intelligent.

ThoughtPolice schrieb:
Und dann soll eine KI klüger als der Mensch werden?
wozu dann überhaupt eine ki?
 
Mein Tipp: Trainingsdaten nur noch vom Postillon .
Was denken die sich? Chatverläufe von Reddit als Quelle zu nehmen .... das war doch im Ansatz schon gescheitert.
 
  • Gefällt mir
Reaktionen: Haldi
0x8100 schrieb:
wie wäre es, wenn man nicht verifizierbare informationen beim training ignoriert?
Wie bitte soll das auch nur ansatzweise möglich sein?
Wer soll die Milliarden oder Billiarden Informationen verifizieren können?
Und was ist mit den tausenden neuen Informationen, die jede Stunde generiert werden?
0x8100 schrieb:
wozu dann überhaupt eine ki?
Um das Aufgaben mit diesem Werkzeug in einigen Bereichen zu erleichtern oder zu beschleunigen.


Bei völlig lächerlichen Beispielen macht man sich über die KI lustig. Währenddessen schafft man es selbst als Mensch nicht grundlegende Informationen zu beschaffen. Beispielsweise wie eine KI in dem gröbsten Zügen funktioniert und vor allem was sie nicht ist.
Warum nutzt man die menschliche Überlegenheit nicht dafür?
 
  • Gefällt mir
Reaktionen: rosenholz
ThoughtPolice schrieb:
Wie bitte soll das auch nur ansatzweise möglich sein?
Wer soll die Milliarden oder Billiarden Informationen verifizieren können?
Und was ist mit den tausenden neuen Informationen, die jede Stunde generiert werden?
indem man gewichtet. der fakt "steine essen ist gut" hatte nur eine quelle (negative gewichtung) und kam von reddit (eher negativ). zudem gibt es kein postitives match wenn man das thema "ernährung" betrachtet. damit ist "steine essen ist gut" also als falsch zu betrachten.
ThoughtPolice schrieb:
Um das Aufgaben mit diesem Werkzeug in einigen Bereichen zu erleichtern oder zu beschleunigen.
aha, "einige bereiche". warum dann ein tool auf die menschheit loslassen, das alles abdecken soll, es aber nicht kann?
ThoughtPolice schrieb:
Währenddessen schafft man es selbst als Mensch nicht grundlegende Informationen zu beschaffen.
das tut mir leid für dich, denn
ThoughtPolice schrieb:
Beispielsweise wie eine KI in dem gröbsten Zügen funktioniert und vor allem was sie nicht ist.
eine künstliche intelligenz ist keines dieser tools. gute mustererkenner und rekombinierer, ja - aber keine intelligenz.
 
0x8100 schrieb:
indem man gewichtet
Wer ist "man"? Also wo kommen die Gewichtungen dann her?

0x8100 schrieb:
aha, "einige bereiche". warum dann ein tool auf die menschheit loslassen, das alles abdecken soll, es aber nicht kann?
Das erste Auto war effektiv ein motorisiertes Dreirad ohne Knautschzonen, Airbags und Sicherheitsgurte; Wurde trotzdem auf die Menschheit losgelassen und hat sich entwickelt. Das ist hier nicht anders.

0x8100 schrieb:
eine künstliche intelligenz ist keines dieser tools. gute mustererkenner und rekombinierer, ja - aber keine intelligenz.
Im Kern ist es Banane ob es intelligent ist, es reicht, wenn es gut genug Intelligenz simulieren kann. Viele Aufgaben im Alltag brauchen halt keinen Professor von der Uni sondern eher einen dressierten Affen, und da kann AI halt heute schon glänzen.
 
Bright0001 schrieb:
Wer ist "man"? Also wo kommen die Gewichtungen dann her?
was ist das für eine frage? initial vom entwickler natürlich. wenn dieser reddit eine hohe gewichtung gibt, dann wird es eben suboptimal. im laufe der zeit können gewichtungen durch häufigkeit, querverweise etc. angepasst werden. im übrigen ist das von anbeginn das kerngeschäft von google.
Bright0001 schrieb:
Das erste Auto war effektiv ein motorisiertes Dreirad ohne Knautschzonen, Airbags und Sicherheitsgurte; Wurde trotzdem auf die Menschheit losgelassen und hat sich entwickelt. Das ist hier nicht anders.
autovergleiche passen ja immer so gut... vielleicht sollte man meinen, dass die menschheit im laufe der zeit was dazugelernt hat und nicht die gleichen fehler wieder macht? heute würde keiner mehr ein massentransportmittel mit dem damaligen zustand zulassen. bei software scheint das dagegen kein problem zu sein, reift ja gerne beim kunden.
Bright0001 schrieb:
Viele Aufgaben im Alltag brauchen halt keinen Professor von der Uni sondern eher einen dressierten Affen
hat eben jeder andere ansprüche. ich brauche keinen dressierten affen, dem ich alles dreimal sagen muss und dann geht es doch nicht. wenn ich hilfe brauche nehme ich lieber den professor, den rest bekomme ich auch alleine hin :)
 
ThoughtPolice schrieb:
Wie soll eine KI Zusammenhänge erkennen, wenn es unglaublich viel Schwachsinn im Internet gibt, dessen Wahrheitsgehalt nicht geprüft werden kann? Auch von Menschen nicht!
Nicht jede Aufgabenstellung muss mit KI bewältigt werden, nur weil Google Rechenkapazitäten dafür hat und es AI gibt. Was Millionen Nutzer jeden Tag bei der Google Suche wollen hat Google auch bereitstellen können, ohne dass eine KI wahnwitzige Forenbeiträge zitiert und so tut, als wäre es eine aufbereitete schlaue Antwort.

Für mich ist es immer noch 1000x akzeptabler, wenn ein User eine falsche Antwort auf seine Frage findet, weil die Google Suche eine Website aufgrund von SEO oder Ähnlichkeit der eingegebenen Wörter findet, als dass man über die AI "direkt" mit dem User "spricht" und EINE Antwort liefert, die man derartig hervorhebt.
 
Zurück
Oben