News Neue KI-Suchmaschine: Googles AI Overview ist ein „Desaster“

@MR2007
Braucht man sich nicht vorstellen, weil die das nie verwenden werden. Auch Ärzte werden das nicht. Die Fragen nach Verantwortlichkeit und Haftung verbieten den Einsatz solch fehleranfälliger Systeme.
 
@DarkSoul
Verstehe, was du meinst, teile es aber nicht, bzw. nur eingeschränkt.

Aber was folgt aus deiner Sicht daraus? Was sind die Konsequenzen?
 
  • Gefällt mir
Reaktionen: Kuristina
Andy schrieb:
in den sozialen Medien sammeln sich die Beispiele.
Oh Science, der Link ist pures Gold! :D Vielen Dank, ich komme aus dem Lachen nicht mehr heraus :D

Andy schrieb:
Mit Reddit hat Google jedoch auch seit Februar ein Abkommen, um die Inhalte für KI-Training nutzen können.
Da fehlt ein "zu" vor dem letzten Wort.

Andy schrieb:
So erklärt etwa Tom Warren von The Verge in einem X-Beitrag, die AI-Suchergebnisse wären ein „Desaster“.
So, wie die damalige Anleitung zum Bau eines Gaming-PCs von The Verge? Die sollten besser mal vor der eigenen Hütte kehren, bevor sie es sich erlauben können, über die IT-Fortschritte anderer zu urteilen.

Andy schrieb:
(...) die unter Cory Doctorow Schlagwort Enshittification läuft.
"Doctorows" -> das s noch hinzufügen, bitte ohne Apostroph :)
 
  • Gefällt mir
Reaktionen: Andy
Krik schrieb:
Braucht man sich nicht vorstellen, weil die das nie verwenden werden.
Klar werden die das verwenden.
Auch in der Medizin wird es verwendet.
Was Haftungsfragen angeht: Natürlich nicht im Sinne "fällt Entscheidungen für mich". Aber eben als Werkzeug. Das zum Beispiel auf ein CT-Bild sowohl der Arzt als auch die KI drauf guckt und wenn der Arzt das durchwinken würde und die KI sagt aber: Guck doch lieber noch mal genauer drauf, denn daundda könnte was sein, dann ist das doch ein gut gangbarer Weg.

Übrigens: Das Problem, das Fehler auftreten können hast Du schon heute und nicht erst durch KI. Auch klassische Computer können sich verrechnen und Fehler produzieren. Wenn Dein Excel falsch rechnet, kommt auch keiner auf die Idee über ungeklärten Haftungsfragen zu fabulieren.
 
  • Gefällt mir
Reaktionen: Relict
@andy_m4
Wir reden nicht von "intelligenten" Algorithmen, die auf einem CT-Bild möglicherweise problematische Stellen markieren. Hier geht es um LLMs. Wenn der Arzt bspw. die Frage stellt, welches Medikament bei dieser und jeder Erkrankung hilft und am Ende kommt Quatsch raus, an dem der Patient stirbt... das Risiko ist für Ärzte zu groß. Das Gleiche ist bei der Strafverfolgung gegeben. Wenn jemand unschuldig aufgrund des Ergebnisses einer KI ins Gefängnis kommt, wer will dafür gerade stehen?

Kein Gutachter und keine Zertifizierungsstelle werden dafür ihren Kopf hinhalten.
 
Krik schrieb:
Hier geht es um LLMs.
Das ändert doch nix, an der Grundproblematik.
Dein Argument würde doch nur dann gelten, wenn man LLMs anstatt Ärzte/Strafverfolger/whatever einsetzen würde. Solange das nur Hilfsmittel bleiben und am Ende jemand seinen "Kopf dafür hinhalten muss", wie Du es so schön ausdrückst, sehe ich keine grundsätzlich neuen Probleme.
 
Hast du mein Beispiel mit dem Arzt nicht verstanden? Wenn sich der Arzt nicht zu 99,99% auf die Antwort vom LLM verlassen kann, dann wird er sie nicht einsetzen.
 
Krik schrieb:
Wenn sich der Arzt nicht zu 99,99% auf die Antwort vom LLM verlassen kann, dann wird er sie nicht einsetzen.
Dann hast Du meine Antwort nicht verstanden. LLMs sind ein Hilfsmittel wie alles andere auch.
Wenn Du eine Rechnung schreibst und Dein Rechner hat sich verrechnet, dann bist auch Du verantwortlich und da kannst Du nicht Deinen Kopf aus der Schlinge ziehen mit "Der Rechner war schuld. Ich hab das Ergebnis lediglich übernommen".
 
Kurz gesagt diese Funktion hat noch die selben Probleme wie jedes LLM - den Mehrwert mit einer einzelnen Anfrage die Google Suchtreffer und zugleich eine KI Antwort zu bekommen sehe ich dennoch, was etwas taugt und was nicht muss man halt selbst einordnen, wie üblich.
 
Terry Pratchet lag doch falsch.

Künstliche Intelligenz schlägt halt menschliche Dummheit doch immer noch um Längen.
 
Ganz einfache Lösung. Nicht den eigenen Murks verbessern sondern die Partnerseite, in dem Fall Reddit, auffordern [Satire]-Tags verpflichtend einzuführen. Ohne [Satire]-Tag vor dem Posting der Benutzer ganz schnell Bann.
 
Noch ist die KI meiner Nachbarin schlauer.. es ist eine Kater Intelligenz, die mich immer wieder mal besuchen kommt.
Trotzdem erleben wir momentan die Geburt der künstlichen Intelligenz, unglaublich spannend!
 
DarkSoul schrieb:
Menschen schaffen Fakten und bewerten Fakten und leider ist das meistens nicht neutral
Gerade da sollte die AI irgendwann einen Vorteil haben. Wenn Emotionen einfach mal außen vor bleiben, die beim Menschen Einfluss auf eine Bewertung haben.

Es gibt biologisch nur 2 beim Menschen, doch die Menschheit sieht das aktuell anders
So z.B. ^^ Bitte nicht alle über einen Kamm scheren. Neutral bleiben. 🙂
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ropf
Vigilant schrieb:
Die Frage ist genau die Richtige, sofern damit nicht die Aussage "geht nicht" verklausuliert wurde. Genau dafür müssen Lösungen gesucht werden.
Und es kann sehr gut sein, dass es diese Lösung nicht geben wird. Zumindest nicht in den nächsten Jahren.
 
PS828 schrieb:
das wäre doch mal was. der KI hersteller haftet für jeden personenschaden und unfug den das Modell verbricht :D

absolute dystopie das ganze und obwohl man jetzt sagen kann "ja der doofe nutzer ist selber schuld der das glaubt" würde ich sagen nein. das sollte man nicht voraussetzen da es barrierefrei verfügbar ist im zweifelsfall.

wird Zeit dass AI in die bereiche zurückkehrt wo sie wirklch gewinn und nutzen bringt. wie etwa datenauswertung, mustererkennung, bildauswertung/ entrauschen und ähnlichen dingen in der Forschung
Ich bin der Meinung, dass AI (fast) überall seine Daseinsberechtigung hat. Es geht nur um den Zeitpunkt wann und wo es eingesetzt wird. Google ist wegen ChatGPT gestresst und schießen sich selbst ins Knie, weil OpenAI gefühlt mit Siebenmeilenstiefeln vorangeht. Die müssen sich Zeit lassen.
 
Vigilant schrieb:
Viel verwunderlicher ist doch, warum das überhaupt durch die QS gekommen ist?
Äh, nein!?
Wenn das auch nur Ansatzweise so läuft, wie das in Softwarefirmen mittlerweile so üblich ist, dann fahren die beinhart den Shift-Left-Ansatz mit billigen Anfängern.

Alle die was vom Testen verstanden haben, sind gefeuert oder anderweitig versumpft (Compliance ist "beliebt" zum Abschieben) und die alten Hasen von Programmierern führen jetzt Teams und können den Jungspunden auch nicht erklären, WAS da jetzt eigentlich in den Unittests drinstehen sollte. (Zeitdruck und Deadlines etc. pp.)

Und den Entwickler, der sich nicht einen schlanken Fuß machen kann, wenn er muss, weil Zeitdruck, habe ich noch nicht kennengelernt. Die sind schließlich nicht nur im Algorhyhtmenschreiben gut. Die sind auch auch kreativ. Zur Not eben in "Compliance" (Klar ist die Funktion getestet!).

Davon abgesehen, ist es sehr, sehr schwer den Output einer "KI" zu testen, denn die baut sich ihre "Programmierung" ja selbst.
 
RedHulk schrieb:
Die müssen sich Zeit lassen.

Ist halt eine Zwickmühle aus Unternehmenssicht - wenn man sich zu viel Zeit lässt dann nutzen die Leute eben ChatGPT und wer sich daran mal gewöhnt hat wechselt evtl nicht mehr zurück, überstürzt man etwas richtet man evtl mehr Schaden als Nutzen an. Und dazu braucht man auch die Masse der Nutzer für die Weiterentwicklung, solch eine KI kann man auch nicht im geschlossenen Kämmerlein "fertig" entwickeln...

Für Google steht hier in den nächsten Jahren der Kern des eigenen Geschätfsmodells auf dem Spiel.
 
  • Gefällt mir
Reaktionen: FrAGgi und Vigilant
Zurück
Oben