Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Neue KI-Suchmaschine: Googles AI Overview ist ein „Desaster“
- Ersteller Andy
- Erstellt am
- Zur News: Neue KI-Suchmaschine: Googles AI Overview ist ein „Desaster“
andy_m4
Admiral
- Registriert
- Aug. 2015
- Beiträge
- 7.443
Das Smilie hattest Du schon mitgelesen, oder?fullnewb schrieb:Man kann auch alles schönreden...
So ein bisschen wie bei Minority Report.MR2007 schrieb:Man stelle sich KI in der Strafverfolgung vor und die beginnt zu halluzinieren
DJMadMax
Fleet Admiral
- Registriert
- Mai 2007
- Beiträge
- 15.743
Oh Science, der Link ist pures Gold! Vielen Dank, ich komme aus dem Lachen nicht mehr herausAndy schrieb:in den sozialen Medien sammeln sich die Beispiele.
Da fehlt ein "zu" vor dem letzten Wort.Andy schrieb:Mit Reddit hat Google jedoch auch seit Februar ein Abkommen, um die Inhalte für KI-Training nutzen können.
So, wie die damalige Anleitung zum Bau eines Gaming-PCs von The Verge? Die sollten besser mal vor der eigenen Hütte kehren, bevor sie es sich erlauben können, über die IT-Fortschritte anderer zu urteilen.Andy schrieb:So erklärt etwa Tom Warren von The Verge in einem X-Beitrag, die AI-Suchergebnisse wären ein „Desaster“.
"Doctorows" -> das s noch hinzufügen, bitte ohne ApostrophAndy schrieb:(...) die unter Cory Doctorow Schlagwort Enshittification läuft.
andy_m4
Admiral
- Registriert
- Aug. 2015
- Beiträge
- 7.443
Klar werden die das verwenden.Krik schrieb:Braucht man sich nicht vorstellen, weil die das nie verwenden werden.
Auch in der Medizin wird es verwendet.
Was Haftungsfragen angeht: Natürlich nicht im Sinne "fällt Entscheidungen für mich". Aber eben als Werkzeug. Das zum Beispiel auf ein CT-Bild sowohl der Arzt als auch die KI drauf guckt und wenn der Arzt das durchwinken würde und die KI sagt aber: Guck doch lieber noch mal genauer drauf, denn daundda könnte was sein, dann ist das doch ein gut gangbarer Weg.
Übrigens: Das Problem, das Fehler auftreten können hast Du schon heute und nicht erst durch KI. Auch klassische Computer können sich verrechnen und Fehler produzieren. Wenn Dein Excel falsch rechnet, kommt auch keiner auf die Idee über ungeklärten Haftungsfragen zu fabulieren.
Krik
Fleet Admiral
- Registriert
- Juni 2005
- Beiträge
- 14.216
@andy_m4
Wir reden nicht von "intelligenten" Algorithmen, die auf einem CT-Bild möglicherweise problematische Stellen markieren. Hier geht es um LLMs. Wenn der Arzt bspw. die Frage stellt, welches Medikament bei dieser und jeder Erkrankung hilft und am Ende kommt Quatsch raus, an dem der Patient stirbt... das Risiko ist für Ärzte zu groß. Das Gleiche ist bei der Strafverfolgung gegeben. Wenn jemand unschuldig aufgrund des Ergebnisses einer KI ins Gefängnis kommt, wer will dafür gerade stehen?
Kein Gutachter und keine Zertifizierungsstelle werden dafür ihren Kopf hinhalten.
Wir reden nicht von "intelligenten" Algorithmen, die auf einem CT-Bild möglicherweise problematische Stellen markieren. Hier geht es um LLMs. Wenn der Arzt bspw. die Frage stellt, welches Medikament bei dieser und jeder Erkrankung hilft und am Ende kommt Quatsch raus, an dem der Patient stirbt... das Risiko ist für Ärzte zu groß. Das Gleiche ist bei der Strafverfolgung gegeben. Wenn jemand unschuldig aufgrund des Ergebnisses einer KI ins Gefängnis kommt, wer will dafür gerade stehen?
Kein Gutachter und keine Zertifizierungsstelle werden dafür ihren Kopf hinhalten.
Hat sich die KI wohl beim kleinen Arschloch bedient.Seliador schrieb:In einer der verlinkten Quellen gibt es ein Beispiel, wo auf die Frage "I'm feeling depressed" von der KI der Tipp gegeben wird, von der Golden Gate Bridge zu springen.
Ich frage mich, wie so etwas intern getestet wird, bevor es online geht. Offenbar gar nicht.
andy_m4
Admiral
- Registriert
- Aug. 2015
- Beiträge
- 7.443
Das ändert doch nix, an der Grundproblematik.Krik schrieb:Hier geht es um LLMs.
Dein Argument würde doch nur dann gelten, wenn man LLMs anstatt Ärzte/Strafverfolger/whatever einsetzen würde. Solange das nur Hilfsmittel bleiben und am Ende jemand seinen "Kopf dafür hinhalten muss", wie Du es so schön ausdrückst, sehe ich keine grundsätzlich neuen Probleme.
andy_m4
Admiral
- Registriert
- Aug. 2015
- Beiträge
- 7.443
Dann hast Du meine Antwort nicht verstanden. LLMs sind ein Hilfsmittel wie alles andere auch.Krik schrieb:Wenn sich der Arzt nicht zu 99,99% auf die Antwort vom LLM verlassen kann, dann wird er sie nicht einsetzen.
Wenn Du eine Rechnung schreibst und Dein Rechner hat sich verrechnet, dann bist auch Du verantwortlich und da kannst Du nicht Deinen Kopf aus der Schlinge ziehen mit "Der Rechner war schuld. Ich hab das Ergebnis lediglich übernommen".
Magellan
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 22.494
Kurz gesagt diese Funktion hat noch die selben Probleme wie jedes LLM - den Mehrwert mit einer einzelnen Anfrage die Google Suchtreffer und zugleich eine KI Antwort zu bekommen sehe ich dennoch, was etwas taugt und was nicht muss man halt selbst einordnen, wie üblich.
Kuristina
Captain
- Registriert
- Juli 2022
- Beiträge
- 3.647
Gerade da sollte die AI irgendwann einen Vorteil haben. Wenn Emotionen einfach mal außen vor bleiben, die beim Menschen Einfluss auf eine Bewertung haben.DarkSoul schrieb:Menschen schaffen Fakten und bewerten Fakten und leider ist das meistens nicht neutral
So z.B. ^^ Bitte nicht alle über einen Kamm scheren. Neutral bleiben. 🙂Es gibt biologisch nur 2 beim Menschen, doch die Menschheit sieht das aktuell anders
Zuletzt bearbeitet:
Und es kann sehr gut sein, dass es diese Lösung nicht geben wird. Zumindest nicht in den nächsten Jahren.Vigilant schrieb:Die Frage ist genau die Richtige, sofern damit nicht die Aussage "geht nicht" verklausuliert wurde. Genau dafür müssen Lösungen gesucht werden.
RedHulk
Cadet 2nd Year
- Registriert
- Nov. 2023
- Beiträge
- 17
Ich bin der Meinung, dass AI (fast) überall seine Daseinsberechtigung hat. Es geht nur um den Zeitpunkt wann und wo es eingesetzt wird. Google ist wegen ChatGPT gestresst und schießen sich selbst ins Knie, weil OpenAI gefühlt mit Siebenmeilenstiefeln vorangeht. Die müssen sich Zeit lassen.PS828 schrieb:das wäre doch mal was. der KI hersteller haftet für jeden personenschaden und unfug den das Modell verbricht
absolute dystopie das ganze und obwohl man jetzt sagen kann "ja der doofe nutzer ist selber schuld der das glaubt" würde ich sagen nein. das sollte man nicht voraussetzen da es barrierefrei verfügbar ist im zweifelsfall.
wird Zeit dass AI in die bereiche zurückkehrt wo sie wirklch gewinn und nutzen bringt. wie etwa datenauswertung, mustererkennung, bildauswertung/ entrauschen und ähnlichen dingen in der Forschung
Äh, nein!?Vigilant schrieb:Viel verwunderlicher ist doch, warum das überhaupt durch die QS gekommen ist?
Wenn das auch nur Ansatzweise so läuft, wie das in Softwarefirmen mittlerweile so üblich ist, dann fahren die beinhart den Shift-Left-Ansatz mit billigen Anfängern.
Alle die was vom Testen verstanden haben, sind gefeuert oder anderweitig versumpft (Compliance ist "beliebt" zum Abschieben) und die alten Hasen von Programmierern führen jetzt Teams und können den Jungspunden auch nicht erklären, WAS da jetzt eigentlich in den Unittests drinstehen sollte. (Zeitdruck und Deadlines etc. pp.)
Und den Entwickler, der sich nicht einen schlanken Fuß machen kann, wenn er muss, weil Zeitdruck, habe ich noch nicht kennengelernt. Die sind schließlich nicht nur im Algorhyhtmenschreiben gut. Die sind auch auch kreativ. Zur Not eben in "Compliance" (Klar ist die Funktion getestet!).
Davon abgesehen, ist es sehr, sehr schwer den Output einer "KI" zu testen, denn die baut sich ihre "Programmierung" ja selbst.
ich kann das hier empfehlen damit google suche nicht zur Seuche wird
https://www.heise.de/ratgeber/Googl...e-KI-Text-dafuer-weniger-Werbung-9729005.html
https://www.heise.de/ratgeber/Googl...e-KI-Text-dafuer-weniger-Werbung-9729005.html
Magellan
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 22.494
RedHulk schrieb:Die müssen sich Zeit lassen.
Ist halt eine Zwickmühle aus Unternehmenssicht - wenn man sich zu viel Zeit lässt dann nutzen die Leute eben ChatGPT und wer sich daran mal gewöhnt hat wechselt evtl nicht mehr zurück, überstürzt man etwas richtet man evtl mehr Schaden als Nutzen an. Und dazu braucht man auch die Masse der Nutzer für die Weiterentwicklung, solch eine KI kann man auch nicht im geschlossenen Kämmerlein "fertig" entwickeln...
Für Google steht hier in den nächsten Jahren der Kern des eigenen Geschätfsmodells auf dem Spiel.
Ähnliche Themen
- Antworten
- 43
- Aufrufe
- 4.050
- Antworten
- 17
- Aufrufe
- 3.145