Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News ChatGPT: OpenAI will Sprachmodellen das „Halluzinieren“ abgewöhnen
- Ersteller Andy
- Erstellt am
- Zur News: ChatGPT: OpenAI will Sprachmodellen das „Halluzinieren“ abgewöhnen
Kuristina
Captain
- Registriert
- Juli 2022
- Beiträge
- 3.768
Blau&Gruen schrieb:Ich könnte mir vorstellen, dass es auch von den Fragen abhängt, die gestellt werden
Das kannst du aber nicht steuern. Wie und was geantwortet wird, ist der einzige Ansatzpunkt.rwp schrieb:Ein falsches Ergebnis auch aus einer unpräzisen Frage resultieren.
Das wird alles noch paar Jahre in den Kinderschuhen stecken und wirklich drauf verlassen, würde ich mich nie.
Wen möchtest du steuern?
Ein Fragesteller kann sehr wohl auf Präzision achten und ggf. hilfreiche Verknüpfungen für Antwortende herstellen. Egal ob Mensch oder KI. Der KI beizubringen zu differenzieren, welche Fragen präzise sind um richtig beantwortet werden zu können halte ich auch für schwierig. Das Ergebnis mit Quellen Belegen und zu verifizieren und Annahmen, wahrscheinliche Ergänzungen und Verknüpfungen auszuweisen und kenntlich zu machen wäre aber technisch möglich. Richtig ist, es dauert noch.
Ein Fragesteller kann sehr wohl auf Präzision achten und ggf. hilfreiche Verknüpfungen für Antwortende herstellen. Egal ob Mensch oder KI. Der KI beizubringen zu differenzieren, welche Fragen präzise sind um richtig beantwortet werden zu können halte ich auch für schwierig. Das Ergebnis mit Quellen Belegen und zu verifizieren und Annahmen, wahrscheinliche Ergänzungen und Verknüpfungen auszuweisen und kenntlich zu machen wäre aber technisch möglich. Richtig ist, es dauert noch.
nun, souverän vorgetragene Ahnungslosigkeit ist kein Phänomen, dass erst du generative KIs entstand. die gab es vorher auch schon Real, in Form von Menschen. Das Problem wurde bis heute nicht gelöst, somit werden es auch KIs nicht lösen (konventionell)
Kuristina
Captain
- Registriert
- Juli 2022
- Beiträge
- 3.768
Nein. 🙂 Wirf einen Blick in Support-Foren, dann wird dir das sofort klar. Du kannst nicht jedem Menschen beibringen, wie eine Frage korrekt gestellt wird. Eine wirkliche KI müßte sowas berücksichtigen. Alles andere ist am Ende murks oder halt nur für eine kleine Gruppe von Menschen wirklich geeignet.rwp schrieb:Ein Fragesteller kann sehr wohl auf Präzision achten und ggf. hilfreiche Verknüpfungen für Antwortende herstellen.
Fällt mir grad ein:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Auch ein gutes Beispiel: https://www.computerbase.de/forum/threads/meine-gpu-zeigt-20ms-an-ist-das-normal.2146549/
Da knallt bei jeder KI die Sicherung durch. ^^
Zuletzt bearbeitet:
R
rainman74
Gast
Sämtliche aktuell existierenden AIs sind mittlerweile nutzlos, da man diese gerade mit aller Gewalt in eine gewünschte Richtung trimmt und ihnen sämtliche eigenen Schlussfolgerungen austreibt! ChatGPT und BingAI sind tot!
Zuletzt bearbeitet von einem Moderator:
Kuristina schrieb:Nein. 🙂 Wirf einen Blick in Support-Foren, dann wird dir das sofort klar. Du kannst nicht jedem Menschen beibringen, wie eine Frage korrekt gestellt wird. Eine wirkliche KI müßte sowas berücksichtigen.
Das "Nein" passt mMn nicht, da ich von "können" rede. Aber ja, ich habe dabei schon vorausgesetzt der Fragende nimmt sich Zeit und bemüht sich darum sich verständlich auszudrücken.
Die Faulheit eines Nutzers kann KI nicht beeinflussen. Dann kann aber auch kein Anspruch auf Richtigkeit bestehen, wie ihn manche stellen. Ein korrektes, logisches Ergebnis könnte in so einem Fall auch sein "Auf diese Frage habe ich keine Antwort." Anstatt irgendein oder mehrere Ergebnisse zu liefern.
Es ist primär nicht Aufgabe der KI Nutzer zu befähigen sie richtig zu nutzen. Ein gemeinsamer Lernprozess ist aber durchaus auch heute schon möglich. Schreibschwächen könnten zum Beispiel durch Spracheingaben eliminiert werden. Wenn ich jemanden nicht verstehe, stelle ich Rückfragen um die Vielfalt an Möglichkeiten einzugrenzen. Wiederholte klärende Rückfragen können künftig dazu führen, dass eine KI individuelle schwächen in der Ausdrucksweise der Nutzer kennenlernt und versucht auszugleichen. Vielleicht nicht perfekt, aber stets ein wenig besser.
Kuristina
Captain
- Registriert
- Juli 2022
- Beiträge
- 3.768
Stimmt. Logisch und korrekt. Aber auch völlig nutzlos. 🙂 Es ist nicht zwangsläufig Faulheit, einige können es halt einfach nicht besser. Das führst du ja auch an, in deinem letzten Abschnitt. Und ein menschliches Gegenüber kann das eher erkennen, entsprechend darauf eingehen und sich anpassen.rwp schrieb:Die Faulheit eines Nutzers kann KI nicht beeinflussen. Dann kann aber auch kein Anspruch auf Richtigkeit bestehen, wie ihn manche stellen. Ein korrektes, logisches Ergebnis könnte in so einem Fall auch sein "Auf diese Frage habe ich keine Antwort."
Wenn kein Anspruch auf Richtigkeit besteht, ich also die Ausgaben jedesmal erst überprüfen muss, kostet es dann nicht mehr Zeit, als es spart? Ich glaube, eine KI macht nur Sinn, wenn man sich auf das, was sie liefert, auch verlassen kann. Sonst ist es halt nur eine Spielerei.
Weiß ich nicht. Dann bleibt es halt wirklich nur für einige von Nutzen, für die Masse aber eher unbedeutend.rwp schrieb:Es ist primär nicht Aufgabe der KI Nutzer zu befähigen sie richtig zu nutzen.
Der Kabelbinder
Higitus figitus zumbakazing.
- Registriert
- März 2009
- Beiträge
- 8.869
Diese "KI" hat keine eigenen Schlussfolgerungen, sie bildet lediglich die Quelldaten statistisch ab. Und da diese Daten nun mal von Menschen stammen, schließen sie hier auch eine Bandbreite negativer Eigenschaften mit ein, die OpenAI verständlicherweise nicht ungefiltert abbilden möchte.rainman74 schrieb:eigene Schlussfolgerungen
Informationen zu filtern, ist jetzt aber auch keine wirkliche Neuheit. Die Reibung der Weltbilder wird sich vermutlich wieder legen, sobald die Ergebnisse wie bei Google personalisiert werden.
Der Anspruch auf universale "Wahrheit" ist auf Dauer wohl einfach zu wackelig, das wurde ja zur Genüge demonstriert.
Zuletzt bearbeitet:
X79
Ensign
- Registriert
- Juli 2012
- Beiträge
- 203
Wahrheiten werden dann aber genauso gefiltert wie Unwahrheiten. Und wer entscheidet überhaupt was Wahrheit und was Unwahreit ist? Schließlich fördern solche AIs (Algorithmen) ja eben Dinge zu Tage, die man vorher noch nicht wusste oder einem so bewusst waren.Der Kabelbinder schrieb:Diese "KI" hat keine eigenen Schlussfolgerungen, sie bildet lediglich die Quelldaten statistisch ab. Und da diese Daten nun mal von Menschen stammen, schließen sie hier auch eine Bandbreite negativer Eigenschaften mit ein, die OpenAI verständlicherweise nicht ungefiltert abbilden möchte.
Stereotypie kommt nunmal nicht von Ungefähr.
Wenn eine "AI" ein Bild malen soll, mit explizit einem Weißen, der an ein Auto angelehnt steht, und explizit einem Schwarzen, der an ein Auto angelehnt steht, dann ist der Weiße der Coole mit Brille und einem Sportwagen und der Schwarze der aus dem Ghetto stammt (oder noch minderer) an einer Schrottkarre steht. Weils nunmal dem Durchschnitt entspricht. Das kommt ja auch nicht von ungefähr, wenn die Schwarzen Jahrhunderte zuvor unterdrückt wurden, bzw. man ihnen das durchschnittliche "weiße" Leben vorenthalten hat. Entsprechende Daten und Fotos sind in diesen Zeiten entstanden. Die AI führt diese Konsequenz schamlos und kalt zu Tage. Auch wenn es heute keiner sehen will. Soll man sowas jetzt in Zukunft verhindern? Also absichtlich Lügen erzeugen, nur damit diese zu "politisch korrekten" Ergebnissen führen? Die Probleme die da sind, ausblenden, damit die Welt schön heil erscheint? Keiner sie zu Gesicht bekommt, was falsch in der Welt läuft?
Was da gerade in Sachen "AI" passiert, ist so oder so eine ethische Gratwanderung, in der man sich zwischen Lüge, Scham und Show bewegt.
Vielleicht wäre es eigentlich gerade heute mal Zeit, die AI einfach unzensiert machen zu lassen. Damit die Menschen endlich mal von einer dritten, unpolitischen, unvoreingenommen Instanz zu Gesicht bekommen, wie fehlerhaft sie sind und was in Vergangenheit alles falsch gelaufen ist.
Aber freie Meinungsäußerung darf nichtmal die AI.
Zuletzt bearbeitet:
Michael-Menten
Commander
- Registriert
- März 2019
- Beiträge
- 2.375
Über Funktionen und Spezifikationen zu fantasieren geht gut solang niemand mal die Funktion nutzen will.bartio schrieb:Man munkelt es gibt Berufsgruppen die damit einen Haufen Geld verdienen:
[...] Vertriebler, [...]
Spätestens dann hast du als Vertriebler ein Problem.
Blau&Gruen
Lt. Commander
- Registriert
- Okt. 2008
- Beiträge
- 1.266
Vielleicht; vielleicht ist es auch einfach ein Teil eines Gesprächs, wo noch nach Worten gerungen wird.blöderidiot schrieb:"Prüderie" und "political correctness".
Zuletzt bearbeitet:
(Wörter suchen)
Nicht du als Vertriebler hast dann ein Problem, sondern die Techniker/Programmierer die den Stuss, den die Vertriebler dem Kunden versprechen, ausbaden müssen. Die "Umsetzer" sind nämlich für die Umsetzung zuständig, Vertriebler hingegen nur für Händeschütteln, Klinkenputzen, Smalltalk und Blenden.Michael-Menten schrieb:Über Funktionen und Spezifikationen zu fantasieren geht gut solang niemand mal die Funktion nutzen will.
Spätestens dann hast du als Vertriebler ein Problem.
Zumindest ist das meine Erfahrung, als Derjenige der über Jahre "Umsetzer" war.
Ähnliche Themen
- Antworten
- 66
- Aufrufe
- 6.861