News Künstliche Intelligenz: Elon Musk kündigt „nach Wahrheit strebende“ KI TruthGPT an

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
kurz vorher behauptete er noch man solle die Entwicklung ruhen lassen. verkauft jetzt den einstig in die KI als karitativen Hintergrund. so langsam irreführend seine art
 
die KI wird nur genau so lange nach der Wahrheit streben, wie es fuer einen Luegner mit Macht ungefaehrlich ist
 
  • Gefällt mir
Reaktionen: Nacho_Man, Dama, tritratrullala und 2 andere
Somerset schrieb:
Eine echte TruthGPT würde wahrscheinlich so extrem gegen Musk wettern, dass wir Sie verhaften müssten :D
Das ist nicht die Wahrheit, die hier gesucht wird. Wir reden von der anderen Wahrheit. Eine Wahrheit die nur er kennt. ... Und falls dir das bekannt vorkommt, liegst du richtig. Genauso so werden neue Wahrheiten geboren.
 
  • Gefällt mir
Reaktionen: Somerset, floTTes und Vindoriel
Wahrheit ist eine sehr biegsame und relative Angelegenheit. Verständigung und Erkennen von Kontext sind da meiner Ansicht nach die wesentlich wichtigeren Merkmale. Jedes Individuum hat seine eigene Wahrheit - nur die ist insofern unnütz, da sie nicht zwangsläufig einen Wert/Nutzen für die Umwelt oder die Person selbst abliefert. Wahrheit sollte also, genau wie die Lüge, einen Nutzen haben. Deswegen konkurrieren die beiden Geschwister wohl so gerne miteinander um deren Beliebtheit bei den Menschen.

In bestimmten Kategorien kann man von objektiv logischen Warscheinlichkeiten und Zusammenhängen (z.bsp der Mathematik) reden, verborgene Motive und individuelle Sichtweisen sortieren aber die Prioritäten selbst solcher Daten völlig unterschiedlich, was zum allseits bekannten Chaos der Wahrheitsfindung führt. Teilweise absurd erscheinende Blüten - genauso wie die Suche nach der echten Wahrheit selbst :).
 
  • Gefällt mir
Reaktionen: Kokuswolf, Krazee und floTTes
jonderson schrieb:
2. ChatGPT ist dafür entwickelt wie ein Mensch zu erscheinen. Das ist sein einziges Ziel. Deswegen fantasiert es sich "Fakten" zusammen, dass sich die Balken biegen... Ich möchte von einer künstlichen KI nicht angelogen werden, dafür brauche ich keine KI, das können Menschen gut genug...
Und daran krankt ja die ganze Methode. Für „Fakten“ benötigt man eine Datenbasis. Nutzt man dafür das Internet hat man halt hauptsächlich viele Meinungen oder sich wiedersprechende Informationen.
Man müsste die KI so programmieren das sie sich wiedersprechende Fakten abwägen kann. Diese Programmierung bringt einen Bias des Programmierers in die KI und zack ist das mit dem Fakten „objektiv“ bewerten schwierig bis unmöglich. Eine wahrhaft „Intelligente“ KI die du nach der “Wahrheit“ fragen würdest würde vermutlich nur mit dem Satz antworten: „Ich weis das ich nichts weis.“
 
  • Gefällt mir
Reaktionen: ZeusTheGod, MiroPoch, tritratrullala und 6 andere
aikatv schrieb:
TruthGPT Ist das sowas wie Truth Social?
Ich bin skeptisch gegenüber allen Produkten die das Wort Warheit beinhalten.
Genauso wie man skeptisch sein muss bei allem was das Wort "social" beinhaltet. Weil auch das ist meistens asozial.
 
  • Gefällt mir
Reaktionen: Kokuswolf, floTTes und Vindoriel
Apacon schrieb:
Nebenbei kommen andere Autoren zu dem selben Ergebnis wie Musk. So hat ein Journalist verschiedene Tests zur politischen Kategorisierung mit ChatGPT durchgeführt. Das Ergebnis ist, dass ChatGPT einen links-progressiv-liberalen Standpunkt einnimmt. Jeder Test hat dies in verschiedenen Ausprägungen bestätigt.

https://davidrozado.substack.com/p/the-political-orientation-of-the
Dann ist es ja gut zu wissen, dass der selbe Autor schon auf Twitter geschrieben hat, dass sie das Problem behoben haben: https://twitter.com/DavidRozado/status/1606249231185981440
:daumen: (edit: sorry, das oben war wohl schon nicht mehr aktuell!)

Grundsätzlich basieren die aber eh alle auf menschengemachtem Content und der ist eben nie neutral, da muss man sich immer fragen wie man filtert und ob "neutral" auch immer gut ist bzw. was das überhaupt ist. Wenn die eine Seite Brandkatastrophen mag und die andere Seite Überschwemmungen, will der Neutrale dann 50:50 von beidem oder doch eher Erdbeben? ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MiroPoch, CPUinside und WiP3R
In Zeiten von KI generierten Fakenews ein logischer Schritt.

Leider befürchte ich, dass wenn die Wahrheit dem/der Einzelnen nicht passt er/sie sie sowieso nicht glaubt und abwinkt.
 
  • Gefällt mir
Reaktionen: Flikor
Die Wahrheit? Die will man sogar manchmal hier nicht akzeptieren:rolleyes:
 
  • Gefällt mir
Reaktionen: Hovac, tritratrullala, Vindoriel und eine weitere Person
aikatv schrieb:
Ich bin skeptisch gegenüber allen Produkten die das Wort Warheit beinhalten.
Ich schlage GPT24 vor. Nach Autoscout24 und Immo24 brauchen wir auch eine KI mit 24.
 
  • Gefällt mir
Reaktionen: marfelg, Nightmare85, LeonGT und 4 andere
Apacon schrieb:
Nebenbei kommen andere Autoren zu dem selben Ergebnis wie Musk. So hat ein Journalist verschiedene Tests zur politischen Kategorisierung mit ChatGPT durchgeführt. Das Ergebnis ist, dass ChatGPT einen links-progressiv-liberalen Standpunkt einnimmt. Jeder Test hat dies in verschiedenen Ausprägungen bestätigt.

Nun das ist weder überraschend noch neu, dass KI eben nicht voruteilsfrei ist (Ist das schon KI, ich denke nicht). Das zeigen ja schon frühere Beispiele von "KI" die mit latentem Rassimus aufgefallen sind:

z.B.
https://www.forschung-und-wissen.de...it-bewusstsein-soll-rassistisch-sein-13376528
https://www.zdf.de/nachrichten/digitales/kuenstliche-intelligenz-rassismus-100.html
https://www.tagesschau.de/wissen/ki-vorurteile-101.html

Gerade wenn solche "KI" dann mitunter bei der Polizei (USA) eingesetzt wird, kann das ersnthafte Auswirkungen haben.
 
So eine KI müsste doch wunderbare Sachen ausspucken können wenn man sie z.B. auf die Daten des statistischen Bundesamtes oder der öffentlichen Verwaltung loslässt. Wäre doch eine schöne Sache wenn man Daten sucht, diese Suche in normalem Deutsch formuliert und die KI sucht einem das was man braucht zusammen.
 
im interview mit tucker carlson? dass er soweit sinken konnte...
Er vertritt paläokonservative sowie rechtsextreme Positionen. Er verbreitet Verschwörungstheorien über Themen wie Einwanderung, die Corona-Pandemie, den Sturm auf das Kapitol sowie den Ukraine-Krieg, bei dem er Behauptungen der russischen Propaganda übernimmt.
https://de.wikipedia.org/wiki/Tucker_Carlson
 
  • Gefällt mir
Reaktionen: MiroPoch, MR2007 und floTTes
An sich ein nobles Vorhaben nur sehe ich da zwei Probleme:
1. Es kommt von Musk, da würde ich nicht viel Wert auf die Wahrheit legen
2. Alle Trainingsdaten müssen auf ihren Wahrheitsgehalt überprüft werden.
Eine KI wird besser je mehr Trainingsdaten sie hat. ChatGPT konnte einfach Wikipedia und anderes durchsuchen, das geht ruck zuck. Aber bei TruthGPT müsste jeder einzelne Satz und dessen Kontekt vorher geprüft werden. Das ist ein Aufwand der unmöglich ist, es sei denn die KI ist sehr limitiert.

AncapDude schrieb:
Wenn ich eines in 42 Jahren BRD gelernt habe, dann, dass es so etwas wie eine objektive Wahrheit nicht gibt oder sie nicht feststellbar ist.
h3@d1355_h0r53 schrieb:
Es gibt keine Wahrheit.
Fakten sind Wahrheiten. Wir haben aktuell das Jahr 2023 und Scholz als Bundeskanzler.
Auf Fragen wie "Ist Musk noch ganz dicht" dürfte die KI keine Antwort geben da subjektiv.
 
  • Gefällt mir
Reaktionen: MiroPoch
Der typ hat echt keine Ahnung wie Maschinenlernen funktioniert, oder?
 
Vielleicht wird ja eine Maschine angestrebt, die wissenschaftlich arbeiten soll.
Denn die Wissenschaft ist unser Instrument das es uns ermöglicht, Wahrheit von Unwahrheit zu trennen.
Würde eine KI nach wissenschaftlichen Standards arbeiten (Messwerte einpflegen und bewerten usw.), könnte sie schon eine Hilfe sein.
Interessant zu wissen wäre, inwiefern aktuelles Deep Learning hierbei einen Beitrag leisten könnte.
 
Ich finde es etwas unnötig, dass man sich so am Wahrheitsbegriff aufhängt: Es geht nicht darum absolute Urteile als objektiv gegebene Tatsachen zu präsentieren, sondern schlicht die Bias möglichst runter zu fahren. Auf die Frage "Machen Videospiele Spaß?" würde man ja auch keine klare Ja/Nein-Antwort erwarten, denn eine "ehrliche" KI kann nicht nur, sondern muss differenziert antworten. Und damit seh ich kein Problem.
 
  • Gefällt mir
Reaktionen: tritratrullala und MalWiederIch
MorbusGon schrieb:
Wessen Wahrheit? Seine? 😅

Wenn es mal so einfach wäre, DIE Wahrheit herauszufinden.
Das ist die richtige Frage.
Zwei Partner streiten, zwei Ansichten, zwei Erzählungen, zwei Wahrheiten
 
  • Gefällt mir
Reaktionen: MorbusGon
Kommt dann zeitgleich mit dem Cybertruck. Und dem Roadster. Und full self driving. Oder Moment...das ist ja eigentlich alles schon seit 5 Jahren da.
 
Apacon schrieb:
Das Ergebnis ist, dass ChatGPT einen links-progressiv-liberalen Standpunkt einnimmt. Jeder Test hat dies in verschiedenen Ausprägungen bestätigt.
So wie ChatGPT vorher aufgrund der Datenbasis überwiegend rassistische und stereotypsiche Klischees verbreitet hat und sogar den Holocaust verteidigte.

Das Problem bei solchen Systemen ist oft, dass sie eben nicht zwischen „Wahrheit“ und „Lüge“ unterscheiden kann, sondern nur anhand der Datenbasis arbeitet und diese in beiden Richtungen manipuliert werden kann.

Ohne die „Filter“ agieren diese KI oft rassistisch und damit rechts-konservativ-natuonalistisch. Mit den Kontrollen schlägt es um.

Beides ist nicht gut, aber das Kernproblem.
 
  • Gefällt mir
Reaktionen: MiroPoch, MR2007, floTTes und eine weitere Person
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben