News Künstliche Intelligenz: Elon Musk kündigt „nach Wahrheit strebende“ KI TruthGPT an

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Nogothrim schrieb:
das ist ja ein genereller Trend, libertär-konservative "Wahrheiten" und naturwissenschaftliche Fakten sind oft inkompatibel gewesen in letzter Zeit.
Das ist doch ein Problem, dass sowohl das linke wie auch das rechte politische Lager plagt. Wissenschaftliche Fakten, die der eigenen Weltsicht widersprechen werden gekonnt ignoriert.
Und wenn es dann in der Wissenschaft genug Anhänger eines politischen Lagers gibt, dann werden sogar wissenschaftliche Ergebnisse dadurch beeinflusst oder Studien gecancelt, die möglicherweise ein nicht politisch korrektes Ergebnis liefern könnten. Ohne Studien und die finanziellen Mittel sind Gegenbeweise dann gar nicht mehr möglich. So wird die Wissenschaft in politisch korrekte Bahnen gelenkt.

Daher kann ich Musks (vorgebliches) Ziel hier durchaus verstehen. Alle KIs und Suchmaschinen werden immer darauf getrimmt politisch korrekt zu sein. Und wenn sie das nicht sind, hagelt es Kritik. Bspw. als Googles Schlagwortaltgo Gorillas und schwarze Menschen verwechselt hat.

Die Frage ist halt, wie er Daten zum Training bekommen will, die definitiv frei von Unwahrheit und politischer Korrektheit sind.
 
  • Gefällt mir
Reaktionen: Ned Flanders und tritratrullala
Elon Musk was dieser Mann geschafft hat das müsst ihr erst mal schaffen!

ich begrüße das Projekt!
 
  • Gefällt mir
Reaktionen: paulemannsen, tritratrullala und BlackhandTV
Apacon schrieb:
Grundsätzlich soll eine KI natürlich Vorurteilsfrei agieren. Allerdings ist das nennen von Fakten eben auch erstmal nur das, ein nennen von Fakten.
Auf dieser Basis halte ich es für wahrscheinlich, dass eine neutrale KI für die Konservativen, die aktuelle Modelle für "zu woke" halten, ziemlich nach hinten losgeht. Vor allem wenn man sie zu Dingen wie Kaufkraft und Wohlstandsverteilung befragt und diese in historischen und sozialen Kontext setzt.
 
Da darf man ja gespannt sein, was Musk hier am Ende anstellt.
Leider ist sein Name zumindest Heute ja noch genug um einige Investoren anzulocken, auch wenn er selbst von der Materie eigentlich keine Ahnung hat. Und Geld hat er selbst leider auch ohne Ende, so dass er seine Vorstellungen ohne Probleme umsetzen kann.

Was er hier aber mit "Wahrheit suchen" meint, muss er wohl erst mal für sich selbst aber auch für das spätere Produkt definieren: wenn die Wahrheit nicht das ist, was Elon hören will, dann wird sie schlicht nicht akzeptiert und er sucht sich lieber Sündenböcke oder fängt mir Schwurbel-nahen Theorien an. Sowas mag dann den Begriff der subjektiven Wahrheit genau treffen, nur hat das am Ende nicht viel mit objektiver Wahrheit zu tun...

Passt somit aber auch 1A in das Weltbild heute "die Wahrheit ist, was immer mir gefällt". Dürfte sich als Produkt später also auch verkaufen.
 
  • Gefällt mir
Reaktionen: Krazee
Apacon schrieb:
Ist halt immer die Frage, was ist rassistisch?

Wenn die KI aus den Kriminaldaten den Satz formuliert, PoC wären grundsätzlich häufiger kriminell und dabei "übersieht", dass die Ursache für die höhere Kriminalitätsrate systemimmanenter gesellschaftlicher Rassismus ist (Bildungschancen, Job-Chance, prekäres Milieu, etc.). Hätte man eine KI im 19 Jahrhundert gefragt, wäre auch nur herausgekommen dass nur weißhäutige Personen Großgrundbesitzer sein können.

Sollte eine "Truth-KI" dies korrekt erkennen und wiedergeben, dann wäre sie näher an "der Wahrheit".

Diese Language-Modelle verwursten nur ihre Datengrundlage, ihre Antworten sind "nur" diese Daten wieder anders formuliert. Die Alarmglocken sollten läuten, wenn irgendjemand das als "Intelligenz" verkauft und erst recht, wenn hier eine Maschine zum "Wahrheits-Orakel" werden soll.
 
  • Gefällt mir
Reaktionen: ZeusTheGod, spreagadh, rosenholz und 9 andere
Der gute Mann kommt mir zunehmend seltsam vor. Vielleicht nur ne Berufskrankheit, vielleicht aber auch nicht.

Und vielleicht geht es bei seinen markigen Sprüchen auch wirklich nur um Kohle.
 
scryed schrieb:
Aber die Technik ansich ist spitze , wie ich woanders schon erwähnt habe sowas mit siri und co kombinieren und wir haben Startrek mit Computer sage mir ....
Oder eine Star-Dystopie.
Computer, erzähl mir Lügenmärchen über...
 
  • Gefällt mir
Reaktionen: daknoll
Apacon schrieb:
Wenn sich eine KI Kriminaldaten anschaut ist es logisch, dass schwarze Menschen dann kritischer betrachtet werden. Dies ist dann aber eben Faktenbasiert und keingrundsätzlicher BIAS gegen schwarze.
Und genau das stimmt nicht. Die Datenbasis entsteht nicht, "weil es so ist", sondern weil sie Produkt der jeweiligen Gesellschaft ist.
Eine rassistische Gesellschaft erzeugt eine rassistische Datengrundlage. Eine frauenfeindliche Gesellschaft erzeugt eine frauenfeindliche Datengrundlage. Eine Gesellschaft mit Kastensystem erzeugt eine entsprechende Datengrundlage. Es sind also keine "neutralen Fakten" und dieses Zerrbild wird von KI weiter verfestigt.
Eine der großartigen Eigenschaften des Menschen ist, dass er nach Höherem streben kann als dem aktuellen "Ist". KI kann dies zumindestens aktuell noch nicht einmal im Ansatz.
 
  • Gefällt mir
Reaktionen: aspro, ZeusTheGod, spreagadh und 8 andere
Brauch man nicht, wenn man mal seine HI - Human Intelligence einschaltet. Selbst OpenAI sagt ganz klar:

Screenshot 2023-04-18 at 16.48.30.jpg


Was da also generiert wird ist nicht einfach "unwahr" sondern halt falsche Informationen die man entsprechend überprüfen muss. Fakt ist ein 100% Bias freies Produkt gab es nie und wird es nie geben.
 
Jetzt hat er den Trump-Modus vollends aktiviert. Na gratuliere.
 
  • Gefällt mir
Reaktionen: spreagadh, MR2007, Elwood Blues und 2 andere
Apacon schrieb:
Ist halt immer die Frage, was ist rassistisch? Wenn sich eine KI Kriminaldaten anschaut ist es logisch, dass schwarze Menschen dann kritischer betrachtet werden. Dies ist dann aber eben Faktenbasiert und keingrundsätzlicher BIAS gegen schwarze.
Nicht schlecht.
Frage gestellt und direkt im Satz später auch beantwortet.
 
  • Gefällt mir
Reaktionen: mae, DevPandi, Schokolade und 5 andere
moa schrieb:
Nicht schlecht.
Frage gestellt und direkt im Satz später auch beantwortet.
Was genau ist an diesem Verhalten rassistisch? Das ist einfach statistische Auswertung und Benennung von Fakten.
 
in dem er eine sechsmonatige Pause in der Entwicklung für KI-Systemen, die mächtiger als GPT-4 sind, forderte
da ging es ihm ja sicherlich nur darum, genug zeit zum aufholen zu bekommen.

"künstliche intelligenzen" bzw künstliche neuronale netzwerke sind sehr eingeschränkte werkzeuge.
die können keine zivilisation auslöschen.

menschen, die diese werkzeuge missbrauchen, können schaden anrichten, zb:
  • falschinformationen auf grund von halluzinationen verbreiten (sprachmodelle/bildmodelle etc), was aber dank verschwörungstheorien und photoshop schon lange möglich ist
  • von inter-/extrapolation auf die realität schließen, um menschen zu benachteiligen (maschinelles lernen bei versicherungen/kreditwürdigkeit/polizei etc), was aber durch menschlichen vorurteile schon lange möglich ist

und wer entscheidet, was das eigene sprachmodell als wahrheit ansieht und was zensiert wird? der ersteller/betreiber des sprachmodells. es geht also nur um elons meinung, nicht um objektive wahrheit.
 
  • Gefällt mir
Reaktionen: CPUinside
piccolo85 schrieb:
Bislang ist es eher so, dass man LLMs lernen lässt und dann die Ergebnisse dem eigenen Verständnis nach zensiert.
Ein unzensiertes LLM fände ich da ziemlich erfrischend.
Unzensiert ist das falsche Wort. Man trifft durch die Auswahl des Lernmaterials immer schon eine Vorauswahl. Was man ohne Filter geliefert bekommt hat man ja schon bei den ersten Chatbots gesehen.
Apacon schrieb:
Ist halt immer die Frage, was ist rassistisch? Wenn sich eine KI Kriminaldaten anschaut ist es logisch, dass schwarze Menschen dann kritischer betrachtet werden. Dies ist dann aber eben Faktenbasiert und keingrundsätzlicher BIAS gegen schwarze.

Grundsätzlich soll eine KI natürlich Vorurteilsfrei agieren. Allerdings ist das nennen von Fakten eben auch erstmal nur das, ein nennen von Fakten.
Geht auch anders herum :D
Menschen mit dunkler Hautfarbe bekommen für die selben Delikte tendenziell schwerere Strafen als Menschen mit hellerer Hautfarbe.
Seltsam nicht? Vlt. Ist diese ganze Diskussion etwas komplexer als nur schwarz/weiß denke? Kleiner Tipp: Verbrechensstatistiken machen mehr Sinn wen man sie mit der Armutsstatistik zusammen betrachtet.
Intelligenz ist es wen man Fakten in einen Kontext zueinander setzen kann.
 
  • Gefällt mir
Reaktionen: ZeusTheGod, spreagadh, DevPandi und 3 andere
Apacon schrieb:
Ist halt immer die Frage, was ist rassistisch? Wenn sich eine KI Kriminaldaten anschaut ist es logisch, dass schwarze Menschen dann kritischer betrachtet werden. Dies ist dann aber eben Faktenbasiert und keingrundsätzlicher BIAS gegen schwarze.

Grundsätzlich soll eine KI natürlich Vorurteilsfrei agieren. Allerdings ist das nennen von Fakten eben auch erstmal nur das, ein nennen von Fakten.
Dass sich immer noch nicht der Unterschied von Korrelation und Kausalität herumgesprochen hat. So schwer ist das doch nicht. Oder willst du ernsthaft behaupten, dass die Hautfarben einen kausalen Zusammenhang zur Kriminalität hat?
Aber genau das ist so ein Punkt, an denen sich eine KI vermutlich noch lange die Zähne ausbeißt. Denn wirklich begreifen tut sie Sachverhalte nicht, sondern stellt nur gewichtete Zusammenhänge her. Aber so lange das schon Menschen nicht begreifen, wird's auch schwierig das einer KI beizubringen.
 
  • Gefällt mir
Reaktionen: ZeusTheGod, spreagadh, rosenholz und 14 andere
Finde ich toll. Eine künstliche Intelligenz sollte über den politischen Barrieren stehen und nur auf 100% belegten Fakten basieren, beziehungsweise selbst kritisch alles hinterfragen (besonders auch rechte Sachen !!)
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben