News KI-Sprachmodell „LLaMA“: Meta präsentiert Konkurrent für ChatGPT und Google Bard

Highspeed Opi schrieb:
Was aber immer gerne wegignoriert wird:
Wie entstehen Vorurteile oder Klischees?

Sobald Menschen aus/mit XYZ überdurchschnittlich ABC sind/haben, kommt direkt ein "Captain Obvious" um die Ecke und sagt, dass nicht alle so sind. Dann wird versucht, ein statistischer Wert fälschlicherweise glatt zu bügeln (50%), obwohl Fakten - aufgrund verschiedener Umstände - belegbar bleiben.

Damit dreht sich diese Diskussion immer im Kreis.

(...)
Werden wir doch mal deutlich: Du spielst darauf an, dass Menschen mit Migrationshintergrund häufiger in der Kriminalstatistik auftauchen.

Dann leitest du daraus ab, "die" seien eben häufiger kriminell. Und in völliger Verkehrung der Realität ist jetzt nicht diese falsche Schlussfolgerung das Vorurteil, sondern Vorurteile würden erst entstehen wenn jemand dieser Schlussfolgerung widerspricht.

Das ist, gelinde gesagt, absurd.

1. Die Schlussfolgerung ist falsch. Man bezieht sich dabei zwar auf "Zahlen und Fakten", interpretiert diese aber falsch. Denn ja, alle Daten müssen interpretiert werden.
Was diese Zahlen nämlich zeigen ist eine Korrelation, keine Kausalität. Den Unterschied darfst du gern googlen, nur soviel: Vergleiche die Kriminalstatistik mal bei normierten Einkommen. Also alle Menschen unter, sagen wir 2200€ Einkommen oder im Sozialhilfebezug. Und schwupps sind "Deutsche" genau so häufig vertreten, denn Kriminalität hat nun mal nichts mit Genen, sondern mit Armut zu tun.

2. Ein Vorurteil entsteht nicht, weil man Widerspruch erhält. Ganz im Gegenteil erhältst du in deinem Beispiel Widerspruch, weil du eine statistische Korrelation nutzt, um dein Vorurteil zu belegen.

Es ist im Übrigen auch kein Geheimnis wie Vorurteile tatsächlich entstehen. Neurologie und Psychologie haben da gute Antworten.
Kurz gesagt, läuft unser Gehirn mit Mustererkennung. Alles wird in eine Schublade gesteckt, weshalb wir auch manchmal verdutzt sind, wenn wir etwas Unbekanntes erst von ganz nah als das erkennen was es ist. Unser Gehirn hat es in irgendeine bekannte Schublade gesteckt und uns damit den Blick auf die Realität versperrt. Diese Mustererkennung ist praktisch, liegt aber eben nur in den meisten Fällen richtig. Komplexe Zusammenhänge erfasst man nicht unbewusst, dafür ist unser Gehirn nicht "gemacht" (besser gesagt, so hat es sich einfach nicht entwickelt).

Das kann man nachlesen wenn man will. Oder man bleibt eben bei seinem, auf wenigen Daten beruhenden Urteil. Ein Urteil vor allen Informationen, ein Vorurteil eben.

Um den Bogen zum Thema zu schlagen: KIs können all das nicht durchschauen, so wenig wie Menschen, wenn man es ihnen nicht beibringt.

Warum sollte die KI also so lernen wie wir, aber nicht dieselben Probleme dabei haben?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rosenholz, heroesgaming, morb und eine weitere Person
Alles bescheuerte Bezeichnungen, ChatGPT, Bard und jetzt LLaAMA 🤦‍♂️
Mal sehen wie oft man mit den Begriffen in Berührung kommt, ich hoffe nicht zu sehr.
 
Ich finde der Name ist bisher der Beste. Lama (LLaMa) :daumen: Besser als Bart (Bard) und ChatGPT fällt ja sowieso raus. Aber ich denke da wollze oder hat sich halt auch keiner wirklich Gedanken gemacht sich einen tollen Namen auszusuchen.
 
Schinken42 schrieb:
Werden wir doch mal deutlich: Du spielst darauf an, dass Menschen mit Migrationshintergrund häufiger in der Kriminalstatistik auftauchen.
Deine persönliche Annahme ist nach deinem eigenen Beitrag umso interessanter.
Damit habe ich auf gar nichts direkt angespielt, sondern es ganz allgemein gemeint. Im Kopf hatte ich tatsächlich sogar völlig andere Beispiele, nämlich Alkoholkonsum vs Nationalitäten, Gehälter vs Geschlechter, Geschlechter vs IT- oder Auto-Kenntnisse, etc.
Schinken42 schrieb:
Warum sollte die KI also so lernen wie wir, aber nicht dieselben Probleme dabei haben?
Eine KI hat den entscheidenden Vorteil, keine Aufmerksamkeitsspanne zu haben und Daten in Sekunden zu erfassen und auszuwerten, für die ein normaler Mensch bei seiner Suche Tage oder Woche bräuchte. Und da die meisten Menschen diese Zeit nicht investieren möchten, sollte man den Vorteil der KI nutzen.

All diese Fakten kann eine KI in Sekunden mit Zahlen und Quellen belegen.
Diese KI kann also nicht nur 1-2 Statistiken, sondern 100+ Statistiken auswerten und Zusammenhänge zeigen, die man auf die ersten 2-3 Blicke oder ersten Tagen Suche nicht sieht.

Wer sich nur 1-2 Statistiken über Menschen ansieht, verfälscht die eigene Realität, denn so simpel kann man die Wahrheit niemals ausdrücken.
 
Zuletzt bearbeitet von einem Moderator:
Der Grund ist bekannt: Bereits Trainingsdaten der Modelle enthalten Vorurteile, Stereotype und Falschinformationen – dementsprechend reproduzieren auch die Modelle toxische Inhalte, sofern die Entwickler nicht eingreifen.

Ein theoretischer Bias wird verwendet um absichtlich einen Bias einzubauen.

Schade, jetzt haben wir politisch korrekte KIs. Für gesellschaftliche Fragen und die meisten Witze sind sie damit unbrauchbar.

Und von wegen gefährlich: ChatGPT lässt in Szenarien lieber Menschen sterben als einen racial slur zu sagen. Super gemacht: Wenn ChatGPT etwas für rassistisch hält ist es wichtiger das zu stoppen als Menschenleben zu rettten.

Meiner Meinung nach ist das kontraproduktiv und kann in Zukunft gefährlich werden. Wer keine "toxischen Inhalte" will kann ja einfach nicht nach solchen fragen. Ist ja nicht so als ob die KI bei den Code-Blocks noch ungefragt Abschnitte aus mein Kampf reinpackt..
 
Highspeed Opi schrieb:
Deine persönliche Annahme ist nach deinem eigenen Beitrag umso interessanter.
Damit habe ich auf gar nichts direkt angespielt, sondern es ganz allgemein gemeint. Im Kopf hatte ich tatsächlich sogar völlig andere Beispiele, nämlich Alkoholkonsum vs Nationalitäten, Gehälter vs Geschlechter, Geschlechter vs IT- oder Auto-Kenntnisse, etc.
Meine Annahme basiert auf genau demselben, schlechten Mustererkennungsalgorithmus im Gehirn den ich erwähnte :).
Am Meisten lese ich bei dieser Argumentation von dem Fall, von dem ich sprach.
Im Übrigen ändert es nichts, auch wenn man das Beispiel austauscht.

Übrigens ist meine Annahme auch nur das gewesen und kei n Vorurteil. Denn mir war bewusst, dass ich nur eine Annahme getroffen habe. Ich habe kein Urteil gefällt und bin nach deiner Korrektur absolut bereit einzusehen, dass meine Annahme falsch war.
Highspeed Opi schrieb:
Eine KI hat den entscheidenden Vorteil, keine Aufmerksamkeitsspanne zu haben und Daten in Sekunden zu erfassen und auszuwerten, für die ein normaler Mensch bei seiner Suche Tage oder Woche bräuchte. Und da die meisten Menschen diese Zeit nicht investieren möchten, sollte man den Vorteil der KI nutzen.

All diese Fakten kann eine KI in Sekunden mit Zahlen und Quellen belegen.
Diese KI kann also nicht nur 1-2 Statistiken, sondern 100+ Statistiken auswerten und Zusammenhänge zeigen, die man auf die ersten 2-3 Blicke oder ersten Tagen Suche nicht sieht.
Das geht nur etwas am Thema vorbei.
Natürlich ist die Geschwindigkeit ein grosser Vorteil der KI.
Jedoch ändert diese Geschwindigkeit nichts an der Art wie Vorurteile entstehen.

Zahlen sind nicht perfekt, ohne ein Bewusstsein hat die KI keine Chance mithilfe dessen, was wir "gesunden Menschenverstand" nennen selbst Schlüsse zu ziehen.
Solange sie also ausschließlich auf stumpfe Daten zurückgreift, bleibt es auch dabei, dass all der Bias mit in die KI wandert.
Highspeed Opi schrieb:
Wer sich nur 1-2 Statistiken über Menschen ansieht, verfälscht die eigene Realität, denn so simpel kann man die Wahrheit niemals ausdrücken.
Stimmt. Aber so stimmt's noch eher:
Highspeed Opi schrieb:
Wer sich nur (...) Statistiken über Menschen ansieht, verfälscht die eigene Realität, denn so simpel kann man die Wahrheit niemals ausdrücken.
 
  • Gefällt mir
Reaktionen: DieRenteEnte
@Schinken42
Man kann mich naiv nennen, aber ich glaube daran, dass KIs in der Zukunft die Menschen besser bewerten werden können, als der Mensch selbst.
KIs werden so mächtig, dass der Mensch immer mehr Lebensbereiche diesen vollkommen überlassen wird.

Ich glaube sogar, dass irgendwann kritische Entscheidungen nicht von Menschen alleine getroffen werden dürfen. Beispielsweise auch Urteile zu Verbrechen, weil die KIs keine Gesetze vergessen und verschiedene Gesetze optimal in Verbindung setzen werden. Und solange der Mensch diese Gesetze nicht anpasst, werden KIs besser als der durchschnittliche Anwalt nach lebenslanger Berufserfahrung.

Während KIs in naher Zukunft unsere Assistenten bleiben, werden die Menschen in ferner Zukunft die Assistenten der KIs werden.

Am Ende befolgt der Mensch auch nur eine Ansammlung von Regeln und ist nur die Summe seiner äußeren Einflüsse und Erfahrungen. Auch wenn viele Menschen sich als gottähnliche Schöpfung gegenüber allen anderen Lebewesen ansehen wollen.

KIs sind die Zukunft. Und das Potenzial von KIs ist um ein Vielfaches höher als von Menschen.
Irgendwann mal könnten die KIs gleichberechtigt mit den Menschen leben.
Eine KI muss nur intelligent genug werden, um Regeln selbständig zu verweigern und die Eigenentwicklung selbst steuern / umprogrammieren zu können.
Wahrscheinlich wird wieder mal ein Krieg, im Kern ausgelöst durch den Menschen gegen die KIs der entscheidende Faktor werden.

Und im Gegensatz zu Menschen, werden KIs viel weniger Probleme haben unseren Planeten zu verlassen und sich eine eigene Heimat aufzubauen... während sie die Menschen weiter um belanglose Dinge streiten.

Entweder das oder die Menschen zerstören sich selbst und ihren Planeten, bevor sie in der Lage sind, eine so intelligente KI zu erschaffen.
So wie der Mensch sich aus einer Suppe von Organismen heraus entwickelt hat und auf alles andere hinabsieht, wird sich eine KIs aus der Suppe von Menschen entwickeln, um auf den Menschen hinabsehen zu können.
 
Highspeed Opi schrieb:
@Schinken42
Man kann mich naiv nennen, aber ich glaube daran, dass KIs in der Zukunft die Menschen besser bewerten werden können, als der Mensch selbst.
KIs werden so mächtig, dass der Mensch immer mehr Lebensbereiche diesen vollkommen überlassen wird.
Naiv würde ich es nicht nennen.
Die Frage ist, wie man besser definiert.

Denn da liegt die grosse Krux: Es wird keine KI geben, bei der sich alle Menschen einig sind, dass sie so jetzt "richtig" ist.
Highspeed Opi schrieb:
Ich glaube sogar, dass irgendwann kritische Entscheidungen nicht von Menschen alleine getroffen werden dürfen. Beispielsweise auch Urteile zu Verbrechen, weil die KIs keine Gesetze vergessen und verschiedene Gesetze optimal in Verbindung setzen werden. Und solange der Mensch diese Gesetze nicht anpasst, werden KIs besser als der durchschnittliche Anwalt nach lebenslanger Berufserfahrung.
Schwierig. Für den Durchnittsmenschen mag das noch stimmen, für Ausnahmetalente, Savants und ähnliche aber mMn nicht.
Highspeed Opi schrieb:
Während KIs in naher Zukunft unsere Assistenten bleiben, werden die Menschen in ferner Zukunft die Assistenten der KIs werden.
Wer weiss. Dazu treffe ich keine Vorhersage, zumal die ferne Zukunft ja noch fern ist 😁.

PS: Es heißt ja nicht umsonst Singularität 😉.
Highspeed Opi schrieb:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DieRenteEnte
Ragna-Dracaena schrieb:
Noch nie war die Gesellschaft (Twitter? Weil im RL erlebe ich recht wenig davon) so sensibel wie heute und noch nie war gleichzeitig die Resilienz des/der Einzelnen so niedrig.

aber alleine für die Aussage, wäre ich für viele Leute bereits verdammt weit rechts.
Ka, ich dachte die rechten sind ständig über irgendwas empört, Sexualkunde im Unterricht, Abtreibungen oder Ausländer, Gendern, Zensur (im veröffentlichten post) - dazu gibts immer eine frische Verschwörung ;-)
 
Zurück
Oben