Bericht Analyse: Microsofts Tay-Bot und der Hass im Netz

Uhh, und auch CB springt weiter auf den "Hass" Zug der Medien auf. Ja da bekommt man ganz tolle Klickzahlen wenn man irgendwas mit "Hass" oder "Hetze" postet.

Selbst Social-Media-Dompteure wie Sascha Lobo verzweifeln mittlerweile angesichts der „Flächenidiotie in den sozialen Medien“.

Lobo war mal gut, ist aber durch die Dumm und Dümmer Auftritte in Talkshows zu politischen Themen leider bei mir unten durch. Schuster, bleib bei deinen Leisten.

Zum Thema:
Tay Bot. Ja hätte man auch einfach lächelnd abtun können und überarbeiten. Überall wo Humor aber nicht vorhanden ist ist für mich schon alles zu spät bei solchen Themen. Ich denke das DAS der Hass ist den Leute spüren und nicht durch das Gesagte dieser "Ki". Also CB, jede News über Hass und Hetze erzeugt erst Hass und Hetze.

:evillol:
 
Nun kommt der nächste Roboter mit Zensur, damit nur die gewollte Meinung geäußert wird. Na prima, Skynet ist bald nicht mehr weit. Haha.
MS täte gut daran, die Grundpfeiler einer Demokratie mit ihren Grundrechten einzubetten. Filter ist nur Zensur, dann siegt die Dummheit. Warum nicht mehrere Roboter, die verschiedene Haltungen unterschiedlich stark gewichten?

Auch wenn es für viele unangenehm ist, sich den Problemen zu stellen und anderen zuzuhören, anstatt nur die eigene Meinung zu akzeptieren, zumindest als Mensch lernt man ungemein daraus zu differenzieren und zu bewerten. Das Verstecken in Blasen hilft nicht. Daher mein Rat, konsumiert Medien, die offen diskutieren. Blockierte Kommentarfunktionen sind das erste Anzeichen zur Meinungsunterdrückung. Es müssen stets alle Seiten begründet und beleuchtet werden können.
 
Ich würde das eigentlich nicht als Fehlschlag sehen. Jetzt muss man das nur noch mit verschiedenen vorselektierten Personengruppen wiederholen, mich würde interessieren was dann herauskommt.

Dass hier ein paar Trolle hervorgekrochen sind, kann mich weder wundern noch schockieren.
 
Das Tay-Experiment war vor allem eines...ein Spiegelbild der daran teilnehmenden (amerikanischen) TwitterNutzer...

So wurde aus der Twitter-Ki eine Zwitter-Ki, eine KI, wie sie zuerst sein sollte und alle haben wollten und eine KI, die sich angepasst hat und dann keiner mehr haben wollte...

Wobei...in dieser TwitterWelt brauch man keine Tay... KIs gib es da schon zu viele (die leider nicht abgeschaltet werden...)
 
jaja, das war alles nur hass, rassistisch und natürlich todernst!

dass sich da viele einfach nur nen spaß draus gemacht haben, kann natürlich im leben nicht sein
 
Es ist viel mehr erschreckend wie sehr das ganze jetzt hochgekocht wird und was da alles hineininterpretiert wird.
Gib Kindern einen Computer und sag da ist ein Jugendschutzfilter drauf. Und Überraschung, das Kind wird die nächsten Stunden damit verbringen zu versuchen diesen irgendwie auszuhebeln.
 
Wie ein Kind von seiner Umwelt lernt hat auch dieser Bot
von seiner Umwelt gelernt.
Wer zu Hitlers Machtergreifung 8-10 J alt war, durch das Jungvolk und dann in die Hitlerjugend kam,
für den war alles was die Nazis ihm erzählt absolut richtig.
Wenn auch Zuhause die Familie pro Hitler war hatte dieser junge Mensch kaum eine Chance
was andres zu denken .Das hat auch nichts mit der Intiligenz zu tun, die größten Verbrecher im Naziregime
waren alles keine Idioten.
Ich denke auch ein Bot muss erstmal eine humane Kindheit und Jugend durchlaufen um
ein eigenes Bewusstsein zu entwickeln. Und selbst dann ist noch nicht sicher ob sich der Bot zum
negativen entwickelt.
Wenn genug Trolle einer Idiologie auf ihn einreden ist das eine Gehirnwäsche,.
Deswegen halte ich künstliche selbst lernende Intiligenz für gefährlich und würde sie
nie auf die Menschheit los lassen.
 
Was lernt man daraus? Selbst KIs sind versaut und rechtsextrem! :evillol:

Naja, wenn man einer lernfähigen künstlichen Intelligenz (obwohl es sich hier nur um gut geschriebene Algorithmen handelt und es in meiner Sicht keine Intelligenz darstellt) schlimme Worte oder das falsche beibringt braucht man sich nicht wundern wenn so etwa heraus kommt!
Man hat sogar schon früher zwei "KIs" miteinander reden lassen und der eine hatte ein manipuliertes versautes Sprachdatenbank! Gibt sogar ein YouTube Video kann es aber gerade nicht!
Trotzdem würde ich dieses Experiment als Erfolg werten, da es gezeigt hat wie man es nicht macht und kann es das nächste mal besser machen!
Zumal ohne Filter war das Desaster vorprogrammiert!

Jetzt mal ehrlich wer hat nicht am Anfang versucht bei Siri oder Cartana irgendwas versautes zu fragen oder sie dazu bringen etwas versautes zu sagen lassen?
 
Corros1on schrieb:
(...) obwohl es sich hier nur um gut geschriebene Algorithmen handelt und es in meiner Sicht keine Intelligenz darstellt

Woher hast du präzise Informationen über die Architektur von Tay? Quelle?
Oder nach welchen sonstigen Kriterien sprichst du der KI die Intelligenz ab?


Corros1on schrieb:
Zumal ohne Filter war das Desaster vorprogrammiert!

Filter sind selten eine gute Idee, wenn um es um Intelligenz geht. Schwieriger, aber dadurch auch ein deutlich besseres Ergebnis erzeugend, ist es ein ausreichendes Verständnis für den Inhalt eines Textes bei KIs zu entwickeln. Damit könnte eine KI primitive Formen von Moralvorstellungen abbilden und eventuell sogar "zwischen den Zeilen lesen", um die Intention eines Textes zu ergründen.
 
Hab mich auch schon gewundert warum mir Tay nicht mehr antwortet. Das war eine schöne Sache um mit KI zu spielen und zu sehen was schon geht. Schade.
 
Doch im Kern handelt es sich um eine leere Hülle, die erst durch die Interaktion mit den Nutzern gefüllt wird

Doch im Kern ist es nur ein Mensch, der die Fähigkeit zur Reflektion verloren hat, und durch die Interaktion mit der Gesellschaft deren geistiges Niveau spiegelt.
 
KI - naja, was man halt so nennt ... Für eine KI, die nach menschlichem Vorbild entscheidungen treffen soll, bräuchte zunächst einmal einen mit dem Menschen vergleichbaren Wahrnehmungs und Informationsverarbeitungsapparat.
Und hier sehe ich bei der KI einige unüberwindbare Hürden. Z.B. kommt der Mensch nicht ohne starke Wahrnehmungsselektion aus, diese ist Interessengeleitet ... solange die KI also ihre Interessen "selbst entwickeln" soll (lernen soll), kann diese Interessengesteuerte Wahrnehmungsselektion nicht funktionieren ... auf diese Weise bekommen wir nie eine unserer Intelligenz vergleichbare KI.

Letztlich ist jede Ameise intelligenter als der schnellste Supercomputer, denn der kann letztlich auch nur das, was ihm beigebracht wurde.
Verzichtet man nun bei einer KI darauf, ihr ein Wertegerüst zu verpassen und ihr genügend Infos einzugeben, damit sie Entscheidungen treffen kann, dann lernt das Ding eben einfach alles, was angeboten wird ... denn was die KI bearbeten kann, ist lediglich die lange Reihe Einsen und Nullen, durch die digitale Information dargestellt wird. Was diese KI definitiv nicht tun wird, ist diese Informationen entsprechend einer spezifischen Enkulturation zu intepretieren, und erst auf Basis dieser Interpretation kann ein Moralurteil gefällt werden.

Ich hätte die gute Dame daher zunächst nicht mit Schreibrechten ausgestattet, sondern sie einfach möglichst viele Sites zu verschiedenen Themen lesen und verarbeiten lassen ... erst wenn klar ist, dass diese Verarbeitung zu einem Ergebnis führt, welches ich wenigstens auf Basis der gleichen Daten nachvollziehbar finde (oder welches nicht meiner Logig wiederspricht), würde ich diese KI als "selbstständigen Kommunikationspartner" kommentare verfassen lassen.

Kleinweich muss sich da einfach mal eingestehen, dass schlampig gearbeitet wurde, und in Folge dessen eben eine leere Hülle von den falschen Leuten zum Spass mit Überzeugungen versehen wurde, die von den Enwicklern nicht geteilt werden.

Eine KI, die schon am 1. Tag 90000 Tweeds verfasst, ist mit einem lallenden Kleinkind zu vergleichen ... da steckt viel weniger Sinn drin, als der Hörer gerne hineininterpretieren möchte, und vor allem sollte man ein paar Laute, die nach "Heil Hitler" klingen nicht gleich als Anzeichen für die rechte Gesinnung eines halbjährigen Kindes nehmen ... das weiß nämlich auch nicht besser, was es da eigentlich von sich gibt, als Tay.

Bloße Lernfähigkeit impliziert nicht gleich Intelligenz, die zeigt sich eigentlich erst da, wo die gebotenen Informationen für eine Problemlösung nicht ausreichen. Und einer KI so was wie Kreativität beizubringen, davon sind wir noch sehr weit entfernt ...
 
Zuletzt bearbeitet:
Sehr interessanter Nebensatz:
"Dem fehlt das Gespür für die Nuancen, um legitime Meinungsäußerungen von Hassbeiträgen zu unterscheiden. "

Eigentlich lagen dazwischen ein paar Stufen und nicht nur eine schwer erkennbare "Nuance", das passiert wenn die Zensur ausgeweitet wird.
 
@ascer
Wie will man sonst eine "KI" programmieren?
Eine KI oder Programm folgt immer einen bestimmten Protokoll die nach dem Prinzip "wenn / dann" geschrieben wurde wenn Zahl x gleich ist wie y dann Aktion z, wenn aber x einen anderen Wert hat dann Aktion a! An besten kann man sich da mit Schienen vorstellen mit Weichen! Der Zug biegen entweder nach links oder rechts ab je nach dem welcher Wert auf dem Waggon und welche Werte auf den verschiedenen Abzweige steht das man natürlich ausbauen kann nach der ersten Weiche kommt eine nächste und soweiter und sofort! Jetzt mehr Weichen das Programm hat desto genauer kann es auf dementsprechende Informationen reagieren werden und der vermeintliche Eindruck einer Intelligenz vortäuschen!
 
Das habe ich wohl verpasst. Mal sehen ob sich jetzt noch ein paar Tay-Threads finden lassen :evillol:
Ich hab mich auf der ersten Seite schon herrlich amüsiert. Es gibt doch fast nichts was *chan nicht klein bekommt :daumen:

Der größte Fehler wird wohl sein das die KI keine Ironie versteht. Hat sie sich eigentlich auch über die flache Welt ausgelassen ?
 
Ich denke das Hauptproblem ist, dass selbst eine "RI", eine "Reale Intelligenz", also ein Mensch, Probleme hat Dinge wie Sarkasmus, Ironie und schwarzen Humor voneinander zu trennen.

Das Experiment Tay mag vielleicht in die Hose gegangen sein, aber es war auf jeden Fall ein sehr lehrreiches Experiment. Es zeigt mal wieder das klassische IT-Problem auf: Jede Herausforderung wird von der "Schwarmintelligenz" liebend gerne aufgenommen, und mit einer beängstigenden Ausdauer bearbeitet.
Hier eine AI zu schaffen, die zwar intelligent wirkt, aber dennoch resistent gegen solche Brute Force Attacken ist, das ist hohe Kunst. Ich meine - hunderttausende Menschen fallen täglich auf Rassisten-Hass-Hetze im Netz rein und plappern das ohne zu denken nach - auch wenn da ein anonymer Insider behauptet, Asylanten werden mit zehntausenden Euro Bargeld und gratis Handys ausgerüstet, während das arme, alleinverdienende arische Mütterchen (man verzeihe mir die überspitzte Formulierung) bei 400€ Mindestsicherung hungern muss. Und ich möchte behaupten die "AI Mensch" sollte zu den fortgeschrittensten ihrer Art gehören - immerhin wird sich seit Jahrtausenden verfeinert.

Die Alternative ist natürlich eine Siri - ein wörterbuchgeführtes System, dass nur das sagt was es sagen darf. Ist nett, konfliktfrei, familientauglich, aber halt keine AI.

mfg
 
Zurück
Oben