Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtAnalyse: Microsofts Tay-Bot und der Hass im Netz
Microsofts maschinell lernende Twitter-KI Tay eskalierte binnen 24 Stunden vom Hipster zu Hitler. Es ist ein Lehrstück über all die Probleme, die die großen Internetdienste im Umgang mit dem Hass im Netz haben.
War ja klar dass dort die Trolle in Regimentsdimensionen aufschlagen werden.
Aber das Experiment finde ich trotzdem interessant. Aber an der Diskussion finde ich interessant dass solchen Bots oder auch KIs immer wieder menschliche Moralvorstellungen unterstellt werden. Ein Bot hat weder Moral noch Gewissen. Er handelt in der Regel nach "Gedankengängen" die, zumindest stellenweise, wir nicht wirklich verstehen können. Fefe hat dazu erst vor kurzem was passendes geschrieben.
90000 Tweets am ersten Tag? Was soll das überhaupt, ein Tag hat gerade mal 86400 Sekunden. Da kann man sich nur noch an den Kopf packen.
Interessant bleibt das "Projekt" trotzdem allemal, und wenn die KI jetzt noch gekoppelt wird an die Roboter von Boston Dynamics, dann ist T-1000 nicht mehr weit
Danke für den Artikel, über Tay wurde hier sowieso noch nichts berichtet (scheint mir) und vor allem Interessanter Artikel in Bezug auf die Frage Meinungsfreiheit.
Das Desaster mit Tay war irgendwie klar, dass da irgendwelche Komiker die KI kapern, war aber erstaunlich stark und schnell passiert.
Es ist aber eben auch bei sehr vielen Menschen so, dass sie sich leider nicht selbst eine eigene Meinung bilden, sondern relativ unreflektiert die Meinung und Ansichten ihres direkten Umfeldes (Familie, soziales Umfeld oder auch Religion usw.) als allgemeingültige Wahrheit annehmen, ohne dies ausreichend zu hinterfragen.
Es wird einfach die Meinung als Wahrheit akzeptiert, die die Mehrheitsmeinung des Umfeldes darstellt.
Ich wundere mich allerdings darüber, wie naiv Microsoft angenommen hat, dieses würde Tay nicht passieren
Das Ganze hat mit Hass genau gar nichts zu tun.
Tay ist eine ziemlich dumme KI, deren Funktionsweise bereits bekannt war, und somit ein gefundenes Fressen für Trolle.
Schon irre, was da passiert ist.
Schöner letzer Absatz. Bin echt gespannt wie das weitergeht... vermutlich weniger gut für die Menschen. *hust*IRobot*hust* (oder jede andere "Roboter/Computer sind schlauer als Menschen und wollen sich dieser entledigen"-Distopie)
Wobei wir wahrscheinlich mehr auf so eine Dystopie zusteuern als uns lieb ist..
Ich fand die Aktion gut. Es war sozusagen ein soziales Experiment was gezeigt hat, dass in der heutigen Zeit Meinungsfreiheit und (schwarzer) Humor unerwünscht sind und jeder sich irgendwie in irgendeiner form direkt beleidigt und diskriminiert fühlt.
Macht doch nicht so eine Kontroverse daraus, es fehlt uns bloß noch dass man sich über rassistische Kommentare einer dummen KI beschwert.
Wenn wir schon soweit sind, dann haben wir auch nichts besseres verdient.
Tatsächlichen Fremdenhass bitte von den Memes aus dem Umfeld aller *chans abgrenzen. Ein Bruchteil derjenigen, die Tay die typischen 9/11-, Hitler-, Mexikaner- und Judensprüche haben zukommen lassen, steht tatsächlich mit eigener Überzeugung dahinter. Dem größeren Teil geht es darum, bewußt zu provozieren und vorhersehbare Reaktionen auszulösen („Oh Gott, über den Holocaust darf man keine Wtze machen.“). Exakt so, wie das bei unzähligen Onlineabstimmungen bisher der Fall war, von denen ein *chan Wind bekommen hat.
Oder sich mal Imageboardkultur im Allgemeinen zu Gemüte führen. „Das Trollparadies“ aus der c’t ist ein ganz guter Enstieg, danach tagelang in der Encyclopædia Dramatica lesen oder am besten in freier Wildbahn lurken.
So unterhaltsam ich das Experiment auch finde, zeigt es in meinen Augen weniger, wieviel Entwicklungsbedarf es bei KI noch gibt, sondern wieviel bei (NI? natürlicher Intelligenz) noch an Luft nach oben ist ;-)
Tay braucht halt wie jedes menschliche Wesen eine Basis an Überzeugungen und Werten. Wenn man ne KI programmiert und sie aufs Internet losläst (oder umgekehrt?!?), dann muss man sie vorher zumindest auf das Level eines 10-jährigen bringen der ein gewisses Maß an Erziehung genossen hat. Ein leerer Container kann nur 1:1 das wiedergeben was man hineintut. Das hat mit Intelligenz nicht viel zu tun.
Was würde wohl dabei rauskommen wenn man einen 10-jährigen mit 0 Erziehung und vorherige Wertevermittlung (also quasi eine leere Hülle, bis auf den Instinkt) an einen Computer mit Twitter setzt? Wahrscheinlich ein Minihitler.
Aber ich denke eher da haben sich viele einen Spaß erlaubt, als wirklich die Absicht zu haben, derartige Propaganda zu verbreiten. Es lässt sich doch keiner von sowas irgendwie politisch beeinflussen, aber witzig ist die Sache an sich alle mal.
Ob Filter zum Ziel führen bezweifle ich. Wenn man den KI beibringt, bestimmte Wörter einfach zu ignorieren, wird es nie mals auch nur im Ansatz ein menschlich wirkendes Wesen sein. Der Mensch bekommt sein Wissen ja auch nicht gefiltert, jedoch ist dieser irgendwann in der Lage, zwischen Sinn und Unsinn zu unterschieden. Das muss man programmieren. Aber das geht kaum, ohne seine eigene Meinung da rein fließen zu lassen. Also auch mist.
Ich finde daraus können viele lernen. Es ist sehr komplex eine KI zu erschaffen die genau so denkt und handelt wie ein Mensch. Bis das 100% funktioniert, kommt der Hoverboard noch