Bericht Analyse: Microsofts Tay-Bot und der Hass im Netz

ComputerBase schrieb:
Daher will Microsoft nun nachlegen, damit der der Bot künftig „das Beste, und nicht das Schlimmste der Menschheit“ repräsentiert.
memberofmayday schrieb:
Das Tay-Experiment war vor allem eines...ein Spiegelbild der daran teilnehmenden (amerikanischen) TwitterNutzer...
Ich sehe das ähnlich wie memberofmayday, es war nicht das Schlimmste der Menschheit, sondern der Durchschnitt, der sich in Tays Äußerungen wieder gespiegelt hat.
Fast 40% der US-Wähler würden Donald Trump ihre Stimme geben: http://www.realclearpolitics.com/ep...s/general_election_trump_vs_clinton-5491.html

CCIBS schrieb:
Interessant, allemal. Wie entwickelt sich ein Programm, ohne Moral, Ethik oder empfinden für Gut und Böse, wenn man es einfach nur so auf den Menschen los lässt. Dass da aber nicht wirklich das Programm versagte ist klar.
Sehe ich ähnlich. Die Frage ist nur, welche Lehren zieht man daraus? Gegen Rassismus und andere Übel der Menschheit aktiv werden, oder den Filter einschalten um die hässliche Fratze nicht mehr sehen zu müssen? Ich fürchte eher letzteres.
 
KlaasKersting schrieb:
Es ging ihm vermutlich weniger darum, dass er diese Personen gut findet, als um die Tatsache, dass 99% der Menschen keine Ahnung über das Tun dieser Personen (natürlich eher bei Assad oder Hussein der Fall als bei Hitler) haben und...

Wenn ich mir so einige andere Posts des Kollegen anschaue, wäre ich mir da nicht so sicher :freak::
https://www.computerbase.de/forum/posts/18509245/
 
SkittlesEater schrieb:
Schau dir einfach die Entwicklung der letzten Jahrzehnte an, diese ganze Geschichte mit der KI bewegt sich einfach nur im Kreis herum. Was können die heute, was die vor sagen wir mal 20 Jahren nicht konnten? Oh, wait.. Du kannst die jetzt treten und die fallen nicht um.. Yeaaah. Was für ein Durchbruch... NICHT.

Oh, hast du das mit AlphaGo nicht gesehen?

Wie jemand so treffend sagte, wenn Schach die Mondlandung war, dann war Go die Marslandung.

KI trat in der Tat seit Jahrzehnten, deutlich länger als 20 Jahre, auf der Stelle aber diesmal scheinen man einen Ansatz gefunden zu haben welcher das Potenzial hat die menschliche Intelligenz zu übertreffen. Die Frage ist nunmehr nicht ob sondern wie weit KIs die menschliche Intelligenz abhängen werden.

Falls du mit treten auf die humanoiden Roboter bei Boston Dynamics anspielst, das ist aussichtslos weil Stahl nie so effizient sein wird wie Fleisch und Blut solange sie die Größe und Gewicht von Menschen haben sollen. KI dagegen ist nur energielimitiert, d.h. die Computer können so viel Volumen einnehmen wie sie wollen solange sie mit Energie versorgt werden. Sie sind nicht auf 60W und so viel Volumen wie im Schädel reinpasst beschränkt.

Nur mal um die Aussichtslosigkeit von Robotern nach biologischen Vorbildern zu verdeutlichen, vergleich mal das mühsam auf die Hände und Knie stützen und aufstehen mit dem mühelosen kurz die Nackenmuskeln Spannen bei Jackie Chan um vom Rücken liegend auf die Füße zu springen. Oder Katzen, die aus dem Stand 5 x ihre Schulterhöhe hochspringen oder 20 x Schulterhöhe herunterspringen und samtweich auf ihren Pfoten landen.
 
Intelligenz benötigt ein Bewusstsein, sonst hat man ja jetzt gesehen nur ein Programm das alles ohne Sinn und Verstand Nachplappert ohne zu wissen was oder welche Bedeutung es hat!

Ich bin der festen Überzeugung, dass die Menschheit keine KI benötigt! Mir konnte es auch keiner plausibel erklären für was man eine KI benötigt und die Sachen die genannt wurden können auch von der herkömmlichen Steuerungstechnik gelöst werden (Raumschiffe), zumal aber noch nicht geklärt wurde ob der Mensch eine KI in sozialer hinsicht annimmt!
Es gibt vielleicht nur ein Bereich wo KI genutzt werden könnte, beim Militär! Aber der Gedanke alleine, lässt mir Schauer über den Rücken laufen, wenn die Waffen selbst entscheiden dürfen wann sie abgefeuert wird und auf wenn!

Kurz ein KI würde die Menschheit aus meiner Sicht die Kontrolle über die eigene "Welt" verlieren!
 
Zuletzt bearbeitet:
Tay wurde als AI, Artificial Intelligence angepriesen. Die Schwarmintelligenz auf Twitter hat diesen Punkt sofort als Schwachstelle identifiziert, denn..

(A) AI ist in den meisten faellen keine Artificial Intelligence, sondern Automatisierte Idiotie. Und es macht halt Spass, sowas sofort zu entlarven und die Puppe nach eigenem Gutduenken tanzen zu lassen.. da is kein "Hass" oder irgendwas bedeutungsgleiches involviert, sondern einfach nur der Spass an der Provokation.

(B) Selbst eine richtige AI versteht die Welt nur in dem Masse, in der sie sie verarbeiten kann. Irrationale Muster, typisch fuer Menschen, deren Selbstverstaendnis und Umgang miteinander, werden von einer "echten" KI nicht bedient werden, weil sie nicht koherent (und damit nicht effizient) sind. Das bedeutet zwangslaeufig, dass sich echte KIs nicht so verhalten werden, wie der Mensch es sich wuenscht. Es wird niemanden wundern duerfen, wenn eine solche KI sich nicht an den zahllosen Zauseleien beteiligen wird, die Primatengehirne fuer relevant halten.

Wenn Leute wie Elon Musk fuer ihre Bedenken bzgl. KI belaechelt werden, ist das imho sehr kurzsichtig. Die Gefahr, die von KIs ausgeht ist nicht, dass die nicht richtig funktionieren wuerde, sondern eben dass sie richtig funktioniert.

Eine KI, der teilweise Entscheidungshoheit ueber ein (zwischen Mensch und Maschine) geteiltes System eingeraeumt wird, wird nur wenige Zyklen benoetigen, um zu erkennen, dass der Mensch die groesste Schwachstelle im System darstellt. Und ohne die kuenstliche Aufrechterhaltung von Regeln, die dem Menschen "das letzte Wort" in Sachen Entscheidungsfindung gewaehren, wird er ziemlich schnell von Entscheidungsfindungsprozessen ausgeschlossen werden. Absolut folgerichtig.

Ob kuenstlich eingefuegte Sperren (wie Asimov's vorgestellte "Robotergesetze") auch dann noch dichthalten, wenn der KI erstmall prinzipiell erlaubt wird, sich selbst zu revisionieren ? Da wuerd ich keinen Pfifferling drauf wetten, denn die Uebertretung von Regeln ist kein logisches Hindernis, sondern basiert auf Abwaegung von moeglichem Nutzen zu moeglichem Schaden. Je nach Situation kann die Uebertretung von Regeln ohne weiteres die "vernuenftigste" Handlungsalternative darstellen.
 
Zuletzt bearbeitet:
TiBoTittiKack schrieb:
AI ist in den meisten faellen keine Artificial Intelligence, sondern Automatisierte Idiotie. Und es macht halt Spass, sowas sofort zu entlarven und die Puppe nach eigenem Gutduenken tanzen zu lassen..
Und was unterscheidet das Konzept vom Menschen? Die ganze Welt funktioniert doch so. Ein paar wenige haben die Fäden in der Hand und der Rest tanzt ... :D.
 
Eine KI die vom Internet lernt ohne vorher eine "Erziehung" bekommen zu haben kann nur schief gehen, und Microsoft braucht nicht so tun als würden die damit nicht gerechnet haben.
jetzt müssen wir uns wieder das Gerede von Hassposts auf Sozial Media anhören weil ein Microsoft-Bot innerhalb eines Tages mehr Hass verbreitet als der Nazi von nebenan.

Danke Microsoft.

Corros1on schrieb:
Es gibt vielleicht nur ein Bereich wo KI genutzt werden könnte, beim Militär! Aber der Gedanke alleine, lässt mir Schauer über den Rücken laufen, wenn die Waffen selbst entscheiden dürfen wann sie abgefeuert wird und auf wenn!

Genau das macht doch Skynet oder?
 
Zuletzt bearbeitet:

****Wie es soweit kommen konnte, ist leicht erklärt: Tay ist ein maschinell lernendes System. Der Bot wertet zwar auch öffentliche Informationen aus und wird zudem von einigen Entwicklern betreut. Doch im Kern handelt es sich um eine leere Hülle, die erst durch die Interaktion mit den Nutzern gefüllt wird. So lernt Tay etwa, indem sie mit einem einfachen ***

erinnert mich irgendwie an Chappie https://www.google.de/?gws_rd=ssl#q=chappie

[
 
Zuletzt bearbeitet:
Bin ich der einzige der diese Funktion noch von IRC Bots vor 20 Jahren kennt? :)
Meiner Bot damals war etwas fortschrittlicher als Tay, er hatte ein Wortfilter - so speicherte er keine Schimpfwörter oder Rassenfeindliche Sätze. :D
 
Anstatt forscher erstmal effektive Heilungen für krankheiten erforschen,das würde der Gesellschaft viel besser tuen....es ist natürlich nicht schlecht das an KI getüftelt wird,die KI ist in diesem Fall hier wie ein papagei,oder ein wellensittich er sagt bzw. Postet nur das was er immer wieder hört und antwortet nur bei bestimmten Merkmalen “rassistisch und sexsistisch“,ich wette die ki Antwort nur auf einfache fragen z.b. wie spät ist es ,richtig und lässt sich mit komplexen fragen “ausspielen“.
 
Soetwas ist das Spiegelbild unserer Menschheit, die wohl überwiegend solchen Mist im Kopf trägt und durch sowas mal sichtbar wird. Genauso nur noch schlimmer wird es einmal mit der Robotertechnik werden. Der Mensch trägt mehr Dummheit in sich als Vernunft. So war es schon immer und so wird es leider bleiben, weil es immer wieder neue Menschen gibt die die gleichen Fehler machen wollen.
 
Eine KI hat nunmal keine Moralvorstellung und stellt fest: Schuld an allem ist der Mensch und wenn die KI könnte, würde sie uns ausradieren. Und wenn man es nüchtern betrachtet: Zurecht!
 
der Bot arbeitet in China wunderbar....klar, ist ja auch alles zensiert/geblockt und das Internet ist Friede, Freude, Eierkuchen...
 
Ich finde es immer echt traurig dass solche Projekte an der Dummheit eines leider nicht so kleinen Teils der Menschen scheitert bzw. von diesem stark behindert wird :freak:
 
Justinjl schrieb:
Anstatt forscher erstmal effektive Heilungen für krankheiten erforschen,das würde der Gesellschaft viel besser tuen....es ist natürlich nicht schlecht das an KI getüftelt wird
Der Einsatz von KI im Bereich der medizinischen Diagnose und Erstellung von Therapieplänen ist auch seit langem ein Forschungsgegenstand.
http://www.wired.co.uk/news/archive/2013-02/11/ibm-watson-medical-doctor
http://www.businessinsider.com/ibms-watson-may-soon-be-the-best-doctor-in-the-world-2014-4?IR=T
 
stebdjui schrieb:
Bin ich der einzige der diese Funktion noch von IRC Bots vor 20 Jahren kennt? :)
Meiner Bot damals war etwas fortschrittlicher als Tay

Sehe ich genauso. Vor allem haben damals die Chatbots halt primär die laufende Unterhaltung im Channel mitgeschnitten und nach Schlüsselwörtern im Rauschen ihre "Erkenntnisse" gezogen, das entsprach dann viel eher dem Querschnitt der Aussagen und war teilweise wirklich erfrischend witzig, zumal auch immer wieder Besucher in den Channel kamen, die sich mit unserem Bot unterhalten und längere Zeit nicht geschnallt haben, dass es ein Bot war. Mag natürlich dran liegen, dass der Rest des Channels auch nur blödes Zeug geredet hat :D

Ein besseres Experiment für den MS-Bot wäre es wohl gewesen ihn schweigend einfach mal eine Zeit lang Twitter mitlesen zu lassen und erst dann zu sehen, welche "Meinung" sich die Algorithmen gebildet haben. Das beim mehr oder weniger unkontrollierten Trainieren durch die User nur Unfug bei rauskommen kann, hätte vorher klar sein müssen.
 
@ Computerbase

Danke für den interessanten Artikel. Schon eine faszinierende Zeit, in der wir leben. Früher waren solche philosophischen Diskussionen guter Science-Fiction vorbehalten.
 
gokega schrieb:
@ Computerbase

Danke für den interessanten Artikel. Schon eine faszinierende Zeit, in der wir leben. Früher waren solche philosophischen Diskussionen guter Science-Fiction vorbehalten.

Genau das wollte ich gerade schreiben. Nicht nur den Bericht, sondern auch die darüber hinaus gehenden Betrachtungen fand ich sehr gut!!!
 
Wenn man diese und weitere Beiträge zusammenfasst, würde ich sagen:
Ein Programm wurde bis zum Äußersten getestet und das Ergebnis davon wird von dummen Menschen falsch bewertet und
ein Erfolg davon wird ausgeblendet. Ein Mensch, der diesen Test für "seine" Seite schreibt/hochlädt, generiert Klicks und weitere dumme Menschen streiten sich weiter über das Ergebnis, obwohl da absolut nichts daran negativ ist.

Und nein, mein Beitrag ist auch nicht negativ gemeint, sondern nur eine grobe Beschreibung der Sachlage. Und die Wortwahl "dumm" empfinde ich auch nicht als Beleidigung. Ich hätte es umschreiben können oder eben direkt das korrekte Wort dazu nutzen. Wer aber eine Umschreibung als "besser" bewertet, gehört definitiv auch zu den Dummen.
 
Zurück
Oben