Bericht Analyse: Microsofts Tay-Bot und der Hass im Netz

Allein die Einordnung von Figuren wie "Hitler" oder aus jüngerer Zeit "Hussein" oder gar "Assad" als immer wieder verwendete unhinterfragte Paradebeispiele für "das Böse" bedeutet im Grunde, daß nicht nur eine KI sondern der größte Teil des modernen Menschen strunzuninzelligent ist.
 
Erschreckend finde ich eher die Reaktionen auf das Experiment. Oder Nein, ich war ehrlich gesagt nicht wirklich erschrocken... eigentlich hatte ich 1:1 damit gerechnet.
Es zählen eben nur Unterdrückung und Indoktrination. Alles andere ist doch nur lästiges Gefasel >_<
 
@UltraWurst:
@sasha87
Diese "KI" ist leider keine KI, sondern nur ein ziemlich billiger Chat-Bot.

Deswegen hab ich es auch in "" gesetzt ;)
 
Wenn ich mir so überlege, was ich über selektive Wahrnehmung gelernt habe, dann funktioniert Intelligenz ganz allgemein nicht ohne Zensur ... denn unsere gesamte Entscheidungsroutine basiert letztlich auf der Fähigkeit, Informationen je nach subjektiv empfundener Wichtigkeit zu ignorieren. Interessengeleitete selektive Wahrnehmung, die die Fülle an Informationen schon filtert, bevor einzelne Impulse den Weg ins Bewusstsein finden ... das ist im Sinne von Perspektivenreichtum natürlich tödlich, aber die Verarbeitung aller Eingangsimpulse stellt scheinbar eine hoffnungslose Überlastung unserer Kognitiven Kapazitäten dar ...

Ich bin mir sowieso unsicher, ob eine Trivialmaschine wie unser Computer (der aus einer gegebenen Eingabe durch vorgefertigte Mechanismen einen zuverlässig vorhersagbares Ergebnis macht) überhaupt in die Lage versetzt werden kann, so zu lernen, wie es ein Mensch tut (also bei gleichem Input zuverlässig zum gleichen Erfgebnis kommt) das menschliche gehirn ist nämlich allem Anschein nach viel mehr, als eine Trivialmaschine.

Aber was habe ich neulich gelesen? "Phantasie ist etwas, das sich viele Leute gar nicht vorstelllen können". Und vielleicht kann ich mir das einfach nur nicht vorstellen.

George Spencer-Brown ist Schuld. denn was der zu "Zufall und Wahrscheinlichkeit" geschrieben hat, lässt mich an der Fähigkeit zweifeln.
Argumentation G.-S.-Brown: Bei einer unendlichen Folge von Zufallszahlen ist die Wahrscheinlichkeit für eine unendliche Folge von Einsen ungleich 0 (soll bedeuten, dieses Ereignis ist MÖGLICH)... aber sobald eine solche Zahlenreihe mehr als 10 gleiche Zahlen hintereinander enthält, nehmen wr das als Beweis für Mängel an unserem Zufallsgenerator. An "Zufall" sind wir also nur bereit zu glauben, bei einer Zahlenreihe, die bewusst so gestaltet wurde, dass sie uns zufällig erscheint, diese Zahlenreihe ist dann aber ganz sicher nicht zufällig zustande gekommen.
Bei "echtem" Zufall, ist es eben nicht unmöglich, dass die ersten X Stellen einer unendlichen Reihe identisch sind ... ganz egal wie groß man X wählt.

Ich denke dass wir bei "KI" vor ganz ähnlichen Problemen stehen, und letztlich nur etwas programmieren können, das auf uns intelligent wirkt, weil es eben so handelt und reagert, wie wir das von "Intelligenz" erwarten.
 
Zuletzt bearbeitet:
Creeed schrieb:
War ja klar dass dort die Trolle in Regimentsdimensionen aufschlagen werden.

Aber das Experiment finde ich trotzdem interessant. Aber an der Diskussion finde ich interessant dass solchen Bots oder auch KIs immer wieder menschliche Moralvorstellungen unterstellt werden. Ein Bot hat weder Moral noch Gewissen. Er handelt in der Regel nach "Gedankengängen" die, zumindest stellenweise, wir nicht wirklich verstehen können. Fefe hat dazu erst vor kurzem was passendes geschrieben.

Vorallem wenn der Kontext fehlt. Wenn zigtausend dem Bot erzählen das Hitler toll und die Juden doof sind, dann übernimmt er wohl die Mehrheitsmeinung. Das betrifft ebenso den realen Menschen. Solang die Hintergrundinfos fehlen kann man sich kein wirkliches Urteil bilden.

Hinzu kommt bei einem Bot bzw einer KI, das sie kein empathisches Empfinden hat. So kann ein Bot bei Massenmord durchaus zu dem Schluss kommen das der Handelnde richtig gehandelt hat. Umweltverschmutzung, Überbevölkerung, Ressourcenraubbau - aus dieser Sicht wäre wohl jeder Mensch weniger auf dem Planeten zu begrüssen.
 
Corros1on schrieb:
Naja, wenn man einer lernfähigen künstlichen Intelligenz (obwohl es sich hier nur um gut geschriebene Algorithmen handelt und es in meiner Sicht keine Intelligenz darstellt)

Da wären wir bei der Frage, über die nicht nur Informatiker und Philosophen seit langer Zeit streiten und auf die noch niemand eine stimmige Antwort gefunden hat: Ab wann gilt etwas als intelligent?

Ist Tay intelligenter als eine Amöbe? Intelligenter als eine Ameise? Als eine Ratte, ein Rabe, ein Delphin, ein Gorilla?

Corros1on schrieb:
Wie will man sonst eine "KI" programmieren?
Eine KI oder Programm folgt immer einen bestimmten Protokoll die nach dem Prinzip "wenn / dann" geschrieben wurde wenn Zahl x gleich ist wie y dann Aktion z, wenn aber x einen anderen Wert hat dann Aktion a!

„Man könnte auch behaupten, DNA sei lediglich ein Programm, das zur Selbsterhaltung entwickelt wurde.“

https://www.youtube.com/watch?v=NJtl95R3tf8
 
@DerOlf

Ich gebe dir vollkommen recht!
Intelligenz hat auch was mit Freiheit von Gedanken und Entscheidungen zu tun!

Die eigentliche Frage die ich mir stelle, braucht die Menschheit eine "KI" ähnlich der unseren?


Ich meine der Mensch ist auf diesem Planeten das einzige intelligente Lebewesen (so wie sich die Menschheit gerne darstellt, aber bei den Idio*** in führenden und leitenden Positionen Zweifele ich an der Intelligenz der Menschheit), würde eine KI Konkurrenz für uns Menschen bedeuten und bei unseren stark vernetzten Technik dürfte evtl. der Konkurrenzkampf sehr schnell vorbei sein, da die KI am längerem Hebel sitzt und wir Menschen von Maschinen abhängig ist!

Dieser Gedanke erinnert stark an einen schlechten sience fiction Buch oder Film! Aber durchaus berechtigt!

Mit voranschreiten der Technik entsteht auch eine höhere Verantwortung dieser!
 
Zuletzt bearbeitet:
Warum wird der Stammtisch seit neuestem als Ausbund alles Bösen angesehen??

Er war und ist ein Ort gelebter Basisdemokratie, an den verschiedene soziale Schichten (Landwirt, Lehrer, Pfarrer, Beamte) teilnahmen und an dem offen die Meinungen ausgetauscht und diskutiert wurde. Und die schlimmsten Auswüchse wurden durch die Mehrheit verhindert. Heutzutage triffst du nur noch Gleichgesinnte im anonymen WWW. Und dann wundert man sich über den Verfall der Sitten.
 
Denn intensiv diskutierte Ereignisse sind für viele Millionen Menschen in diesem Land eine fantastische Gelegenheit zum Schnauzehalten, die sie sämtlich verpassen.....

Könntet ihr mindestens durchschnittlich Begabten bitte mal aufhören diesen rothaarigen Spiegel Online Bot zu füttern? Seine Impertinenz ist unerträglich, und es wird Zeit das ihn endlich jemand vom Netz nimmt.

:lol:

P.S: Sehr interessanter Bericht. Vielen Dank dafür !!
 
Zuletzt bearbeitet: (typo)
HardRockDude schrieb:
90000 Tweets am ersten Tag? Was soll das überhaupt, ein Tag hat gerade mal 86400 Sekunden. Da kann man sich nur noch an den Kopf packen.

Interessant bleibt das "Projekt" trotzdem allemal, und wenn die KI jetzt noch gekoppelt wird an die Roboter von Boston Dynamics, dann ist T-1000 nicht mehr weit :eek:

Ich bin für die sofortige Aktivierung von Skynet... :-D
 
Coole Aktion. Marketingfail und sozialexperiment. Schade das nicht noch ein echter Cyborg hinter der Ki stand. So leicht lässt sich skynet verwirklichen. Diesen Logarithmus in cortana und skynet wird definitiv Wirklichkeit. Genau wie im Film als botnet.
 
Bezüglich künstlicher Intelligenz:

Corros1on schrieb:
@ascer
Wie will man sonst eine "KI" programmieren?
Eine KI oder Programm folgt immer einen bestimmten Protokoll die nach dem Prinzip "wenn / dann" geschrieben wurde wenn Zahl x gleich ist wie y dann Aktion z, wenn aber x einen anderen Wert hat dann Aktion a! An besten kann man sich da mit Schienen vorstellen mit Weichen! Der Zug biegen entweder nach links oder rechts ab je nach dem welcher Wert auf dem Waggon und welche Werte auf den verschiedenen Abzweige steht das man natürlich ausbauen kann nach der ersten Weiche kommt eine nächste und soweiter und sofort! Jetzt mehr Weichen das Programm hat desto genauer kann es auf dementsprechende Informationen reagieren werden und der vermeintliche Eindruck einer Intelligenz vortäuschen!

I see: du hast also - ohne Hintergrundwissen zu KI-Entwicklung oder konkrete Kenntnis der Architektur von Tay - einfach mal eine Annahme getätigt und betrachtest diese als alternativlos "Wie will man sonst eine 'KI' programmieren? ". Ich verstehe ;)

Die Lösung, die du beschrieben hast, ist so ziemlich das genaue Gegenteil einer KI.
Kontrollstrukturen, wie etwa Verzweigungen (wenn/dann, bzw. dein "Schienennetzbeispiel") fallen unter klassische Programmierung, sprich fixe, statische Algorithmen.
"Normale" Programmierer entwickeln während ihrer Arbeit genau jene Szenarien: ein großes Sammelsurium an Verzweigungen, Schleifen, Rekursionen, usw. Dadurch ergibt sich ein Programm rein statischer Natur, ohne Dynamik.

Künstliche Intelligenz ist aber das genaue Gegenteil: hier versucht man lernende, im besten Fall sogar selbstlernende, Systeme zu erschaffen. Künstliche Intelligenz ist dabei ein sehr breit gefasstes Feld, die meiste Aufmerksamkeit sowie die größten Fortschritte während der letzten Jahre bietet hierbei die Neuroinformatik, in der man sich vornehmlich mit künstlichen neuronalen Netzen beschäftigt.

Künstliche neuronale Netze sind eine Abstraktion biologischer neuronaler Netze: man versucht über die Modellierung künstlicher Neuronen ein dicht verschaltetes Netz aufzubauen, dessen einzelne Leitungsstränge - und damit nach und nach die gesamte Vernetzung - bestimmte Intensitätsanpassungen für die Signalweitergabe erfahren.
Ganz so wie im biologischen Vorbild, mit dem einzigen Unterschied, dass künstliche neuronale Netze deutlich kleiner sind als ihre biologischen Pedanten und bei gleicher Mächtigkeit bedeutend weniger Ausdrucksstark sind: elektronisch lassen sich ja nur diskrete Zahlenwerte modellieren, wohingegen die Biologie kontinuierliche Signale und verschiedene Botenstoffe kennt. Deshalb benötigt ein künstliches neuronales Netz derzeit deutlich mehr künstliche Neurone, um im direkten Vergleich mit einem biologischen neuronalen Netz ein vergleichbares Ergebnis zu einem gegebenen Problem zu finden.

Grundsätzlich unterscheidet man neuronale Architekturen in: supervised-, unsupervised- und reinforcement-learning. Dahinter verbirgt sich die Lernstrategie einer solchen Architektur. Vollständiges supervised-learning bedeutet, dass die KI im Betrieb nicht lernfähig ist, sondern vorab mit einer Unzahl an "fertigen" Trainingsdaten trainiert wird, von denen das gewünschte Endergebnis mindestens approximiert werden kann. unsupervised-learning wird z.B. für clustering verwendet, hier kennt man das Endergebnis nicht und lässt die KI, stark vereinfacht gesagt, selbstständig lernen, z.B. beim clustering eben Muster finden um Daten gruppieren zu können. Das findet z.B. bei Google's KIs Anwendung, die Webseiten, News, usw. usf. gruppieren.
reinforcement-learning wiederum ist "Verstärkungslernen". Der KI wird hierbei keinerlei Strategie vorgegeben, aber jedes abgeschlossene Verhalten bekommt entweder eine positive oder eine negative Konditionierung. Sowas macht man z.B. auch in Tierversuchen, wo wünschenswertes Verhalten beispielsweise mit Futter belohnt, unerwünschtes Verhalten mit Maßregelung oder Gleichgültigkeit gestraft wird.

Dazwischen gibt es natürlich "große" Architekturen, in denen mehrere, verschiedene Ansätze vermischt werden. Da das menschliche Gehirn ebenfalls über alle drei (und eventuell noch weitere, bis unbekannte) Lernstrategien verfügt, sind solche komplexen Architekturen, die mehrere Ansätze vermischen, diejenigen mit dem größten Lernpotential.




Bezüglich selektiver Wahrnehmung und "Informationszensur":

DerOlf schrieb:
Wenn ich mir so überlege, was ich über selektive Wahrnehmung gelernt habe, dann funktioniert Intelligenz ganz allgemein nicht ohne Zensur ... denn unsere gesamte Entscheidungsroutine basiert letztlich auf der Fähigkeit, Informationen je nach subjektiv empfundener Wichtigkeit zu ignorieren.

Du hast einen entscheidenden, schwerwiegenden Fehler in deiner Argumentationslogik: du hast selber schon richtig gesagt, dass eine Schlüsselqualifikation von Intelligenz ist, eine selektive Wahrnehmung zu besitzen. Eben jene Routinen, die von einfachen Instinkten bis hoch zur Kognition über die Signifikanz einer Information entscheiden. Das ist vollkommen richtig, aber: diese Schlüsselqualifikation muss inhärent mit der Intelligenz verbunden sein. Würde man einem Menschen von seiner Geburt an Sinneseindrücke verweigern, wäre er später nicht dazu in der Lage, diese (für ihn dann neuen) Eindrücke später zu klassifizieren. Diese selektive Wahrnehmung wird ab der Geburt erlernt. Das ist auch der Grund, warum kleine Kinder (ob nun Menschen oder Tiere) so neugierig sind...wären sie es nicht, wären sie unfähig eine selektive Wahrnehmung zu entwickeln. Ergo wären sie in der realen Welt hoffnungslos verloren, da hier schiere Informationsfluten für intelligentes Handeln gefiltert werden müssen.
Deshalb ist es unabdingbar, dass eine (wirklich intelligente) KI ebenfalls die volle Informationsbandbreite - ohne Zensur - erfährt und diese selektive Wahrnehmung selbst lernt.
 
Zuletzt bearbeitet:
Mit KI hatte das nicht viel zu tun.
Tay hatte eine "repeat after me" Funktion, bei der Tay quasi nur alles nachgebrabbelt hat, was man ihr zugeschickt hat.
Somit war da nichts mit KI.
Der Artikel spricht dies ja auch an. Also mal alle runterkommen.
Warum war MS so dumm diese Funktion überhaupt einzubauen.
Stupides nachreden/nachtwittern hat irgendwie keinen wirklich Sinn und Zweck im Hinblick auf KI.
Das macht jeder 0815-Bot.


Many of the really bad responses, as Business Insider notes, appear to be the result of an exploitation of Tay’s “repeat after me” function — and it appears that Tay was able to repeat pretty much anything.
Quelle
 
Zuletzt bearbeitet:
wahlmeister schrieb:
Coole Aktion. Marketingfail und sozialexperiment. Schade das nicht noch ein echter Cyborg hinter der Ki stand. So leicht lässt sich skynet verwirklichen. Diesen Logarithmus in cortana und skynet wird definitiv Wirklichkeit. Genau wie im Film als botnet.
An diesen Film muss ich immer denken ,wenn ich an Cyborgs denke, finde Film Heute noch gut.
https://de.wikipedia.org/wiki/Westworld
 
Man darf hier nicht vergessen, dass Tay sich genau so verhalten hat, wie von ihrem Entwicklern vorgesehen war. Wie ein Kind wurde sie von ihrem Umfeld geprägt. Dass einem das Ergebnis missfällt... Pech gehabt. Dann sollte man sich Tays Umfeld das nächste mal besser aussuchen. Vielleicht kommt dann ja ein politisch korrekter Bot raus.

Ich habe mich über Tay kaputt gelacht, schade, dass sie abgeschaltet wurde. Danke Microsoft für den Spaß.

Was danach kommt ist doch eine georweltschte, gleichgeschaltete Mainstreamplöree ohne Unterhaltungsfaktor.
 
So schade, dass man sie offline genommen hat. So ist das eben mit experimenten. Sollte bei der internetkultur nicht verwundern.
 
ascer schrieb:
Deshalb ist es unabdingbar, dass eine (wirklich intelligente) KI ebenfalls die volle Informationsbandbreite - ohne Zensur - erfährt und diese selektive Wahrnehmung selbst lernt.

Naja, so ganz ohne Zensur stimmt ja nicht, wir Eltern zensieren unsere Kinder dann ja doch selber in dem was wir sie wahrnehmen lassen. Oder würdest du einem 5 jährigen Weltkriegsdokumentationen zeigen, oder Pornos oder was auch immer?

Ein Kind kann gar nicht alles verwerten, weil es vieles gar nicht versteht, daher ist eine gewisse "Zensur" eher unabdingbar, damit dem lernenden Wesen nicht zu viel zugemutet wird.

Mich erinnert das ganze Thema ein wenig aus die Szene aus "Das fünfte Element" in dem der lernenden Leeloo das Internet gezeigt wird und sie nach einer kurzen Suche zum Thema Krieg, sämtliches Vertrauen in die Menschheit verliert und niemanden retten will.
 
Zuletzt bearbeitet:
habla2k schrieb:
Naja, so ganz ohne Zensur stimmt ja nicht, wir Eltern zensieren unsere Kinder dann ja doch selber in dem was wir sie wahrnehmen lassen.

Das stimmt zwar, aber das meinte ich damit auch nicht. Hier ging es ja um harte Filter, die jegliche Erfahrung (gerade negative) von vorherein Ausschließen. Sprich strikte Zensur.

Das Aufsparen bestimmter, komplexerer Thematiken "für später" ist imho eher ein "Dosieren" der Informationen und "Zuführen" nach Komplexitätsgrad. Nichtsdestoweniger ist altersgerechtes Lernen ja aber auch nur eine Wunschvorstellung.
In der Realität werden selbst bei den strengsten Eltern die Kindern niemals zu 100% vor solchen, häufig für sie negativen, Erfahrungen schützbar sein. Abgesehen davon sind es ja häufig die Kinder, die wie ein rohes Ei behandelt werden, die später Entwicklungs- oder Indentitätsstörungen aufweisen...oder einfach nur überfordert sind in der Charakterfindung.



rentex schrieb:
Ich bin für die sofortige Aktivierung von Skynet... :-D

Tatsächlich (ich bin unter anderem in der KI-Entwicklung unterwegs) besitze ich ein T-Shirt, komplett weiß, mit folgendem Text:


Every time
I sit in the bus,
go by train or
just stay at public places
I think to myself:

"You should better
get back to work.
Skynet has to be invented
as soon as possible.
"


Imho eines meines lustigsten Shirts...das musste ich einfach haben ^^
 
Zuletzt bearbeitet:
Interessant, allemal. Wie entwickelt sich ein Programm, ohne Moral, Ethik oder empfinden für Gut und Böse, wenn man es einfach nur so auf den Menschen los lässt. Dass da aber nicht wirklich das Programm versagte ist klar.
 
Zurück
Oben