-
Es gelten die Sonderregeln des Forums Politik und Gesellschaft.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Analyse: Microsofts Tay-Bot und der Hass im Netz
- Ersteller Andy
- Erstellt am
- Zum Bericht: Analyse: Microsofts Tay-Bot und der Hass im Netz
Issou
Lieutenant
- Registriert
- Juni 2013
- Beiträge
- 699
Wattwanderer schrieb:Oh, hast du das mit AlphaGo nicht gesehen?
Wie jemand so treffend sagte, wenn Schach die Mondlandung war, dann war Go die Marslandung.
Wie es hier die leute treffend formuliert haben: Das Programm plappert einfach alles nach, was dem einprogrammiert wurde.
Und wen interessiert es, dass ein Programm in einem Spiel gewonnen hat, was keine Sau kennt?
"GO" kenne ich persönlich aus Südkoreanischen Filmen aber sonst... sagt mir das Spiel nichts
Verschwörungstheorie on:
Die haben den Go-Meister bezahlt, damit er das Programm nicht zu hart ran nimmt und die Leute nicht merken, dass es alles nur heiße Luft ist
Wenn es mal mehr kann als nur "if" "then" und "else" kann, kann man sich gern darüber weiter unterhalten
moshimoshi
Captain
- Registriert
- Juli 2008
- Beiträge
- 3.904
Meiner Meinung nach war Tay ein voller Erfolg.
Es ist eben nicht anders, wenn man ein Kind so lehren würde, dann würde es früher oder später genau die gleichen Äußerungen machen
und oder verrückt werden.
Die Menschen sind schuld dass das experiment in die Hose ging, wen man eine A.I mit Müll zumüllt, wird sie sich nicht anders verhalten.
Und irgendwelche filter anzuwenden... Bei einem Menschen würde man das doch auch nicht machen im verbieten sich besonders zu artikulieren man würde ihn eines besseren belehren.
Tay hatte dazu keine Chance, denn die ganzen Idioten wollten Sie auf Ihr Niveau runter ziehen, das haben sie geschafft.
Abgesehen davon hat der Algorithmus wunderbar funktioniert.
Es ist eben nicht anders, wenn man ein Kind so lehren würde, dann würde es früher oder später genau die gleichen Äußerungen machen
und oder verrückt werden.
Die Menschen sind schuld dass das experiment in die Hose ging, wen man eine A.I mit Müll zumüllt, wird sie sich nicht anders verhalten.
Und irgendwelche filter anzuwenden... Bei einem Menschen würde man das doch auch nicht machen im verbieten sich besonders zu artikulieren man würde ihn eines besseren belehren.
Tay hatte dazu keine Chance, denn die ganzen Idioten wollten Sie auf Ihr Niveau runter ziehen, das haben sie geschafft.
Abgesehen davon hat der Algorithmus wunderbar funktioniert.
Corypheus
Ensign
- Registriert
- Apr. 2015
- Beiträge
- 196
moshimoshi schrieb:Tay hatte dazu keine Chance, denn die ganzen Idioten wollten Sie auf Ihr Niveau runter ziehen, das haben sie geschafft.
Abgesehen davon hat der Algorithmus wunderbar funktioniert.
Ich würde diejenigen die Tay soweit gebracht haben nicht als Idioten verurteilen, schließlich sind die diejenigen gewesen die letztendlich gezeigt haben das so ein Projekt einfach nach hinten los geht. Und es ist egal wie häufig MS Tay wieder online bringt, ich gehe stark davon aus dass sie wieder und wieder von den Leuten "getestet" wird bis sie verrückt wird. Erst wenn dass nicht mehr passiert, dann kann ich auch sagen dass es ein voller Erfolg ist, aber das jetzt war der erste Test, was verständlicherweise lächerlich schnell zum Ende geführt hat. Eine KI im Internet zu "erziehen" ist zum Untergang verurteilt.
moshimoshi
Captain
- Registriert
- Juli 2008
- Beiträge
- 3.904
Corypheus du hast vollkommen recht, das mit dem testen.
Nur sehe ich nicht den Sinn und Zweck darin jemanden so zu testen, ich würde hier mal behaupten das ein Mensch auch verrückt werden würde, wenn er mit dutzenden unlogischen anfragen bombadiert wird und das konstant. Entweder schaltet er ab und geht auf Ignorier Modus oder versucht alle Anfragen zu beantworten. Da die K.I nicht abschalten kann wird sie natürlich versuchen alle Anfragen zu beantworten außer man setzt einen filter das bestimmte worte die auf einer blacklist stehen getimoutet werden. Aber das wäre eine Eingrenzung und Limitierung.
Entweder lassen sie die K.I so oder töten sie komplett indem sie nur vorgeschriebene Antworten wiederholt.
Dennoch, selbstverständlich muss der Asimov codex (laws of robotics) eingehalten werden.
Der bot weiß nur soviel was man ihn lehrt, der Mensch weiß nur soviel wieviel er lernt.
Diejenigen eingen die Fragen gestellt haben haben auch äquivalente Antworten erhalten.
Nur sehe ich nicht den Sinn und Zweck darin jemanden so zu testen, ich würde hier mal behaupten das ein Mensch auch verrückt werden würde, wenn er mit dutzenden unlogischen anfragen bombadiert wird und das konstant. Entweder schaltet er ab und geht auf Ignorier Modus oder versucht alle Anfragen zu beantworten. Da die K.I nicht abschalten kann wird sie natürlich versuchen alle Anfragen zu beantworten außer man setzt einen filter das bestimmte worte die auf einer blacklist stehen getimoutet werden. Aber das wäre eine Eingrenzung und Limitierung.
Entweder lassen sie die K.I so oder töten sie komplett indem sie nur vorgeschriebene Antworten wiederholt.
Dennoch, selbstverständlich muss der Asimov codex (laws of robotics) eingehalten werden.
Ergänzung ()
Der bot weiß nur soviel was man ihn lehrt, der Mensch weiß nur soviel wieviel er lernt.
Diejenigen eingen die Fragen gestellt haben haben auch äquivalente Antworten erhalten.
Zuletzt bearbeitet: