Bericht Analyse: Microsofts Tay-Bot und der Hass im Netz

Dennoch werde ich das getue von einigen im Netz scharf kritisieren und verurteilen, weil sie es einfach nicht lassen können ihren d****chen Dreck zu verbreiten und Unruhe zu stiften und das ist von meiner Seite her schon böse gemeint und ein klarer Vorwurf :rolleyes: Einfach nur peinlich und zeigt wie wenig IQ so manche haben, wohl zuviel Freizeit und keine Hobbys/keine Freunde/wenig Freude im Leben, da muss man dann anderen auf den Sack gehen.

Aus techn. Sicht vielleicht wie bereits erwähnt wurde auch, okay, ein guter Test mit dem Beweis, dass die Technik dazu einfach noch nicht wirklich ausgereift ist.

Was ich mich jetzt gerade noch frage ist, ob es nicht einfach möglich ist durch z.B. einer Art Blacklist die KI daran zu hindern gewisse Äußerungen zu tätigen? Ich denke selbst dann wird es wohl trotzdem schwer sein, weil man kann ja jedes einzelne Wort so drehen wie man will, wahrscheinlich ist es immer iwie möglich jemanden mit einer ungünstigen Äußerung blöd darstehen zu lassen... ich denke, dass wird eine künstliche Intelligenz wohl nie so können, wie (in dem Fall) der Mensch selber... (So wie in Will Smith Film I Robot)
 
Grundsätzlich ist die Idee ja gut. Aber sowas muss man eben langsam "anlernen" (eine KI soll ja lernfähig sein) und nicht von Anfang an publik machen dass es das jetzt gibt und gleich aufs ganze Netz loslassen.
Man schickt ja Kleinkinder auch nicht an Tag1 schon zur Arbeit.

Zu Teil 2 des Beitrags:
Löschen ist IMMER die falsche Idee. Strafverfolgung von Rechtsverstößen ist der korrekte Weg. Löschen ist falsch. Löschen ist Zensur.
Lass mal 5 Leute wegen Facebook Kommentaren mit leichten Strafen verknacken und die Medien ausgiebig darüber berichten. Dann wird sich der Ton im (deutschen) Netz über kurz oder lang ändern.
Wer rechtwiedriges im Netz postet macht das, weil es ihm entweder egal ist oder er davon ausgeht dass ihm/ihr eh nichts passiert.
 
Handysurfer schrieb:
Wenn man diese und weitere Beiträge zusammenfasst, würde ich sagen:
Ein Programm wurde bis zum Äußersten getestet und das Ergebnis davon wird von dummen Menschen falsch bewertet und
ein Erfolg davon wird ausgeblendet. Ein Mensch, der diesen Test für "seine" Seite schreibt/hochlädt, generiert Klicks und weitere dumme Menschen streiten sich weiter über das Ergebnis, obwohl da absolut nichts daran negativ ist.

Meinst du es war Krawallmarketing mit Nazikeule?

Der Gedanke ist mir zwar auch gekommen, angesichts Googles Erfolg mit DeepMinds AlphaGo stand MS mit ziemlich leeren Händen da, aber ich glaube nicht, dass MS so weit gehen würde.
 
@ derMutant

So gut wie jeder haelt andere fuer Idioten. Der Trick ist, sich daran zu erinnern, und zwar bevor man so was sagt, dass man selbst fuer jemand anderen ein anderer ist. ;)

Die Landtagswahlen gehoeren hier nicht 'rein, ich erlaub' mir nur diese Anmerkung: Wenn ich mir das Getue der etablierten Parteien angucke, wundert's mich eher, dass eine nicht noch viel staerker aufgetrumpft hat.--
 
Ich sehe in dem Anlernprozess auch große Fehler. So wird die "KI" mit Informationen von allen Seiten gleichzeitig und gleichwertig gefüttert. Was dabei herauskommt ist ein Mehrheitsdenken, das es so bei echten Menschen nicht gibt. Menschen lernen erstmal mit Vertrauenspersonen und bilden ein individuelleres Bewustsein aus, als die KI.
Dann bewerten sie Informationen bewichtet, weil sie bereits einen Charakter entwickelt haben und an diesem gerne festhalten.


Wie auch schon von anderen erwähnt fehlen der KI die Sinnesorgane. Nur so kann der Mensch aus Mimik, Tonfall, Kontext, Umgebung(wie viele Zuhörer) und den Erfahrungen mit diesem speziellen Gesprächsteilnehmers, den Inhalt eines Gesprächs besser bewerten.

Die KI Begeisterten mögen sich über ihren Erfolg beim GO freuen, aber daraus zu schließen das wir KIs auf Menschen loslassen können ist vermessen(solange Google es trotz all der Informationen die sie über mich inzwischen haben noch immer nicht schafft mir passende Werbung zu senden sehe ich da auch keinen möglichen Fortschritt).
 
UltraWurst schrieb:
@sasha87
Diese "KI" ist leider keine KI, sondern nur ein ziemlich billiger Chat-Bot.

Und woher weißt du das, ohne seine Algorithmen und seine Implementierung zu kennen?

h00bi schrieb:
Grundsätzlich ist die Idee ja gut. Aber sowas muss man eben langsam "anlernen" (eine KI soll ja lernfähig sein) und nicht von Anfang an publik machen dass es das jetzt gibt und gleich aufs ganze Netz loslassen.
Man schickt ja Kleinkinder auch nicht an Tag1 schon zur Arbeit.

Zu Teil 2 des Beitrags:
Löschen ist IMMER die falsche Idee. Strafverfolgung von Rechtsverstößen ist der korrekte Weg. Löschen ist falsch. Löschen ist Zensur.
Lass mal 5 Leute wegen Facebook Kommentaren mit leichten Strafen verknacken und die Medien ausgiebig darüber berichten. Dann wird sich der Ton im (deutschen) Netz über kurz oder lang ändern.
Wer rechtwiedriges im Netz postet macht das, weil es ihm entweder egal ist oder er davon ausgeht dass ihm/ihr eh nichts passiert.

Das hat MS ja wahrscheinlich getan. Andernfalls würde ich erwarten, dass diese KI keinen einzigen syntaktisch und grammatikalisch korrekten Satz hervorbringt.

Allerdings stellt sich mir dann die Frage, warum auch keine Filterliste verwendet wurde. Möglicherweise hat MS das bewusst gemacht.


Baal Netbeck schrieb:
Die KI Begeisterten mögen sich über ihren Erfolg beim GO freuen, aber daraus zu schließen das wir KIs auf Menschen loslassen können ist vermessen(solange Google es trotz all der Informationen die sie über mich inzwischen haben noch immer nicht schafft mir passende Werbung zu senden sehe ich da auch keinen möglichen Fortschritt).

Was heißt "auf Menschen loslassen"? Es handelt sich ja hier nicht um einen Polizei-Roboter, der ethische Entscheidungen treffen muss.

In speziellen Disziplinen sind KIs schon jetzt den Menschen überlegen. Daher wird es nur eine Frage der Zeit sein, bis KIs für die Erkennung von Hautkrebs zuständig sein werden.

Die große Frage ist, ob KIs das Niveau eines Menschen (und darüber hinaus) erreichen können. Wie man an dem Beispiel von Tay sieht, sind die Anforderungen ungleich höher und man benötigt völlig neue Ansätze.
 
GinoBambino schrieb:
Die große Frage ist, ob KIs das Niveau eines Menschen (und darüber hinaus) erreichen können. Wie man an dem Beispiel von Tay sieht, sind die Anforderungen ungleich höher und man benötigt völlig neue Ansätze.

Wie so häufig ermangelt es da der Masse einfach an versiertem Wissen - es fehlt schlicht die Expertise, ebenso wie Vorstellungskraft.
Menschen, die Flugzeuge konstruieren wollten, wurden anfangs auch belächelt. Danach hieß es schneller sein als der Schall: unmöglich. Usw., die Liste kann man ewig fortsetzen.

Allerdings ist das natürlich auch verständlich, der gemeine Mensch ist weder mit Forschung vertraut noch in der Wissenschaft gebildet. Er kennt nur sein gewohntes Umfeld, insofern ist der Horizont beschränkt und viele Dinge sind "undenkbar".


Ich würde von daher die allseits bekannte Umformulierung deines Statements verwenden:

Die große Frage ist nicht ob, sondern wann KIs das Niveau eines Menschen (und darüber hinaus) erreichen können.
 
Zuletzt bearbeitet:
GinoBambino schrieb:
Und woher weißt du das, ohne seine Algorithmen und seine Implementierung zu kennen?
Kann man im Internet nachlesen.
Ist wohl eine Weiterentwicklung eines bereits bekannten Chat-Bots. Und die meisten der kritischen Statements wurde einfach nur wiederholt, wie von einem Papagei.

GinoBambino schrieb:
Die große Frage ist, ob KIs das Niveau eines Menschen (und darüber hinaus) erreichen können.
Selbstverständlich. Aber da müsste der Ansatz ein komplett anderer sein.
Bei so Programmen wie Tay geht es gar nicht darum, ein tatsächlich denkendes "Wesen" zu schaffen, sondern nur darum, in einem Chat vorzutäuschen, man würde mit einer Person sprechen.
 
KI heisst ja nicht automatisch, dass es auf einem neuronalen Netz beruht. Hab mich mit der Thematik jetzt nicht weiter beschäftigt, aber anscheinend gab es ja Lernporzesse.

Im Übrigen ist man davon abgekommen eine komplette Intelligenz auf einmal zu entwickeln. Ist momentan einfach zu komplex, deswegen spezialisert man sich wie zum Beispiel bei Alpha-GO.
 
dichter-karl schrieb:
KI heisst ja nicht automatisch, dass es auf einem neuronalen Netz beruht.

Nein, aber künstliche neuronale Netze sind am vielversprechendsten. Planning, Searching und viele andere Bereiche in den Feldern der künstlichen Intelligenz sind eher ältere Thematiken, die zwar intelligente Algorithmen einsetzen, letztlich aber mathematische Modelle von nicht selbstständig lernenden Systemen sind.

Neuronale Netze sind sowohl in der Biologie als auch in der Neuroinformatik die einzigen selbstlernenden Systeme von hoher Ausdrucksmächtigkeit, also die einzigen, die bis jetzt selbstlernend komplexe Probleme angehen können.
 
Naja gut ... im Prinzip ist auch jeder Bot in einem Computerspiel eine KI.
Aber mit tatsächlicher Intelligenz und autonomem Denken hat das wenig zu tun.
 
@UltraWurst: Exakt.

Deshalb hatte ich auf die hier recht unkonkreten Vorstellungen von künstlicher Intelligenz, wie man beispielhaft in diesem Post sehen konnte:

Corros1on schrieb:
@ascer
Wie will man sonst eine "KI" programmieren?
Eine KI oder Programm folgt immer einen bestimmten Protokoll die nach dem Prinzip "wenn / dann" geschrieben wurde wenn Zahl x gleich ist wie y dann Aktion z, wenn aber x einen anderen Wert hat dann Aktion a! An besten kann man sich da mit Schienen vorstellen mit Weichen! Der Zug biegen entweder nach links oder rechts ab je nach dem welcher Wert auf dem Waggon und welche Werte auf den verschiedenen Abzweige steht das man natürlich ausbauen kann nach der ersten Weiche kommt eine nächste und soweiter und sofort! Jetzt mehr Weichen das Programm hat desto genauer kann es auf dementsprechende Informationen reagieren werden und der vermeintliche Eindruck einer Intelligenz vortäuschen!

...versucht ausführlich zu antworten, um in dem aktuell größten Forschungsbereich zu künstlicher Intelligenz, den neuronalen Netzen, mal generell die verschiedenen Arten von selbstlernenden Systemen zu umreißen und eine grobe, oberflächliche, verallgemeinerte Beschreibung derselbigen zu geben:

ascer schrieb:
Bezüglich künstlicher Intelligenz:
[@Corros1on] I see: du hast also - ohne Hintergrundwissen zu KI-Entwicklung oder konkrete Kenntnis der Architektur von Tay - einfach mal eine Annahme getätigt und betrachtest diese als alternativlos "Wie will man sonst eine 'KI' programmieren? ". Ich verstehe ;)

Die Lösung, die du beschrieben hast, ist so ziemlich das genaue Gegenteil einer KI.
Kontrollstrukturen, wie etwa Verzweigungen (wenn/dann, bzw. dein "Schienennetzbeispiel") fallen unter klassische Programmierung, sprich fixe, statische Algorithmen.
"Normale" Programmierer entwickeln während ihrer Arbeit genau jene Szenarien: ein großes Sammelsurium an Verzweigungen, Schleifen, Rekursionen, usw. Dadurch ergibt sich ein Programm rein statischer Natur, ohne Dynamik.

Künstliche Intelligenz ist aber das genaue Gegenteil: hier versucht man lernende, im besten Fall sogar selbstlernende, Systeme zu erschaffen. Künstliche Intelligenz ist dabei ein sehr breit gefasstes Feld, die meiste Aufmerksamkeit sowie die größten Fortschritte während der letzten Jahre bietet hierbei die Neuroinformatik, in der man sich vornehmlich mit künstlichen neuronalen Netzen beschäftigt.

Künstliche neuronale Netze sind eine Abstraktion biologischer neuronaler Netze: man versucht über die Modellierung künstlicher Neuronen ein dicht verschaltetes Netz aufzubauen, dessen einzelne Leitungsstränge - und damit nach und nach die gesamte Vernetzung - bestimmte Intensitätsanpassungen für die Signalweitergabe erfahren.
Ganz so wie im biologischen Vorbild, mit dem einzigen Unterschied, dass künstliche neuronale Netze deutlich kleiner sind als ihre biologischen Pedanten und bei gleicher Mächtigkeit bedeutend weniger Ausdrucksstark sind: elektronisch lassen sich ja nur diskrete Zahlenwerte modellieren, wohingegen die Biologie kontinuierliche Signale und verschiedene Botenstoffe kennt. Deshalb benötigt ein künstliches neuronales Netz derzeit deutlich mehr künstliche Neurone, um im direkten Vergleich mit einem biologischen neuronalen Netz ein vergleichbares Ergebnis zu einem gegebenen Problem zu finden.

Grundsätzlich unterscheidet man neuronale Architekturen in: supervised-, unsupervised- und reinforcement-learning. Dahinter verbirgt sich die Lernstrategie einer solchen Architektur. Vollständiges supervised-learning bedeutet, dass die KI im Betrieb nicht lernfähig ist, sondern vorab mit einer Unzahl an "fertigen" Trainingsdaten trainiert wird, von denen das gewünschte Endergebnis mindestens approximiert werden kann. unsupervised-learning wird z.B. für clustering verwendet, hier kennt man das Endergebnis nicht und lässt die KI, stark vereinfacht gesagt, selbstständig lernen, z.B. beim clustering eben Muster finden um Daten gruppieren zu können. Das findet z.B. bei Google's KIs Anwendung, die Webseiten, News, usw. usf. gruppieren.
reinforcement-learning wiederum ist "Verstärkungslernen". Der KI wird hierbei keinerlei Strategie vorgegeben, aber jedes abgeschlossene Verhalten bekommt entweder eine positive oder eine negative Konditionierung. Sowas macht man z.B. auch in Tierversuchen, wo wünschenswertes Verhalten beispielsweise mit Futter belohnt, unerwünschtes Verhalten mit Maßregelung oder Gleichgültigkeit gestraft wird.

Dazwischen gibt es natürlich "große" Architekturen, in denen mehrere, verschiedene Ansätze vermischt werden. Da das menschliche Gehirn ebenfalls über alle drei (und eventuell noch weitere, bis unbekannte) Lernstrategien verfügt, sind solche komplexen Architekturen, die mehrere Ansätze vermischen, diejenigen mit dem größten Lernpotential.


Selbstverständlich haben alle bisherigen Poster hier auch recht, dass KIs in den unterschiedlichsten Formen existieren und oft genug sind es ziemlich plumpe "Bots".
Jene Tatsache ändert aber nichts an den enormen Fortschritten in der Forschung bezüglich neuronaler Netze, etwa seit Beginn des 21. Jahrhunderts.
Ebenso muss man sich ja nicht an den Trivialbeispielen für KI orientieren, die seit Jahrzehnten existieren. Ganz besonders wenn man Zukunftsprognosen macht, was hier beinahe jeder zweite Post tat, sollte man sich doch schon an aktueller Forschung orientieren...
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Naja gut ... im Prinzip ist auch jeder Bot in einem Computerspiel eine KI.
Aber mit tatsächlicher Intelligenz und autonomem Denken hat das wenig zu tun.

Eben nicht. Das fällt auch unter klassischer Programmierung. Die KIs in Computerspielen sind geskriptet und haben ein fest definiertes, begrenztes Repertoire an Befehlen, welches unter bestimmten Bedingungen eingesetzt wird.

Unter einer KIs versteht man zum Beispiel Alpha-Go. Hierbei handelt es sich um eine selbstlernende Struktur. D.h. man muss diese Struktur zunächst trainieren, damit sie die Dinge tut, die man erwartet. Das Training ist ein integraler Aspekt einer echten KI. Die KIs in Computerspielen werden jedoch nicht trainiert.
Ergänzung ()

ascer schrieb:
Wie so häufig ermangelt es da der Masse einfach an versiertem Wissen - es fehlt schlicht die Expertise, ebenso wie Vorstellungskraft.
Menschen, die Flugzeuge konstruieren wollten, wurden anfangs auch belächelt. Danach hieß es schneller sein als der Schall: unmöglich. Usw., die Liste kann man ewig fortsetzen.

Allerdings ist das natürlich auch verständlich, der gemeine Mensch ist weder mit Forschung vertraut noch in der Wissenschaft gebildet. Er kennt nur sein gewohntes Umfeld, insofern ist der Horizont beschränkt und viele Dinge sind "undenkbar".


Ich würde von daher die allseits bekannte Umformulierung deines Statements verwenden:

Die große Frage ist nicht ob, sondern wann KIs das Niveau eines Menschen (und darüber hinaus) erreichen können.

Mit fehlender Expertise hat das wenig zu tun. Die Entwicklung einer echten KI benötigt einfach noch viele Jahre Grundlagenforschung. In Teilgebieten hat man ja bereits gute Erfolge erzielt, aber die Intelligenz eines Menschen zu simulieren ist eine Nummer zu groß.

Den Vergleich mit Flugzeugen mag ich nicht besonders. Von Vögeln wissen wir, dass es physikalisch möglich ist, zu fliegen. Aber von Intelligenz wissen wir nicht, ob es möglich ist, sie zu simulieren. Es ist eine skurrile Vorstellung, dass eines Tages ein intelligentes, denkendes Wesen im RAM des Computers festsitzt. Ich bin noch etwas skeptisch, ob dies jemals möglich sein wird, zumal Vergleiche mit Menschen nur bedingt zulässig sind, da Menschen biologische und chemische Eigenschaften besitzen und somit völlig anders funktionieren. Auch haben Neurowissenschaftler noch immer nicht die Funktionsweise des Gehirns bis in alle Tiefen verstanden.
Ergänzung ()

Kennt jemand eigentlich ein gutes Buch zum Thema KI-Entwicklung (neuronale Netze)? Ich selbst bin Entwickler und ich habe schon seit längerem vor, mal selbst ein kleines neuronales Netzt zu programmieren.
 
@GinoBambino: Den Vergleich finde ich sogar überaus treffend: wie du ja schon richtig sagtest, wissen wir von Vögeln, dass das Fliegen physikalisch möglich ist. Wir haben also eine vorher nicht existente, technische Lösung geschaffen, durch Abstraktion der Wirklichkeit. Genau das macht man in der Neuroinformatik auch.
Von uns selbst wissen wir, dass es möglich ist, das sich kleine, einzellige Lebewesen zu größeren, biologischen Entitäten weiterentwickeln und damit komplexere Tätigkeiten aufnehmen können. Dieser Vorgang hat sich durch Evolution fortgesetzt, bis der Mensch mit dem bis dahin komplexesten Gehirn sich entwickelt hat.

Abgesehen davon gibt es nicht einen Hinweis darauf in den Neurowissenschaften, dass das Gehirn etwas anderes als ein hochkomplexer, biologischer Computer ist. Umgekehrt gibt es aber jedes Jahr enorme Fortschritte in seiner Entschlüsselung. Man kann ja beispielsweise schon sehr präzise Feststellen, welche Teile des Gehirns aktiv sind, wenn wir sehen, hören, wenn wir Emotionen fühlen, wenn wir hungern oder welche Auswirkung Glückshormone auf das Gehirn haben.
Natürlich ist man noch weit davon entfernt, dass Gehirn als Ganzes zu begreifen. Das ändert aber nichts an der Tatsache, dass es jedes Jahr enorme Fortschritte gibt und alle bisherigen Schritte darauf hinweisen, dass das Gehirn eben nichts weiter als ein komplexer, biologischer Computer ist - also Signale verarbeitet.

Auch die Lernkapazitäten von biologischen neuronalen Netzen funktionieren ähnlich wie die künstlichen Pedanten - nur eben besser und komplexer.

Ein kleines Beispiel: bei einem überregionalem Forschungsprojekt wurden bei Mäusen gezielt die Gehirnareale und Synapsen neutralisiert, die für das Hören zuständig sind. Folglich waren die Mäuse taub. Danach hat man unter anderem die für den Geschmackssinn zuständigen Regionen neu vernetzt mit den Hörorganen. Schlussendlich wurden einfache und daraufhin immer komplexere Töne den Mäusen vorgespielt. Die Mäuse waren dann wieder in der Lage Geräusche zu vernehmen. Dies (neben vielen anderen Experimenten) beweist, dass biologische Netze ebenso mit Stimuli trainiert und auch neu trainiert werden können.

Ebenso hat man Mäusen schon Infrarotmessgeräte in das Gehirn implantiert oder gar Mäusehirne extrahiert, künstlich am leben erhalten und mit Robotern vernetzt. Bei allen Experimenten waren die biologischen Netze bis zu einem gewissen Grad gezielt manipulier- und trainierbar.

Unabhängig davon gibt es keinen technischen Grund, der gegen die künstliche Modellierung eines Gehirns spricht. Die Ausdrucksmächtigkeit biologischer Systeme, nämlich verschiedene Botenstoffe zur Informationsweitergabe zu Nutzen, bedeutet letztlich nur, dass man deutlich mehr künstliche Neuronen benötigt, um ein in der Komplexität vergleichbares Gegenstück zu einem biologischen neuronalen Netz zu erzeugen. Das ist ebenfalls keine Machbarkeitsfrage, es ist mathematisch beweisbar, dass dies möglich ist. Wir sind lediglich noch nicht in der Lage, Systeme dieser Größenordnung technisch zu realisieren und vor allem diese Systeme unter Kontrolle zu halten.
Je größer die Anzahl der Neurone und Synapsen ist, desto schwieriger wird es, das Gesamtsystem zu kontrollieren und es sinnvolle Dinge lernen zu lassen.

Auch hier sehe ich aber kein Hindernis. Man sollte sich diesbezüglich mal folgendes vor Augen halten: wir haben mit künstlichen neuronalen Netzen jetzt schon das geschafft, wofür die Evolution Hunderttausende von Jahren benötigte.

Die einzige Sache, die bisher technisch nicht modellierbar ist, sind kontinuierliche Signale bzw. Zustände. Aber auch das stellt bis her kein Problem dar: mit ausgefeilterer Mathematik und besserer Technik lassen sich so präzise Diskretisierungen erstellen, sodass nicht mal mehr in der Theorie eine nennenswerte Reduzierung der Ausdrucksmächtigkeit entsteht.
 
Zuletzt bearbeitet:
Guter Beitrag!

ascer schrieb:
@GinoBambino: Den Vergleich finde ich sogar überaus treffend: wie du ja schon richtig sagtest, wissen wir von Vögeln, dass das Fliegen physikalisch möglich ist. Wir haben also eine vorher nicht existente, technische Lösung geschaffen, durch Abstraktion der Wirklichkeit. Genau das macht man in der Neuroinformatik auch.
Von uns selbst wissen wir, dass es möglich ist, das sich kleine, einzellige Lebewesen zu größeren, biologischen Entitäten weiterentwickeln und damit komplexere Tätigkeiten aufnehmen können. Dieser Vorgang hat sich durch Evolution fortgesetzt, bis der Mensch mit dem bis dahin komplexesten Gehirn sich entwickelt hat.

Abgesehen davon gibt es nicht einen Hinweis darauf in den Neurowissenschaften, dass das Gehirn etwas anderes als ein hochkomplexer, biologischer Computer ist. Umgekehrt gibt es aber jedes Jahr enorme Fortschritte in seiner Entschlüsselung. Man kann ja beispielsweise schon sehr präzise Feststellen, welche Teile des Gehirns aktiv sind, wenn wir sehen, hören, wenn wir Emotionen fühlen, wenn wir hungern oder welche Auswirkung Glückshormone auf das Gehirn haben.
Natürlich ist man noch weit davon entfernt, dass Gehirn als Ganzes zu begreifen. Das ändert aber nichts an der Tatsache, dass es jedes Jahr enorme Fortschritte gibt und alle bisherigen Schritte darauf hinweisen, dass das Gehirn eben nichts weiter als ein komplexer, biologischer Computer ist - also Signale verarbeitet.

Auch die Lernkapazitäten von biologischen neuronalen Netzen funktionieren ähnlich wie die künstlichen Pedanten - nur eben besser und komplexer.

Ein kleines Beispiel: bei einem überregionalem Forschungsprojekt wurden bei Mäusen gezielt die Gehirnareale und Synapsen neutralisiert, die für das Hören zuständig sind. Folglich waren die Mäuse taub. Danach hat man unter anderem die für den Geschmackssinn zuständigen Regionen neu vernetzt mit den Hörorganen. Schlussendlich wurden einfache und daraufhin immer komplexere Töne den Mäusen vorgespielt. Die Mäuse waren dann wieder in der Lage Geräusche zu vernehmen. Dies (neben vielen anderen Experimenten) beweist, dass biologische Netze ebenso mit Stimuli trainiert und auch neu trainiert werden können.

Ebenso hat man Mäusen schon Infrarotmessgeräte in das Gehirn implantiert oder gar Mäusehirne extrahiert, künstlich am leben erhalten und mit Robotern vernetzt. Bei allen Experimenten waren die biologischen Netze bis zu einem gewissen Grad gezielt manipulier- und trainierbar.

Unabhängig davon gibt es keinen technischen Grund, der gegen die künstliche Modellierung eines Gehirns spricht. Die Ausdrucksmächtigkeit biologischer Systeme, nämlich verschiedene Botenstoffe zur Informationsweitergabe zu Nutzen, bedeutet letztlich nur, dass man deutlich mehr künstliche Neuronen benötigt, um ein in der Komplexität vergleichbares Gegenstück zu einem biologischen neuronalen Netz zu erzeugen. Das ist ebenfalls keine Machbarkeitsfrage, es ist mathematisch beweisbar, dass dies möglich ist. Wir sind lediglich noch nicht in der Lage, Systeme dieser Größenordnung technisch zu realisieren und vor allem diese Systeme unter Kontrolle zu halten.
Je größer die Anzahl der Neurone und Synapsen ist, desto schwieriger wird es, das Gesamtsystem zu kontrollieren und es sinnvolle Dinge lernen zu lassen.

Auch hier sehe ich aber kein Hindernis. Man sollte sich diesbezüglich mal folgendes vor Augen halten: wir haben mit künstlichen neuronalen Netzen jetzt schon das geschafft, wofür die Evolution Hunderttausende von Jahren benötigte.

Die einzige Sache, die bisher technisch nicht modellierbar ist, sind kontinuierliche Signale bzw. Zustände. Aber auch das stellt bis her kein Problem dar: mit ausgefeilterer Mathematik und besserer Technik lassen sich so präzise Diskretisierungen erstellen, sodass nicht mal mehr in der Theorie eine nennenswerte Reduzierung der Ausdrucksmächtigkeit entsteht.

Ja, aber während ein Flugzeug eine physikalische Entität ist, die theoretisch beschrieben werden kann, ist Intelligenz etwas sehr Abstraktes, das wir bisher allerhöchstens in Ansätzen verstehen. Niemand kann beschreiben, wie genau Intelligenz zustande kommt. Man kann zwar aufgrund der Erfolge in der Entwicklung neuronaler Netze annehmen, dass Intelligenz simulierbar ist, aber aufgrund der Komplexität des Gehirns kann die Wissenschaft dies nicht vorhersagen.

Für Flugkörper kennen wir die Gesetze der Aerodynamik, die uns sagen, ob ein Körper fliegen kann oder nicht. Aber für das Gehirn gibt es derartige Gesetze noch nicht (sofern wir von primitiven, neuronalen Modellen absehen). Die Komplexität der Interaktionen von Milliarden von Neuronen kann unmöglich mathematisch-analytisch erfasst werden. Das ist weit mehr als die Aktivität ganzer Gehirnteile zu messen. Ich stimme dir zu, dass die fundamentalen Mechanismen sehr ähnlich sind, aber das Gehirn hat möglicherweise weitere biologische und chemische Eigenschaften (wie werden zum Beispiel Sinneseindrücke gespeichert).

Wie ich schon sagte, leisten neuronale Netze in Teildisziplinen sehr gute Arbeit, nämlich dann, wenn es um das Verarbeiten von Sinneseindrücken geht (Bilder erkennen, Wörter verstehen usw.). Aber darüber hinaus müssen noch grundlegende Konzepte erarbeitet werden, von denen ich nicht einmal weiß, welche dies sind. Ich denke da an Regeln zur Erkennung von logischen Zusammenhängen, die eigenständige Kreierung neuer Problemlösungsstrategien (Kreativität), die Simulation von Sinneseindrücken usw. Wenn simple neuronale Netze völlig intelligenzfrei sind, warum soll ich annehmen, dass ein komplexes neuronales Netz plötzlich Intelligenz entwickelt.
 
Das niemand die BOTs verurteilt!?

Es läuft doch darauf hinaus das hier eine KI geschaffen wird die Tweets produzieren soll und sich wenn möglich gegenseitig puschen, was ja jetzt auch schon der Fall ist.

So beeinflußt man Meinungen auch wenn dahinter nur ein BOT steckt.

Tweet KI: Refugees Welcome!
Tweet KI: Refugees Welcome!
Tweet KI: Refugees Welcome!
etc. mal 90.000 KI
Tweet Max Musterman: Refugees Welcome!

Yeha! 90.001 Tweets, ab in die Abendschau damit, weil ja so viele das Thema interessiert.

Traurig diese Entwicklung...bin froh das der Test so ausgeartet ist.
 
GinoBambino schrieb:
Eben nicht. Das fällt auch unter klassischer Programmierung. Die KIs in Computerspielen sind geskriptet und haben ein fest definiertes, begrenztes Repertoire an Befehlen, welches unter bestimmten Bedingungen eingesetzt wird.
Ja, ich weiß.
Wird aber landläufig trotzdem KI genannt.
 
Ist künstliche Intelligenz nur dann intelligent, wenn sie über das geskriptete Muster wenn a, dann x hinausgeht und eigene, neue Wege findet, auf eine Situation zu reagieren? Selbst wir als Krone der Schöpfung tun das nur selten.
 
DeusoftheWired schrieb:
Ist künstliche Intelligenz nur dann intelligent, wenn sie über das geskriptete Muster wenn a, dann x hinausgeht und eigene, neue Wege findet, auf eine Situation zu reagieren? Selbst wir als Krone der Schöpfung tun das nur selten.
Richtig!
Die Menschen die neue Wege gefunden haben, waren verkannte Querköpfe und wurden seinerzeit von der Gesellschaft abgestraft und erst ein paar viele Jahre später ihre Intelligenz erkannt!

Zuerst sollte man den Begriff eindeutig definieren um sich über die Intelligenz von Programmen und auch Menschen zu sprechen!
 
Zurück
Oben