Bezüglich künstlicher Intelligenz:
Corros1on schrieb:
@ascer
Wie will man sonst eine "KI" programmieren?
Eine KI oder Programm folgt immer einen bestimmten Protokoll die nach dem Prinzip "wenn / dann" geschrieben wurde wenn Zahl x gleich ist wie y dann Aktion z, wenn aber x einen anderen Wert hat dann Aktion a! An besten kann man sich da mit Schienen vorstellen mit Weichen! Der Zug biegen entweder nach links oder rechts ab je nach dem welcher Wert auf dem Waggon und welche Werte auf den verschiedenen Abzweige steht das man natürlich ausbauen kann nach der ersten Weiche kommt eine nächste und soweiter und sofort! Jetzt mehr Weichen das Programm hat desto genauer kann es auf dementsprechende Informationen reagieren werden und der vermeintliche Eindruck einer Intelligenz vortäuschen!
I see: du hast also -
ohne Hintergrundwissen zu KI-Entwicklung oder
konkrete Kenntnis der Architektur von Tay - einfach mal eine Annahme getätigt und betrachtest diese als alternativlos "
Wie will man sonst eine 'KI' programmieren? ". Ich verstehe
Die Lösung, die du beschrieben hast, ist so ziemlich das genaue Gegenteil einer KI.
Kontrollstrukturen, wie etwa Verzweigungen (wenn/dann, bzw. dein "Schienennetzbeispiel") fallen unter klassische Programmierung, sprich fixe, statische Algorithmen.
"Normale" Programmierer entwickeln während ihrer Arbeit genau jene Szenarien: ein großes Sammelsurium an Verzweigungen, Schleifen, Rekursionen, usw. Dadurch ergibt sich ein Programm rein statischer Natur, ohne Dynamik.
Künstliche Intelligenz ist aber das genaue Gegenteil: hier versucht man lernende, im besten Fall sogar selbstlernende, Systeme zu erschaffen. Künstliche Intelligenz ist dabei ein sehr breit gefasstes Feld, die meiste Aufmerksamkeit sowie die größten Fortschritte während der letzten Jahre bietet hierbei die Neuroinformatik, in der man sich vornehmlich mit künstlichen neuronalen Netzen beschäftigt.
Künstliche neuronale Netze sind eine Abstraktion biologischer neuronaler Netze: man versucht über die Modellierung künstlicher Neuronen ein dicht verschaltetes Netz aufzubauen, dessen einzelne Leitungsstränge - und damit nach und nach die gesamte Vernetzung - bestimmte Intensitätsanpassungen für die Signalweitergabe erfahren.
Ganz so wie im biologischen Vorbild, mit dem einzigen Unterschied, dass künstliche neuronale Netze deutlich kleiner sind als ihre biologischen Pedanten und bei gleicher Mächtigkeit bedeutend weniger Ausdrucksstark sind: elektronisch lassen sich ja nur diskrete Zahlenwerte modellieren, wohingegen die Biologie kontinuierliche Signale und verschiedene Botenstoffe kennt. Deshalb benötigt ein künstliches neuronales Netz derzeit deutlich mehr künstliche Neurone, um im direkten Vergleich mit einem biologischen neuronalen Netz ein vergleichbares Ergebnis zu einem gegebenen Problem zu finden.
Grundsätzlich unterscheidet man neuronale Architekturen in:
supervised-,
unsupervised- und
reinforcement-learning. Dahinter verbirgt sich die Lernstrategie einer solchen Architektur. Vollständiges
supervised-learning bedeutet, dass die KI im Betrieb nicht lernfähig ist, sondern vorab mit einer Unzahl an "fertigen" Trainingsdaten trainiert wird, von denen das gewünschte Endergebnis mindestens approximiert werden kann.
unsupervised-learning wird z.B. für
clustering verwendet, hier kennt man das Endergebnis nicht und lässt die KI, stark vereinfacht gesagt, selbstständig lernen, z.B. beim clustering eben Muster finden um Daten gruppieren zu können. Das findet z.B. bei Google's KIs Anwendung, die Webseiten, News, usw. usf. gruppieren.
reinforcement-learning wiederum ist "Verstärkungslernen". Der KI wird hierbei keinerlei Strategie vorgegeben, aber jedes abgeschlossene Verhalten bekommt entweder eine positive oder eine negative Konditionierung. Sowas macht man z.B. auch in Tierversuchen, wo wünschenswertes Verhalten beispielsweise mit Futter belohnt, unerwünschtes Verhalten mit Maßregelung oder Gleichgültigkeit gestraft wird.
Dazwischen gibt es natürlich "große" Architekturen, in denen mehrere, verschiedene Ansätze vermischt werden. Da das menschliche Gehirn ebenfalls über alle drei (und eventuell noch weitere, bis unbekannte) Lernstrategien verfügt, sind solche komplexen Architekturen, die mehrere Ansätze vermischen, diejenigen mit dem größten Lernpotential.
Bezüglich selektiver Wahrnehmung und "Informationszensur":
DerOlf schrieb:
Wenn ich mir so überlege, was ich über selektive Wahrnehmung gelernt habe, dann funktioniert Intelligenz ganz allgemein nicht ohne Zensur ... denn unsere gesamte Entscheidungsroutine basiert letztlich auf der Fähigkeit, Informationen je nach subjektiv empfundener Wichtigkeit zu ignorieren.
Du hast einen entscheidenden, schwerwiegenden Fehler in deiner Argumentationslogik: du hast selber schon richtig gesagt, dass eine Schlüsselqualifikation von Intelligenz ist, eine selektive Wahrnehmung zu besitzen. Eben jene Routinen, die von einfachen Instinkten bis hoch zur Kognition über die Signifikanz einer Information entscheiden. Das ist vollkommen richtig, aber: diese Schlüsselqualifikation muss inhärent mit der Intelligenz verbunden sein. Würde man einem Menschen von seiner Geburt an Sinneseindrücke verweigern, wäre er später nicht dazu in der Lage, diese (für ihn dann neuen) Eindrücke später zu klassifizieren. Diese selektive Wahrnehmung wird ab der Geburt erlernt. Das ist auch der Grund, warum kleine Kinder (ob nun Menschen oder Tiere) so neugierig sind...wären sie es nicht, wären sie unfähig eine selektive Wahrnehmung zu entwickeln. Ergo wären sie in der realen Welt hoffnungslos verloren, da hier schiere Informationsfluten für intelligentes Handeln gefiltert werden
müssen.
Deshalb ist es
unabdingbar, dass eine (wirklich intelligente) KI ebenfalls die volle Informationsbandbreite - ohne Zensur - erfährt und diese selektive Wahrnehmung selbst lernt.