ascer schrieb:
Und unabhängig davon, setzen die alle, wie gesagt, KI ein.
Hayda Ministral schrieb:
c2ash schrieb:
Du hast zwar viele Firmen erwähnt, aber ich sehe da keine KI dahinter.
Die
Definition von KI ist:
In
computer science AI research is defined as the study of "
intelligent agents": any device that perceives its environment and takes actions that maximize its chance of successfully achieving its goals.
[1] Colloquially, the term "artificial intelligence" is applied when a machine mimics "cognitive" functions that humans associate with other
human minds, such as "learning" and "problem solving".
[2]
Es gibt natürlich noch mehr, aber alle Fachbücher gehen in genau diese - und nur diese - Richtung.
Ein
agent muss dabei weder ein Bewusstsein, noch eine Selbstständigkeit über sein Aufgabengebiet hinaus besitzen. Die Imitation kognitiver Funktionen bedingt ferner
nicht, dass sämtliche (oder gar mehr) Funktionen des Originals abgebildet werden. D.h. es ist vollkommen legitim, etwa ausschließlich Teile der visuellen Perzeption nachzubilden, um etwa eine Gesichtserkennung zu realisieren. Das ist per Definition KI.
Deshalb schrieb ich: lest euch die Definition von KI durch. Eine Allumfänglichkeit, die ihr hier postuliert, gibt es
ausschließlich in Form von
AGI (Artificial General Intelligence). Mitunter auch als "starke KI" betitelt. Dort definiert man höhere kognitive Ansprüche, ein Bewusstsein für ein Aufgabengebiet, sodass Aufgaben nicht nur gelöst, sondern auch verstanden werden müssen. D.h. man erwartet entweder empirisch beobachtbares Anwenden von Lösungsstrategien (selbstständig!) auf neue Probleme oder gar direkt ein Bewusstsein, dass - auf welche Art auch immer - die Lösungsstrategien kommunizieren kann.
Man kann sicherlich darüber streiten, dass die allgemeine Definition der KI etwas an dem Begriff Intelligenz "leidet",
aber das liegt einzig daran, dass Begriffe wie "Intelligenz" selbst nicht gut definiert sind oder überhaupt verstanden werden. Den besten "Guess" für Intelligenz, den wir haben, sind empirisch reproduzierbare Tests von Fähigkeiten, die gewisse Lösungsstrategien erfordern: IQ-Tests.
c2ash schrieb:
Selbst DeepLearning ist nur das Training von einem Model.
Diese Teilaussage lässt sich auf
alles anwenden, was mit Lernen zu tun hat. Selbst Menschen. Damit ist sie argumentativ hinfällig. Auch wenn wir heute noch nicht genau wissen, wie ein menschliches Gehirn lernt, so wissen wir dennoch mittlerweile von vielen Arealen, worauf sie sich spezialisieren und das bestimmte Verbindungen und Muster von Neuronen den Lernzustand eines Individuums modellieren.
Das einzige, was uns (bisher) von KI trennt, ist das wir (a) dauerhaft lernen, (b) über Automatismen für selektive Wahrnehmung verfügen, (c) sehr effizient und schnell lernen und (d) abhängig von der Genetik und Förderung sehr abstrakte Konzepte selbstständig modellieren können.
[ (c) und insbesondere (d) sind übrigens das einzige, was uns von den meisten Tieren unterscheidet ]
c2ash schrieb:
diese trainierten Modelle funktionieren für einen ganz begrenzten Einsatzzweck und auch nur eben für die trainierten Daten.
Das ist bei modernen Deep Learning Ansätzen eben gerade nicht der Fall; Stichwort: Generalisierung. Natürlich kannst du ein Modell für Gesichtserkennung (visuelle Perzeption) nicht einfach als Modell für den Gleichgewichtssinn eines Roboters (Motorik) hernehmen...aber das kannst du bei Menschen auch nicht: wenn durch einen Unfall sämtliche Areale der visuellen Perzeption beschädigt sind, dann bist du blind und kannst nicht auf einmal mit deinem Gleichgewichtssinn sehen.
[Das menschliche Gehirn kann sich zwar sehr stark anpassen, aber nur in bedingtem Rahmen: nicht zu alt, ausreichend Neuronen zur Neu-Organisation vorhanden usw.; wobei man KI-Modelle ja ebenfalls re-trainen kann, nur eben auch nicht beliebig -> eine weitere Gemeinsamkeit]
Der ganze Witz von Deep Learning ist ja, dass sehr, sehr komplexe Netzarchitekturen dazu in der Lage sind, zu generalisieren. Man evaluiert solche Modelle ja auch mit Testdaten, die per Definition
neu sein müssen, d.h. Input, den das Modell nie zuvor gesehen hat.
Das geht heutzutage z.B. schon so weit, dass man nur wenige Tausend Bilder eines Objekts benötigt, um dieses Objekt in egal welcher Rotation und sehr unterschiedlichen Bewegungsrichtungen/-rotationen, Lichtverhältnissen, Wetter, ... wiederzuerkennen.
Anders wäre z.B. autonomes Fahren auch gar nicht lösbar: wenn du strikt auf deine Trainingsdaten optimierst und nicht darüber hinaus, dann müsste fast jede Straße, von vielen Positionen aus, von vielen Fahrzeugen, zu fast jeder Tageszeit, bei unterschiedlichen Wetterverhältnissen, ... aufgenommen und in das System gespeist werden.
Das wäre vom Ressourcenaufwand unmöglich.
Gegeben ausreichend Daten (irgendwann wird das ja quasi Auswendiglernen; eine schlichte, riesige Datenbank) könnte man
jedes Problem lösen. Die Problematik ist ja gerade, dass es für die meisten Probleme unmöglich ist, so viele Daten zu sammeln. Der ganze Forschungsbereich im Deep Learning dreht sich also um Effizienz und Generalisierung: wie kann man möglichst akkurate, möglichst generalisierende Modelle
mit vorhandenen und managebaren Datenmengen kreieren.
Niemand interessiert sich für deine Abhandlung, wenn deine Modelle zwar >99% accuracy erreichen (bei welchem Task auch immer), du dafür aber Milliarden an Trainingsdaten benötigst (da der Task dann trivial wird und solche Datenmengen in der Realität schlicht
unmöglich für jede Problemstellung sammelbar sind).
c2ash schrieb:
Das Computerprogramm hat keine Ahnung von dem was es wirklich beurteilt.
Siehe
AGI.
Mal ganz davon abgesehen, dass Babies, die fast alle Tiere, ..., auch keine konkrete Interpretation ihrer Umwelt haben, sondern lediglich lernen, welche Verhaltensweisen vorteilhaft sind.