@ Handysurfer
Trotzdem gliedern die Unternehmen den Service günstig und damit oft schlecht gerne in Foren mit Produktunterstützung und Moderation aus.
Natürlich ist es auch von dir im aus dem Kontext gerissenen Kommentar der Fall, das der Nutzer mit einer ungenauen Problembeschreibung erstmal das Problem definieren muss.
Es liegt aber auch in der Schulbildung begründet, wenn ich dein Beispiel nehme. Um zum Beispiel Aufsätze zu schreiben muss man koordiniert vorgehen. Ein Thema wählen was man durcherlernet Grundlagen befähigt ist zu lösen, recherchieren und seinen Aufsatz strukturiert, verständlich zu gliedern. Je komplexer es dann wird, desto genauer muss man arbeiten. Ist auch bei mir nicht immer der Fall, was zeit mit sich bringt. Problematisch wird es, wenn man vermehrt mit Menschen zu tun bekommt, die den Aufsatz mit der Überschrift beenden, weil es zu nichts weiter reicht. Dann werden gegliederte Sätze und Inhalte vielleicht nicht mal verstanden.
Das wird zusätzlich durch rein nutzerorientierte Produkte mit Kompetenzerleichterung gefördert.
Ich wollte als Beispiel ein Buch im Alien Sci-Fi Bereich schreiben, das Thema Prometheus mit Feinschliff als Horror erneut aufgreifen, weil Prometheus von vorne bis hinten nicht mal einfache logische, wissenschaftliche Grundlagen bietet. Selbst beim Kreuz hat man ein religiöses Erlösungszeichen des lebendiges Gottes genommen an das die Protagonistin glaubt, letztlich aber doch nur an Konstrukteure. Aber um nicht komplett auf den Intelligenzklamauk von Herrn Lindelof udn seinen Mitschreibern einzugehen, war schon nach vier Seiten Schreiben der Anspruch bei Gravitationsfragen in glaubwürdigen Zusammenhängen eine monumentale Rechercheaufgabe, die mich in die Stadtbücherei führen und zum Lernen veranlassen würde.
Ich habe leider nur keine Privatbibliothek und die Geldmittel für solche Bücher, über die jeder bessere Buchautor neben dem PC verfügt.
Ein Buch zu schreiben, sei es Phantasiegeschichten verlangt nach Bildung, einer guten Geschichte und verständlichen Zusammenhängen um eine lesenswerte Geschichte zu schreiben.
So wird natürlich die Programmierung von KI, die klares Verständis und Bezug benötigt natürlich begreiflich komplex und nicht in 5 Jahren für die nächste keynote fertig programmierbar,
Wir sehen das ja bei der Automatisation von Autos, wo man grundlegende Probleme der Sensorkommunikation zur Außenwelt lösen muss und die automatische Fahrdiensttechnik eine lange Geschichte hat. Die Einfachste sieht man schienengebunden mit der Achterbahn.
Letztens gab es noch einen Videobericht über einen Tesla, der natürlich über Radar vorauschauend vor einem Unfall der vorausfahrenden Autos durch Auffahren gewarnt hat. Also sogar die Entfernungsmessung der anderen Autos zueinander analysiert hat.
Das ist natürlich durch die Kombination aus Soft und Hardware intelligent gelöst. Leider löst es nicht das Problem, wenn der Mensch auf Sicht zum eigenen Vodermann auffährt und einen Unfall mit Nachfolgeunfällen provoziert. So hat der nachfolgende Tesla Fahrer trotzdem den Sicherheitsabstand zum Vodermann eingehalten, was das Risiko bei der Unfallbeteiligung auch ohne intelligenten Fahrassistenten gesenkt hätte. Wer selbst klug ist udn kluge NEtscheidungen trifft, braucht daher keine KI.
Da selbst Microsoft sein RTOS CE stiefmütterlich behandelt, fällt KI trotzdem flach.
Im Fall von maschinellen Lernen muss, und da wiederhole ich mich, die KI in der Lage sein ihre Handlungen in der Wirkung auch zu erkennen und reflektieren. Ein Gewissen haben. Es reicht nicht auf bekannte Fragen Antwortsätze zu programmieren, da schon das simple Bewusstsein, nehmen wie das eines gesunden Tieres eine in sich verständliche Eingabe-,und Ausgabeverarbeitung hat, die ein Mensch nachvollziehen kann. Als Beispiel die Abgewöhnung vom Beißimpuls von Welpen, in dem das beissende Tier durch Eigenerfahrung das starke Beißen durch nicht tölerierbare Schmerzrückantwort mit schmerzlichen Ausdruck abgewöhnt bekommt. Beißen kein Spiel ist.
In Kommentarfunktionen funktiomniert die Verarbeitung ohne weitere Wahrnehungssenosren völlig anders, weil Gefühle und aus dem Kontext gerissene Sätze als zwei Beispiele missverstanden werden können.
-Die KI muss den Text ganzheitlich verstehen.
-In Absätzen, Zitatwahl und sogar auf der Ebene der Wortwahl, selbst bei Zitatkommentaren.
-Smileys erkennen, Ironie, Sarkasmus und deren Gefühlswerte interpretieren, die beim reinen Schreiben anders interpretiert werden müssen.
-Ich liebe dich.
Allein diese so klaren Aussage ist eigenständig klar verständlich, aber ohne Kontext emotional auf die schreibende und bezogene Person nicht einzuordnen.
Das Verständnis steigt dann noch, wenn die KI sich an einen Nutzer erinnern muss und durch viele Kommentare seine Persönlichkeit erkennt.
Letztlich kann ein Kommentarneuling, wie schon anfangs beschrieben auch nur ein inhaltlich ungenaues Problem kommunizieren und die Ki muss nun entscheiden, ob sie gefrustet trollt, das Thema der Moderation meldet oder auf den Nutzer eingeht. Treten im Forum vermehrt solche Anfragen auf, könnte die Ki auch nur abwarten, bis der Fragesteller mal mit einem weiteren Hallo antwortet, was auf ein tatsächliche Lösungsanfrage hinaus läuft, aber wie beim Telefonsupport mit der Problemstellung:"Hilfe, ich habe ein Problem", abläuft. Dieser Satz ist schon emotional gebrandmarkt wer in äußert, kann letztlich auch nur tatsächlich ein erster Impuls bei Ratlosigkeit sein.
Für so viele Beispiele, Möglichkeiten habe ich soviel geschrieben. Das könnte man auch komprimiert schreiben.