Wenn ich was nicht weiß, kann ich kein Wissen herzaubern. Trotzdem muss ich handeln. Und dann ist man wie schon erwähnt vorsichtig. Vorsicht heißt langsam fahren, herantasten um klarere Informationen zu bekommen. Eben den Sensoren ermöglichen klarer zu "sehen". Oder eben den Fleck zu umfahren.e-Laurin schrieb:Der klingt nämlich nach: "Ich habe keine Ahnung, was da auf der Straße liegt, also ignoriere ich es und fahre weiter wie gehabt."
Das ist nicht das gleiche wie ignorieren.
Was steht in der Datenbank? Description Logic-Regeln/OWL?e-Laurin schrieb:Ui, das ist aber eine ganz schwierige Sache. Wem soll der Computer vertrauen: Seinen Sensoren oder seiner Datenbank? Diese Frage ist gar nicht so einfach zu beantworten.
Dafür hat man natürlich Metaregeln die das entscheiden. Die können wieder trainiert werden, je nach Kontext/Situation werden sich die Metaregeln unterscheiden. Einige Metaregeln führen zu komplexen Unterfragen die seitens der KI erforscht werden müssen und hohe Abstraktionsfähigkeit benötigen. Üblicherweise sind es aber Regel wie "Nimmt Sensor Testsignal richtig wahr und gab es vorher keine Anzeichen für Fehler, dann vertraue den Daten weiter obwohl sie ungewöhnlich sind". "Steht sehr viel auf dem Spiel, sei immer vorsichtig". Etc.
Welche Regeln sinnvoll sind muss man entweder anhand der Szenarien durchdenken oder trainieren lassen.
Es ist wirklich nicht so kompliziert vom theoretischen Standpunkt her, eher arbeitsaufwändig.
Ob man genau das mit BN oder probabilistischen ALC-Sprache (anscheinend im wesentlichen Description Logic) bin ich mir nicht so sicher. Ich dachte da eher an eine expliziten Ansatz und nicht einer der viele Sachen impliziert und fusioniert verwendet wo man nicht mehr einfach herausfinden kann was jetzt was beeinflusst hat, und was jetzt letztendlich der Grund für einer Priorisierung/Entscheidung war.e-Laurin schrieb:Genau das kann man mit Bayes'schen Netzen machen.
Ein semantisches Netz mit einer ALC-Sprache mit probabilistischer Erweiterung (mein Prof. hat zu letzterem seine Doktorarbeit geschrieben) wäre eine weitere Möglichkeit.
Das Problem bei solchen Ansätzen ist die Informationsexplosion der Beschreibungen/Modelle. Die sind selten kurz und knapp und vorallem nicht mehr nachvollziehbar. Es bleibt im wesentlichen eine black box und ein fragiler Mechanismus der mehr versteckt als er erklärt.
Z.B. um nicht selbst Auto fahren zu müssen Aber auch um den Menschen zu verstehen, Modelle zu entwickeln, zu übersetzen, Lernsystem zu implementieren.e-Laurin schrieb:Wenn du eine KI haben willst, die nur so gut wie der Mensch ist, wozu braucht man dann die KI? Man will doch ein System haben, das besser als der Mensch ist.
Wovon du sprichst hört sich eher wie theoretische Informatik, Verifikation, Beweisen von Grenzen etc. an. KI die in einer echten Welt situiert ist ist viel ungenauer. Der Punkt ist: man plant nicht endlos vorraus, dadurch reduziert sich das Problem immens und dann korrigiert man dynamisch mit neuen Daten. Extrapolation über größere Zeiträume mit dem Wunsch optimale Lösungen zu finden bringt wenig, da das ganze schnell divergiert. Alleine schon wegen mangelnder Sensorpräzision sind selbst exakte Modelle nur begrenzt anwendbar. Kennt man auch aus der Physik. Nur unter extrem kontrollierten Bedingungen funktioniert das. Daher, stetiges Nachmessen/Sensordaten verwenden ist unerlässlich wenn man in einer echten Welt agiert.
Zuletzt bearbeitet: