Binalog schrieb:
Darum ging es aber in meinem Beitrag, deshalb habe ich auch von der Gesellschaft gesprochen und nicht von Gerichten.
Ok, das war mir nicht klar. Ja "die Gesellschaft" oder Einzelne aus der Gesellschaft sucht halt für alles einen "Schuldigen". Egal ob es einen solchen gibt oder nicht. Macht das Leben einfacher.
Das wird aber, wie ich das bereits anführte, irrelevant sein für die Programmierung und den Einsatz von vollautonomen Fahrsystemen. Die einzige Konsequenz daraus wird sein, falls es deutlich unterschiedlich effektive/funktionierende Systeme geben sollte, dass ein Hersteller mehr, der andere weniger (oder irgendwann gar keine) verkaufen wird. Aber auch da werden einzelne Unfälle auf den Markt insgesamt keine nennenswerten Auswirkung haben.
Binalog schrieb:
Ungeachtet dessen halte ich persönlich es bis auf Weiteres für ausgeschlossen, dass es staatlich geprüfte/abgesegnete "Überfahrkriterien" geben wird.
Es wird niemals so etwas wie "Überfahrkriterien" geben. Weil sowas nicht notwendig ist.
Oder wurde dir in der Fahrschule beigebracht, wen du überfahren sollst und wen nicht?!
Du sollst im besten Fall überhaupt niemanden überfahren. Und das wirst du auch dein Leben lang als Autofahrer versuchen. Und eine KI die ein Fahrzeug lenkt wird auch genau darauf programmiert und "angelernt" werden.
Binalog schrieb:
Nachtrag:
https://de.wikipedia.org/wiki/Augenblicksversagen
Dieses wird m. E. weder die Gesellschaft noch ein Gericht einer KI zubilligen.
Das muss man einer KI auch nicht zubilligen! Was ist denn das für eine Herangehensweise? "Augenblicksversagen" ist eine menschliche Eigenschaft. Ein autonomes System kann dies NICHT!
Zitat:
"wenn ein ansonsten konzentriert agierender Mensch für eine sehr kurze Zeitspanne die im Verkehr erforderliche Sorgfalt unwillentlich außer Acht lässt."
Wie glaubst du, sollte so etwas auf eine KI zutreffen? Eine KI wird die "Sorgfalt", also das funktionieren innerhalb der ihr einprogrammierten Parameter, zu jedem Zeitpunkt einer Fahrt einhalten.
flug_rosetto schrieb:
es geht mir doch um die diskussion, wenn so ein system eine entscheidung treffen muss. also muss der rentner dran glauben, aber nicht das kind!
Eine KI wird NIEMALS eine solche Entscheidung treffen. Dazu ist sie gar nicht in der Lage. Und eine solche Entscheidung wird ihr auch nicht einprogrammiert. Eine KI wird entsprechend ihrer Vorgaben versuchen eine Unfall zu vermeiden. Punkt
Alleine schon dieser völlig konstruierte Fall, dass auf einer Seite ein Kind, auf der anderen ein Rentner läuft (oder ähnliches) und irgendwer/eine KI sich entscheiden müsste/würde welchen sie davon überfährt ist völlig aus der Luft gegriffen. Mit einer solchen Situation wird im realen Leben so ziemlich überhaupt niemand konfrontiert werden. Und selbst wenn, würde eine hinreichend sicher funktionierende KI, diese "besser" bewältigen, als ein menschlicher Fahrer. Und für diese Beurteilung ist irrelevant wer überfahren wird und wer nicht! Für diese Beurteilung wird einzig relevant sein, dass die KI statistisch mehr Unfälle vermeiden wird (vorher wird sie menschliche Fahrer so oder so nicht ersetzen, weil es keinen positiven Effekt hätte).