DenMCX schrieb:
@Schinken42 gesprochen wie ein wahrer Informatiker ohne jegliches Verständnis für Ethik und Empathie
slowclap
Du missverstehst. Ich versuche ja gerade zu erklären, warum Ethik hierbei keine Rolle spielt. Algorithmen müssen eben keine ethischen Dilemma lösen, das ist ja mein Punkt.
DenMCX schrieb:
D.h. aus deiner Sicht wird / sollte so programmiert werden, dass die KI nach "kalten" Parametern entscheidet, korrekt?
Ich weiss nicht was "kalte Parameter" sein sollen, die Terminologie hast du gerade erfunden.
Und mit meiner Sicht hat das wenig zu tun, so funktionieren Algorithmen nunmal. Kein Algorithmus trifft echte Entscheidungen, es werden nur Wahrscheinlichkeiten berechnet.
Was ich oder du wollen ist dafür unerheblich, das ist so.
DenMCX schrieb:
Es gibt genug Unfall-Szenarien, in denen Personenschaden unausweichlich ist. Entweder der Insasse oder andere Personen.
Daher ist dein "Prio 1 - kein Personenschaden" zwar löblich, aber oft genug realitätsfern. Also muss entschieden werden, wessen "hops-gehen" man eher in Kauf nimmt.
Deswegen ist es eine Priorität und keine Regel. Es muss eben nichts entschieden werden.
Es gibt eindeutig eine Option mit den besten Chancen darauf Personenschaden zu vermeiden.
DenMCX schrieb:
Und das die berechneten Ergebnisse der Unfallausgänge sogut wie nie gleich sein werden ist auch klar.
Immerhin das.
DenMCX schrieb:
Aber lässt du dann stur die KI entscheiden, auch, wenn die Ergebnisse sich im Promille-Bereich unterschieden?
Sprich, Ergebnis aus der Berechnung ergibt:
Es besteht eine 0,03% höher Wahrscheinlichkeit, dass der Unfallverlauf beim einlenken Richtung Kind "besser" ist?
Ja klar. Was denn sonst? Soll der Algorithmus lieber die Option mit der schlechteren Wahrscheinlichkeit nehmen?
Übrigens, die Info "Kind", "Opa" etc. wird ja gar nicht erfasst. Dafür bräuchte das Auto auch mehr Sensoren und dem Algorithmus müsste noch alles mögliche einprogrammiert werden, um Kinder, Hunde, Puppen, Luftballons etc auch sicher unterscheiden zu können. Das ist utopisch.
Wenn der Algorithmus aber gar nicht unterscheiden kann zwischen verschiedenen Menschen, muss er natürlich auch nie zwischen Menschen entscheiden.
Diese ethischen Probleme entstehen also nur, weil Menschen wie du das Problem falsch verstehen.
DenMCX schrieb:
Daher ist das banale Beispiel "1 Kind oder 10 Opas" definitiv relevant...
Es tritt nicht auf. Der Algorithmus weiss nichts von Kindern oder Opas und würde man nach deiner Logik anfangen es ihm beizubringen damit er unterscheiden kann, dann erst ergeben sich die ethischen Probleme.
Dann muss nämlich alles, wirklich alles und jede Möglichkeit vorher bedacht und von einem Menschen entschieden werden. Da man dann zwangsläufig in Dilemmata läuft und der Code dafür unendlich groß wäre, ist das schlicht keine Option. Es würde das Problem ja auch nicht lösen, sondern erst erschaffen.
Per Wahrscheinlichkeit zu entscheiden ist eindeutig, objektiv und umsetzbar. Per Moral ist nichts davon. Weder liefert der Ansatz eindeutige Antworten, noch sind diese objektiv oder umsetzbar.
DenMCX schrieb:
Mal davon ab, dass das bei deiner Herangehensweise einen gigantischen medialen Aufschrei geben würde...
Den gibt es nicht, genau so funktioniert autonomes Fahren nämlich.
Auch das missverstehst du. Ich plädiere für gar nichts, ich erkläre die Technik wie sie ist.
Da es auch keine Option ist, etwas anders zu machen Brauch ich für gar nichts plädieren.
Ob man autonomes Fahren unter diesen Umständen trotzdem zulassen sollte, ist übrigens eine ganz andere Frage, zu der ich mich gar nicht geäußert habe.
DenMCX schrieb:
bei dem Klagenhagel würde doch kein Auge mehr trocken bleiben.
Was denkst du, wie groß der mediale Aufschrei und der Klagenhagel wäre, würde sich herausstellen, dass irgendjemand einen Algorithmus geschrieben hat, der tatsächlich entscheidet, dass das Kind mehr wert ist als die Opas und unabhäbhängig vom einzig objektiven Wert, der Wahrscheinlichkeit, die Opas überfährt? Niemand kann oder will so ein Programm schreiben.
Zu guter Letzt noch zum Nachdenken: Du scheinst auf die perfekte Lösung aus zu sein, ein Algorithmus der alle Dilemma löst und sich immer perfekt entscheidet.
Aber der Algorithmus muss doch nur genauso gut oder besser sein als der Mensch. Der Mensch trifft auch falsche Entscheidungen, gerade im Verkehr. Da tolerieren wir das, als unvermeidlichen Risiko.
Wenn dieses Risiko durch Algorithmen nicht steigt oder sogar sinkt, reicht das doch.
Und was die moralischen Dilemma angeht: Die heißen nicht umsonst so. Sie sind unlösbar, das liegt in ihrer Natur. Es wird also nie Mensch oder Maschine geben, die diese auflösen können.