[wege]mini schrieb:
Niemand mit Verstand würde etwas bauen, was um den Faktor 2 besser ist als der Mensch und dann die Verantwortung dafür mit allen Risiken und Konsequenzen übernehmen.
Risiko 0 ist nicht möglich. Nach dieser Logik dürften auch Menschen nicht fahren, denn wir machen erwiesener Maßen laufend Fehler. Für die seltenen Fälle, in denen etwas passiert, gibt es Versicherungen.
Wenn ein automatisches System nachweislich doppelt so sicher fährt, wie ein durchschnittlicher Mensch, wird das die halbe Versicherungsprämie bedeuten.
Wieso sollte das nicht möglich sein?
[wege]mini schrieb:
Die Wahrscheinlichkeit von Unfällen ist keine Option, wenn man mit (vielen) Menschenleben spielt und am Ende auch noch haftet.
Wie gesagt: Dann dürften auch Menschen nicht fahren, weil menschliche Fahrer laufend tödliche Unfälle produzieren.
Was ist der Unterschied? Dass es beim menschlichen Unfall-Verursacher ein Gesicht gibt, auf das man zeigen und das man verklagen kann? Weil nur ein Mensch persönliche Schuld auf sich laden darf? Das ist keine schlüssige Argumentation.
Klar - die Haftungsfrage muss geklärt werden, bevor so ein System eine Zulassung erhält. Man muss daraus aber nicht krampfhaft ein Problem konstruieren.
Es gibt auch die Argumentation mit dem Trolley-Problem: Was ist, wenn die Maschine vor einer "Ich oder der Andere"-Entscheidung steht, und somit zwischen Leben und Tod entscheiden muss? Wer "darf" das algorithmisch festlegen?
Die Sache ist: Diese Frage ist in höchstem Maße konstruiert. Denn wenn die Maschine so weit fortgeschritten ist, dass sie quasi in Nullzeit mit extremer Sicherheit festlegen kann, welchen Ausgang welche Aktion nach sich zieht, dann ist sie auch weit genug fortgeschritten, um die Situation gar nicht erst im Vorfeld aufkommen zu lassen. Ich bezweifle, ob das jemals so weit sein wird.
Daher gilt in solchen Situationen, übertragen auf die Realität: Es ist gemäß Chaos-Theorie nicht genau vorherzusagen, wie sich die Bremsen exakt verhalten wird, welchen Einfluss die Beschaffenheit der Fahrbahn hat, welche Reaktionen sich bei den anderen Unfall-Teilnehmern noch unmittelbar vor dem Ereignis abspielen werden, und wie das alles zusammen wirken wird. Von daher: Ausweichen und bremsen - so wie es auch ein Mensch (nach der Schrecksekunde, und daher vmtl. eh zu spät) tun würde.
Was man bereits heute kennt: Manche Systeme (u.a. auch Tesla, selbst bei "offiziell" nicht aktiviertem Autopilot) verhindern die Kollision mit einem Fußgänger, wenn dieser plötzlich vor dem Auto auftaucht, z.B. weil er unachtsam zwischen zwei am Straßenrand geparkten Fahrzeugen auf die Fahrbahn tritt. Gerade in dem Video, das ich vorhin verlinkt habe, sieht man etliche solche Situationen. Da bremst das Auto dann abrupt und teilweise sehr hart. Was ist, wenn nun aber hinter dem Auto zwei Kinder radeln, und das eine sitzt auf der Lenkstange des Fahrrads? Rumpeln die auf den Tesla, und verletzt sich das Kind schlimm/tödlich? Müsste demnach der Notbrems-Assistent nicht auch bereits jetzt verboten sein?
Solange Menschen am Straßenverkehr teilnehmen, wird es immer unklare Situationen geben. Und wenn Maschinen dafür sorgen können, dass sich die Unfallzahlen um den Faktor 2 verringern -- wäre es dann nicht unmoralisch, diese Verbesserung durch die Technik
zu verbieten?