0815burner
Commander
- Registriert
- Nov. 2006
- Beiträge
- 2.654
Problem: Bei Menschen sind Fehler immer individuell und die Reaktion ist spontan und zufällig. Eine KI die diesen Fehler macht, wird ihn im nächsten Fall wieder tun, da "nur" eine Berechnung ausgeführt wurde.zambolic schrieb:Ich würde im Übnringen nie soweit gehen und von der Software 100% Perfektion erwarten.
Das heißt dann, wie bei Flugzeugunfällen, Flottenstillstand bis die Ursache gefunden ist. Sehr praktikabel ist das nicht.
Diese Berechnungen sind juristisch wie moralisch nicht diskutabel. Genauso wenig, wie ehemalige Innenminister entführte Flugzeuge "mit Kurs Frankfurt" auf Verdacht abschießen durften. Wenn bei allen Szenarien für die Fahrzeuginsassen die gleiche Gefährdung gilt (kein anwendbarer Selbstschutz), dann müsste das schon eine Zufallsentscheidung sein, ein Reflex. Ähnlich wie es ein Mensch täte. Stell ich mir schwierig umsetzbar vor. Ein wirklicher Zufallsgenerator ist ein bekanntes IT Problem.Tycoon Force schrieb:Das zeigt das du von KI im Vergleich zum Mensch nicht viel Ahnung hast.
Wenn dann sind Programmierfehler (also auch wieder menschlich) vorhanden, alles andere ist perfekter als es der Mensch je sein könnte. Die KI wird sogar bewusst entscheiden wer bei einem Unfall sterben wird und Wahrscheinlichkeiten berechnen.
Ergo, ein Auto müsste also soviel besser sein, das es niemals in eine solche Situation kommt. Läuft dann auf Schrittgeschwindigkeit raus, auch unrealistisch.
Ist also noch einiges zu klären vor dem großen OTA Update..
Zuletzt bearbeitet: