Black_Eagle schrieb:
@ZeT und JenZor:
Genau!
Es gibt vieles (mehr) zu bedenken.
Wie das Auto mit Situationen umgeht.
Beispielsweise fährt das Auto auf eine Menschenmenge zu. Hangböschung links, Fußweg mit einem kleinen Kind rechts. Bremsen nicht mehr möglich. Was jetzt?
a) In die Menge Fahren
b) Nach Rechts ausweichen und das eine Kind überfahren
c) Nach Links ausweichen und die Böschung herunterstürzen (damit die Insassen hopps gehen lassen)
Ein Computer ist nicht Intelligent. So etwas muss irgendwie einprogrammiert werden. Und jemand muss sowas entscheiden..
Sehr philosophische Fragen die aufkommen.
Bei diesen recht konstruierten Situationen, stellt sich aber auch die Frage, wie lange man als menschlicher Fahrer darüber nachsinnen würde, für welche Option man sich entscheidet. Ganz abgesehen davon: Wann gibt es Situationen, bei der eine größere Menschenmenge ordnungsgemäß eine Straße überqueren dürfte, die sehr schlecht einzusehen ist und man aber gleichzeitig so schnell fahren darf und kein Fußgängerüberweg angekündigt wird, dass man nicht mehr bremsen könnte... Und wenn es solch eine Situation gibt, wäre es ein Fehler in der Verkehrsplanung.
Ich stimme zwar zu, dass die Haftungsfrage natürlich wichtig ist. Autonomes Fahren aber nur wegen der Haftung und "Der Computer Entscheidet über Leben und Tod" zu verteufeln finde ich nicht richtig. Zum Einen vertraut man doch schon viele Bereiche seines Lebens Computern - oder Maschinen - an. Hey, selbst in herkömmlichen Autos verlässt man sich darauf, dass die Bremsen funktionieren. Und sei es nur um ganz normal an einer Ampel stehen zu bleiben, mal ganz abseits von Unfallszenarien. Leute verlassen sich auch darauf, dass wenn man den Arm in eine sich schließende Bus/Bahn Tür hält, diese stoppt und nicht den Arm zerdrückt oder auch einfach nur beim Abfahren fest hält. Das ist genauso eine Entscheidung, die von irgend einem Mikroprozessor erledigt wird. Vielmehr sollte man die Chancen sehen, viele gefährliche Situationen durch menschliches Versagen zu vermeiden. Wie oft wäre ich schon bei der Überquerung einer Kreuzung auf dem Rad fast umgesäbelt worden, nur weil der Gegenüber "vergessen" hat seinen linken Blinker zu setzen, ich daraufhin zu gefahren bin und der Gegenüber den winzigen Radfahrer eben mal übersehen hat...
Ebenso albern wäre es zu erwarten, dass der Fahrer bei einer autonomen Fahrt ständig aufmerksam ist, wo es doch fast nichts zu tun gibt. Dann müsste man wie beim ICE Totmannschalter einbauen... Und er müsste die Hände immer am Lenker, die Füße immer an den Pedalen haben... Dann könnte man ja auch gleich selbst fahren. Vor allem: woran mache ich es fest, ob jetzt wirklich die Zeit zum Eingreifen gekommen ist oder die Elektronik, mit ihrer besseren Datenlage, nicht doch eine bessere Entscheidung trifft? Woran merke ich also, dass der Algorythmus gerade versagt hat?
Vielleicht wird die Haftungsfrage auch erst mal nur schrittweise geklärt. Man könnte z.B. für Autobahnfahrten den Fahrer aus der Haftung nehmen, während er in der Stadt selbst verantworlich ist / selbst fahren MUSS, bis das Vertrauen in die Technik da ist bzw. auch die Technik selbst weiter voran geschritten ist. Schließlich sollte man auch nicht vergessen, dass die Technologie zwar einen sehr guten Stand erreicht hat, aber sicherlich immer noch Potential für Verbesserungen besteht. Ein Traum wäre es schon. Vielleicht wäre der Besitz eines PKWs dann auch nicht mehr zwingend notwendig. Wenn man auf der Arbeit angekommen ist, könnte man seinen Wagen ja als Taxi durch die Stadt fahren lassen um andere zu transportieren. So würde man einen PKW dann auch zeiteffizient nutzen und nicht nur Parkplätze 20 Std am Tag belegen. Quasi Carsharing+