News Tesla Model S: Autopilot in tödlichen Unfall verwickelt

-THOR- schrieb:
Ständig ein griffbereit zu sein ist unglaublich anstrengend (sogar anstrengender als selbst zu fahren! ) . Denn man muss etwas überwachen, was erst mal selbst entscheidet. Kommt es zu einer Fehlerkennung im System, ist schon wertvolle Zeit verstrichen. Dann noch zu fordern der "Fahrer" soll korrigierend eingreifen können ist aus Mangel der Zeit NICHT möglich! ...

Du sagst es.
Einige bringen hier vergleiche mit Schiffen, Flugzeugen, oder auch Zügen - dummerweise hat man in allen mehr Zeit zu reagieren falls die Technik versagt (hat man diese aus irgendwelchen Gründen nicht, ist es sowieso zu spät).

Das werden einige nie kapieren bis sie es selbst erleben, denn niemand kann sich längere Zeit konzentrieren wenn er nicht am Geschehen teilnimmt. Einen Computer in Echtzeit zu überwachen ist dabei der grösste Witz.
 
Jethro schrieb:
Man sieht da öfters in den Videos das sein LKW wegen einer Autobahnbrücke bremst weil er die als Hindernis auf der Straße wahrnimmt, teilweise löst das auch bei ihm auf gerader Fahrbahn ohne jegliches Hindernis aus, da sieht man gut das diese Systeme wohl noch ihre Fehler haben.

Und an genau diesen "Kleinigkeiten" kiefeln die Hersteller seit Jahrzehnten. Fehlausläsungen gehören bei ALLEN diesen Assistenzsystemen leider zur Norm, nicht zur Ausnahme. Nicht ohne Grund steht bei meinem Leon in der Betriebsanleitung, dass man ACC "in gewissen Situationen dektivieren muss, um Gesetzesverstöße zu verhindern". Als Beispiel wird das Überholen eines LKW auf der rechten Spur in einer leichten Linkskurve auf der Autobahn genannt. Das ACC könnte plötzlich bremsen und einen Auffahrunfall verursachen. Toll, ne?

Ajtopper schrieb:
Bin ich der einzige hier der findet, das hier ganz grundsätlich was schiefläuft?
Beta-test im Staßenverkehr durch Endkunden aka iwelche Vollhonks (wenn man so die Videos von dem Typen anschaut, war der Unfall nur eine Frage der Zeit)... Und dann überall: "Armes Tesla/Musk/Fahrer".

Und wie. Betatest im Auto, noch dazu mit einem "mission critical" System. Dafür braucht es Mut und Ignoranz. Für mich sollte das genügen, um die Typgenehmigung für die Fahrzeuge zurück zu ziehen.

mfg
 
Zuletzt bearbeitet:
Wenn der Hänger schon so gross war das das Radar Ihn nicht erkannt weil er unten drunter gestrahlt hat oder als Brücke deklariert hat dann muss der Fahrer definitiv nicht nach Vorne geschaut haben um so ein Monströsen Hänger mit Zugmaschine die Ihn ja passiert hat zu übersehen.
-
Eine Fehlentscheidung eines Autopiloten der in den Gegenverkehr lenkt ist eine Schlagzeile. Aber das zu erwartend treten eines Bremspedals wenn man sieht das vor sich was anbahnt ist nix was was ein Reaktion erfordert die man nicht meistern kann. Man sieht das der Autopilot das nicht macht dann bremst man halt selber.
-
Andere Situation wäre das der Anhänger wie ein Kleinkind völlig unvorhergesehen zwischen 2 Bäumen hervorgesprungen ist. Dann wäre der Anhänger Schuld. Das der Autopilot nicht gebremst hat ist halt tragisch aber hier wurde laut Tesla bis zum Aufprall nicht reagiert. Heisst man hat hier wohl NICHT nach vorne geschaut. Auch in der letzten 1/1000sek (Abzüglich Reaktionszeit) wo man die Bremse aus Reflex getreten hätte nicht.
-
Schlussfolgerung:
Pilotiertes Fahren MUSS durch Augenscanner überwacht werden und bei Nichterkennung der Augen unterbrochen werden durch Anhalten des Fahrzeuges bis man wieder meint nach vorne gucken zu wollen/können. Gibt ja auch mal Medizinische Notfälle wenn der Autopilot Aktiv ist.
 
Don Kamillentee schrieb:
Totaler Schwachsinn, sorry!

Die Testfahrer müssen während der ganzen Fahrzeit die Hände am Steuer haben, um selber eingreifen zu können. Das hat er dann wohl nicht befolgt.

Wenn es stimmt, das diese Fahrzeuge schon 200Mio KM zurückgelegt haben - ohne tödlichen Vorfall (der vermutlich (!) auf menschliches Versagen zurückzuführen ist), dann ist Tesla da schon besser dran als die Statistik (in DE stirbt alle 95 Mio gefahrene KM ein Mensch).

Tante Google sagt da aber für DE etwas anderes. In Deutschland zugelassene PKW legten 2015 insgesamt 611 Mrd. km zurück und im gleichen Zeitraum gab es 3415 Verkehrstote. Das macht einen Verkehrstoten alle 175 Mio km. Da Menschen aber nicht nur bei Unfällen mit Pkw umkommen (LKW, Krad) und die Gesamtfahrleistung aller Kfz. 711 Mrd km betrug, ist man mit 208 Mio km schon beim "Tesla-Wert" angekommen. Berücksichtigt man nun noch, dass nicht an jedem Verkehrstoten der Kfz-Fahrer der Unfallverursacher gewesen sein wird, dann bleibt nur zu sagen:

Noch fahren Menschen am Steuer (und die fahren schon ziemlich schlecht) anscheinend besser als die Maschine. Zumindest verusachen sie nicht mehr Unfälle mit Todesfolge sondern weniger.
 
KainerM schrieb:
warum es noch keine genehmigten Systeme für Autonomes Fahren gibt. Tesla nützt eine Grauzone
Der Tesla AP ist aber kein System für Autonomes Fahren. Es ist ein Fahrerassistenzsystem.
Und andere Hersteller handhaben das ähnlich wie Tesla, dass man nach einiger Zeit gewarnt wird, falls man die Hände vom Lenkrad nimmt.
 
Und die Grauzone heißt, dass das System auch mal eine Viertelstunde ohne Input fährt wenn es möchte.

mfg
 
PongLenis schrieb:
Dein Vergleich hinkt.
Die richtige Analogie wäre, dass ihr dem Kunden eine Kamera anbietet, die zusätzlich zur Lichtschranke überwacht, ob jemand im Arbeitsbereich der Maschine ist. Aber da die Kamera neu ist, gebt ihr nur Garantie auf die gesetzlich vorgeschriebene Lichtschranke.

Dein Vergleich hinkt.
Tesla gibt hier eine offizielle Beta heraus.
Die Fahrer haben hier nicht absichtlich etwas falsch gemacht. Es ist aber leider ganz normal, das sich Menschen ablenken lassen oder unaufmerksam werden. So etwas muss man vorhersehen und man kann da nicht erwarten, dass alle Menschen perfekt sind und perfekt reagieren.
Auch soll das "Feature" ja den Kompfort erhöhen. Jeder normale Mensch geht bei einem Autopilot davon aus, das das Fahren dadurch einfacher wird und erwartet nicht das der eigentliche Aufwand steigt. Schließlich muss man so sogar noch mehr überwachen.
Nicht jeder ist studierter Ingenieur und kann solche Gefahren wirklich einschätzen.
Da geht man normalerweise davon aus, das ein Feature das vom Hersteller kommt auch sicher ist.
Vielleicht nicht perfekt, vielleicht etwas hakelig aber auf jeden Fall sicher.
 
Triversity schrieb:
Der Tesla AP ist aber kein System für Autonomes Fahren.
Es wird aber dem (potenziellen) Kunden eben das suggeriert.
Das System hat auch viel mehr Freiheiten als z.B. ACC.
Dazu noch Beta-Status und keine Kontrollsysteme (die Blickrichtung des Fahrers kann man seit gut 10 verlässlich überwachen).
 
Auch wenn das in Deutschland illegal ist ( man darf keine Menschenleben aufwiegen ) ist es doch so das wohl deutlich mehr Leben dadurch gerettet werden als dadurch sterben. Und egal wie gut alles kontrolliert wird hin und wieder wird es immer Tote geben. obs alle 100Mio Meilen sind oder 100 Milliarden.

Das Problem ist das man nach schuldigen sucht. Bisher gabs man einfach dem Fahrer selber und fertig. Bei Autonomen fahren startet dagegen eine richtige Hexenjagd.
 
Das System ist im Test und es wird ausdrücklich darauf hingewiesen, dass der Fahrer zu jedem Zeitpunkt eingreifen können muss.
Richtig krass, wie Tesla jetzt selbst von den öffentlich-rechtlichen Medien angegangen wird. Da sieht man, wie unsere rückständige Automobillobby immer noch eine riesige Macht hat.

Der Autopilot wird sich mittelfristig dennoch durchsetzen.
 
@philb0t:

Gerade eben beim ZDF wurde auch wieder von einem "selbstfahrenden Auto" gesprochen und nebenbei noch auf die Entwicklung des autonomen Fahrens aufmerksam gemacht. Zuletzt dann noch eine Sprecherin vom ADAC, die darauf hinweißt, dass es sich um ein teilautonomes Fahrzeug handelt. Der nicht-technikaffine Zuschauer kann das jetzt sicherlich auseinanderhalten. :freak:

Vor allem vermittelt es wieder ein Bild, das Elektroautos (wurde in den Anmoderation vom Claus Kleber natürlich wieder so aufgezogen) und auch das autonome Fahren gefährlich und böse ist. Ergo die Haltung, die man tagtäglich bezüglich Elektromobilität in den Medien pflegt.

Pjack schrieb:
Das ist natürlich aber schon besorgniserregend, wenn so ein Unfall entsteht, weil ein LKW anscheinend die falsche Farbe hat...
Haben die Autos denn wirklich nur optische Sensoren für die Erkennung von anderen Fahrzeugen? :eek:

Das ist doch nur eine herbeigezogene Erklärung, um zu verschleiern, dass es momentan keinen serienmäßigen Notbremsassistenten gibt, der über einer Geschwindigkeit von 45 km/h (selbst dann funktioniert es nicht immer, wie erhofft) wirklich immer rechtzeitig bremst. Vor 3 Jahren gab es einen Test vom ADAC zu den Notbremsassistenten, bei dem ausschließlich Volvo bestanden hatte. Tesla war damals noch gar nicht dabei.

Wenn man sich die Unfallstelle über Google Maps ansieht, dann gibt es dort keine Geschwindigkeitsbegrenzung, d.h. es waren 70 mph erlaubt, was der Unfallfahrer wahrscheinlich auch drauf hatte.
 
Zuletzt bearbeitet:
Winder schrieb:
So etwas muss man vorhersehen und man kann da nicht erwarten, dass alle Menschen perfekt sind und perfekt reagieren.

Doch das erwartet man wenn man ein Auto führt, (Von einer Maschine wird dies auch verlangt) vor allem wenn man ein System nutzt was noch eine Beta ist was auch so Komuniziert wurde, und er einen Film geguckt hat obwohl er die Hände am Steuer nebst, den Blick auf der Straße haben sollte, dann kann das System nichts dafür.

Es gibt Fehler die macht man nur einmal im Leben.
 
dermatu schrieb:
Beim einschalten des "Autopilots" erscheint sogar eine Warnung dass das eine Betafunktion ist und das man das Steuer nicht aus der Hand lassen soll.
Der Fahrer hatte es in der Hand :rolleyes:

edit:
SZ rettet !


860x860.jpg
Eine etwas schwierige Konstellation. Vermutlich keine Ampeln. Wenn der LKW abbiegt - also nicht wartet ist der Tesla vermutlich noch weit entfernt. Ergo hatte der Tesla auch gut Speed drauf.

Wenn beide Fahrzeuge ein autonomes, miteinander vernetztes System besessen hätten, dann wäre der Unfall nicht passiert - da der lkw den Abbiegewunsch bzw. das vorhaben an den Tesla gemeldet hätte.
Bliebe die Radartechnik. Deren Sensoren sind dazu in der Lage, sehr genau Entfernungen und Geschwindigkeiten anderer Fahrzeuge oder Objekte zu erkennen. Um auch bei hohen Geschwindigkeiten funktionieren zu können, blicken sie bis zu 250 Meter weit nach vorne - eigentlich weit genug, um eine Notbremsung oder ein Ausweichmanöver einzuleiten. Radarsensoren gelten als sehr zuverlässig. Sie haben allerdings den Nachteil, dass sie im Gegensatz zur Kamera Hindernisse nicht klassifizieren können. Sie erkennen nicht, ob beispielsweise ein Kind oder eine Mülltonne am Straßenrand steht. Wie Tesla-Chef Elon Musk in seinem Blog schreibt, könnte das Radar des Unfallautos den Lastwagen mit einer Schilderbrücke verwechselt und deshalb nicht gebremst haben. Ob das plausibel ist, untersucht nun die amerikanische Verkehrssicherheitsbehörde NHTSA.
so wird's gewesen sein.
Optik denkt es ist der Himmel, Radar denkt es ist ne Schilderbrücke -> ruhe in frieden
 
Zuletzt bearbeitet:
HamHeRo schrieb:
Tante Google sagt da aber für DE etwas anderes. In Deutschland zugelassene PKW legten 2015 insgesamt 611 Mrd. km zurück und im gleichen Zeitraum gab es 3415 Verkehrstote. Das macht einen Verkehrstoten alle 175 Mio km. Da Menschen aber nicht nur bei Unfällen mit Pkw umkommen (LKW, Krad) und die Gesamtfahrleistung aller Kfz. 711 Mrd km betrug, ist man mit 208 Mio km schon beim "Tesla-Wert" angekommen. Berücksichtigt man nun noch, dass nicht an jedem Verkehrstoten der Kfz-Fahrer der Unfallverursacher gewesen sein wird, dann bleibt nur zu sagen:

Noch fahren Menschen am Steuer (und die fahren schon ziemlich schlecht) anscheinend besser als die Maschine. Zumindest verusachen sie nicht mehr Unfälle mit Todesfolge sondern weniger.

Viel entscheidender ist doch das die Milchmädchenrechnung von Tesla nicht berücksichtigt, dass der "Autopilot" nur in ausgewählten Verkehrssituation funktioniert und zwar in solchen mit unterdurchschnittlichem Unfallrisiko pro gefahrenem km.

Die Unfallrate der menschlichen Fahrer bezieht sich aber auf sämtliche Verkehrsituationen, also auch solche die ein "Autopilot" stand heute noch gar nicht beherrscht.

Für einen seriösen Vergleich müsste der Autopilot sämtliche Situationen beherrschen mit der auch ein Mensch umgehen kann und muss, wir schalten uns ja nicht einfach ab und piepsen wenn die Sicht, Verkehrlage oder Straßenführung schlecht wird ... oder man schränkt den Vergleich eben auf die gefahrenen km ein die Mensch und Autopilot beherrschen.

Also hauptsächlich "Autobahn geradeaus bei guter Sicht und Fahrbahn / Streckenzustand", nur dann wären die Zahlen halt nicht so toll beeindruckend, was aus Marketingssicht natürlich doof ist.
 
drago-museweni schrieb:
Doch das erwartet man wenn man ein Auto führt, (Von einer Maschine wird dies auch verlangt) vor allem wenn man ein System nutzt was noch eine Beta ist was auch so Komuniziert wurde, und er einen Film geguckt hat obwohl er die Hände am Steuer nebst, den Blick auf der Straße haben sollte, dann kann das System nichts dafür.

Es gibt Fehler die macht man nur einmal im Leben.

Auch ein Maschinenführer kann mal abgelenkt sein.
Deshalb gibt es ja überhaupt Zäune, Lichtschranken, Trittmatten, ......
Wenn man davon ausgehen könnte, das der Maschinenführer perfekt wäre, dann bräuchte man nur einen einzigen Not-Aus Knopf beim Bediener und könnte sich den Rest sparen.

Und man kann sich doch nicht damit herausreden, das es noch Beta ist!? Nicht alle Sachen kann man halb fertig auf den Markt werfen.
 
Auch ein Maschinenführer kann mal abgelenkt sein.
Richtig was ist wenn du im Straßenverkehr abgelenkt bist bauste auch einen Unfall, also musste auf die Straße kucken was bei dem Assistenten auch von nöten gewesen wäre.

Da es bei Tesla immer wieder Updates für Funktionen gibt, und diese immer verbessert werden wo ist da das Problem das man diese testen kann,(Ist ja nicht so als würde das Auto dann abgehen wie Steven Kings Christine) wenn man sich an die Regeln von Tesla hält wäre nichts passiert, wenn der Assi ein Update erhält und dann ohne Hände bediehnt werden kann ist das Ganze wieder was anderes.

Das Ganze erinnert mich an den Menschen der den Tempomat anmachte im Wohnmobil und dann hinten Kaffe zu kochen und sich dann wunderte das das Auto verunfallte.
 
Zuletzt bearbeitet:
dermatu schrieb:
Sehr schade aber selbst Schuld! Beim einschalten des "Autopilots" erscheint sogar eine Warnung dass das eine Betafunktion ist und das man das Steuer nicht aus der Hand lassen soll.

Hoffe Tesla kommt gut aus der Sache raus. Wird Zeit das sich auf dem Automobilmarkt was tut und ohne Tesla gäb es die aktuelle Elektroautowelle sicherlich nicht.

Sehe ich genauso.
Schade, dass daraus negative Presse gegen Tesla gemacht wird. Man könnte auch mal erwähnen, dass die Akkus beim Unfall scheinbar nicht in einem Hölleninferno in Flammen aufgegangen sind, wie es von Skeptikern ja immer wieder prognostiziert wird.

Wer am Straßenverkehr teilnimmt sollte damit rechnen, dass immer was passieren kann. Zumal der Fahrer ja nun extra noch darauf hingewiesen wurde, dass die Funktionen nicht zu 100% den Fahrer ersetzen und er deshalb die Hände nicht vom Lenkrad nehmen darf.
 
Wie aber in diesem Bereich sehr schön zu lesen ist, dass das Auto die weiße Farbe als Himmel interpretiert hatte. Das heißt für mich, dass keine anderen Sensoren aktiv oder vorhanden waren um diese offensichtliche Fehleinschätzung zu verhindern.

Wenn zusätzlich ein Abstandssensor(en) oder 3D Scanner hätten eine zusätzliche Sicherheit geboten! Selbst bei der amerikanischen Bauweise hätte diese Sensoren bei genügend Reichweite dieses Fahrzeug rechtzeitig erkennen können!

Hier geht es vermutlich um fehlende Redundanz!
 
cruse schrieb:
Der Fahrer hatte es in der Hand :rolleyes:

Die Erklärung mit dem weißen LKW find ich ebenfalls mehr als fragwürdig, ich gehe mal stark von aus das das System dahinter radarbasierend ist. Bei Daimler ist es das z.b.

Die Sensoren haben anscheinend Probleme mit Anhängern, die nur eine Achse in der Mitte haben und dessen Hinterteil recht hoch hängt. (Die Sensoren scheinen recht tief angebracht zu sein)

Die Kamera ist da dann die einzig verbleibende Alternative.


Das ist Tesla aber schon länger bekannt und sie weisen darauf in ihren AGBs hin. So einfach ist das, einfach einen Satz in die AGBs schreiben und schon ist man fein raus. *Vorsicht Ironie
 
Tja wer nicht weiß welche Funktionen sein Auto, und dessen Ausstattung hat vor allem Sicherheitsrelevante was soll man dazu noch sagen.
 
Zurück
Oben