News Consumer Reports: Tesla Autopilot lasse sich ohne Fahrer zu einfach austricksen

iSight2TheBlind schrieb:
Allerdings nennt Tesla den Modus für krasse Beschleunigung auch wirklich Ludicrous Mode.

Danke, wieder was gelernt. :)

BTICronox schrieb:
Die Unfälle sind DURCH die Verwendung des Autopilots entstanden und waren absolut vermeidbar. Das System war oft schlicht zu blöd, Situationen richtig zu erkennen, die für den Menschen geradezu lächerlich einfach zu erkennen gewesen wären.

Da fällt mir immer wieder diese Situation ein. Davon gibt es dutzende Videos auf YT, da ist nichts gestellt oder provoziert, das ist nur eins von vielen Beispielen. Eigentlich will der jeweilige Tesla Driver da nur zeigen, WIE toll sein Auto alleine fährt, wird dann aber von der Wirklichkeit wieder eingeholt. Kein "normaler" Fahrer wäre da straight geradeaus in die Blöcke geknallt.

Kizna von Löwe schrieb:
Tesla weist darauf hin, das man bei der Benutzung des Autopiloten auf den Verkehr zu achten hat und eingreifen muss wenn es die Situation bedingt. Und es wird auch Explizit drauf hingewiesen das es ein Assistenzsystem ist.

Schon, aber wenn das Assistenzsystem nicht mal die temporäre Änderung der Straßenführung durch massive Betonblöcke erkennt, was erkennt der dann überhaupt?
 
  • Gefällt mir
Reaktionen: chartmix, BVZTIII und iSight2TheBlind
crogge schrieb:
Würde ein Tier, z. B. eine Katze das System ggf. austricksen? Eine Fellerkennungs-Diode sollte zusätzlich installiert werden um Tiere auszuschließen. Die Tiere fahren ansonsten selbständig zu Fressnapf wenn es endlich 20% auf Tiernahrung gibt und verursachen dabei möglicherweise einen Unfall.
Der Radar Sensor kann der gesamte Sitz scannen und sobald der Herzschlag nicht lang in die normale Höhe erkannt ist, kann ein Fehler zeigen und das Auto sollte stoppen. Es ist auch kompliziert ein Tier in eine Bestimmte Position sitzen lassen während des Fahrt.
Ergänzung ()

Foxley schrieb:
Fingersensoren ins Lenkrad dann is vorbei mit Leichtsinn.
Wegen Datenschutz verboten...
 
BTICronox schrieb:
Ist es zu viel verlangt, aus dieser Aussage schlusszufolgern? Elon meint, FSD wäre nicht gebucht und Basic AP nicht aktiviert, weil Basic AP dafür Straßenbeläge erkennen müsse, die auf dieser Straße nicht existieren... offensichtlich fuhr das Auto aber ohne Fahrer.
Naja, was ist "offensichtlich". Bekannter Fakt ist, dass zwei Leichen gefunden wurden, und keine davon auf dem Fahrersitz. Das kann durchaus bedeuten, dass auch während der Fahrt niemand auf dem Fahrersitz saß.
Alternative Möglichkeit: Nach dem Crash war der Fahrer noch bei Bewusstsein, versuchte vergeblich seine (verzogene?) Tür zu öffnen, kletterte auf die Beifahrerseite, um es dort zu versuchen, und wurde dann erst ohnmächtig. Spekulation, aber nicht ganz abwegig.
BTICronox schrieb:
Und wie drückt man das Gaspedal, ohne auf dem Fahrersitz zu sitzen? Stein druff, klar. Aber der Unfall ereignete sich nicht auf einer Geraden Autobahn, sondern im Wald. Außerdem wollte der Besitzer laut Zeugenaussagen dem anderen die autonomen Fähigkeiten vorführen, so seine Aussagen kurz vor dem Tod.
Der Unfall ereignete sich etwas über 100 Meter entfernt vom Anwesen des Tesla-Besitzers, an dem die Fahrt begann.
Es ist durchaus möglich, ein Gaspedal mit der Hand oder dem Fuß zu drücken, wenn man sich auf dem Beifahrersitz nach links beugt. Die Mittelkonsole im Model S ist (je nach Modelljahr) recht niedrig. Dieses Verhalten würde durchaus zu dem Plan, das autonome Fahren vorzuführen, passen. Ich sage aber natürlich nicht, dass es die einzige oder definitive Erklärung ist.
BTICronox schrieb:
Immerhin da sind wir uns einig. Bei z. B. Mercedes oder Audi reicht der "Finger am Lenkrad" Trick aber nicht aus. Auch "wache Augen" müssen erkannt werden, sonst vollzieht das Auto eine Notbremse.
Auch bei anderen Herstellern kann man tricksen, und es ist nicht komplizierter. Beispiel:

Was die Fahrerüberwachung per Kamera bei Tesla angeht: Derzeit verzichten die absichtlich drauf. Was jedoch bereits im Code des Tesla-OS schlummert und derzeit inaktiv ist, hat der bekannte Tesla-Hacker GreenTheOnly kürzlich gezeigt:
https://twitter.com/greentheonly/status/1379928419136339969

Das ist eine sehr detaillierte, KI-unterstütze Interpretation der Aufmerksamkeit des Fahrers.
Das Problem an der Geschichte ist, dass in im Model S (und X) keine Fahrer-Kamera verbaut ist. Vermutlich kommt die aber in absehbarer Zeit. Die leidige Diskussion über den texanischen Unfall dürfte Teslas Vorgehen in dieser Hinsicht beschleunigen. Ich persönlich fände das gut. Das Datenschutz-Thema bekommt man dabei sicher auch in den Griff; schaffen die anderen Hersteller ja auch. Eigentlich wird die Info ja nur lokal im Auto zur Echtzeit-Auswertung benötigt.
BTICronox schrieb:
https://upload.wikimedia.org/wikipe...2_Socket_de.svg/440px-Type2_Socket_de.svg.png

DC Mid steckt im Model S. 500V * 140A = 70kW. Maximale Ladeleistung am Tesla Supercharger mit einem Model S: 200kW.
Ach das meinst du, verstehe. Aber der Tesla-Supercharger ist ein proprietärer Anschluss, der lediglich Stecker-kompatibel mit Type 2 ist. Eigener Standard - eigene Regeln / Spezifikationen.
Mir ist hingegen kein Beispiel bekannt, wo ein Model S an einer Nicht-Tesla CCS-Ladesäule (per CCS-Adapter) mehr Leistung über das Kabel bekommt, als die Säule gewährt.
Dieter.H schrieb:
Und schon kostet autonomes Fahren leben...
Genau das ist also beim unbedarften Leser, der sich nicht haarklein mit dem Thema und den konkreten Umständen beschäftigt, angekommen. Seufz. :(
Nicht falsch verstehen: Das ist nicht die Schuld des unbedarften Lesers, sondern die Schuld von schlechtem Journalismus, gepaart mit unqualifizierten First-Responses von First-Respondern...
M@tze schrieb:
Danke, wieder was gelernt. :)
Darüber hinaus ist die für Ende 2021 / Anfang 2022 angekündigte "Plaid" Variante ebenfalls eine Spaceballs-Anspielung: Barf und Lonestarr sagen "The've gone to plaid", als die Spaceball 1 mit Ludicrous-Speed an ihnen vorbei rauscht und dabei ein Schottenrock-Muster ("Plaid") auf sie projiziert.
 
Odysseus277 schrieb:
Darüber hinaus ist die für Ende 2021 / Anfang 2022 angekündigte "Plaid" Variante ebenfalls eine Spaceballs-Anspielung

Gefällt mir. :D
 
@Odysseus277 der Stecker im Model S ist nunmal der gleiche... mit 200kW ist das Ding ausgereizt. Eine Restsicherheit wird da kaum noch vorzufinden sein.

Und ich will dir in dem Fall ja nichtmal widersprechen. Find es nur schon krass, wie häufig der Autopilot Sachen tut, die er nicht tun sollte... wie z. B. auch folgendes Beispiel von M@tze.
M@tze schrieb:
Da fällt mir immer wieder diese Situation ein.
Jop, genau solche Fälle beunruhigen mich auch immer wieder. Die hier mehr als häufig genug genannten Idioten hinter'm Steuer mal rausgenommen, hält Tesla meiner Meinung nach den Autopiloten für den Stand der Ausreifung an einer viel zu losen Leine.

Auch andere Gefahren erkennt das Fahrzeug nicht anständig. Bei GRIP beispielsweise wäre ein Model 3 ohne Matzes Zutun mit 60 in einen Kreisverkehr gefahren. Einige andere Aufnahmen zeigen, dass der Autopilot keinen Unterschied zwischen trockener und nasser (Pfützen!) Fahrbahn zu machen scheint und entsprechend manchmal viel zu schnell für die Bedingungen fährt (bedenke bitte, Geschwindigkeit im Video ist in mph, nicht km/h). Neben dem Problem, das schon in deinem Video auftrat.

Und wenn Tesla beim Autopilot außerhalb von Autobahnen auf ein Verbot hinweist, wäre es ein leichtes, ihn automatisch zu deaktivieren, sobald das Navi checkt, dass man sich nicht mehr in der Nähe einer Autobahn befindet... passiert aber nicht. Das System lässt sich nach wie vor aktivieren.

Insofern: Ja, die Verantwortung liegt (noch) beim Fahrer. Ändert aber nix an der Tatsache, dass Tesla hier Sicherheitslücken zu schließen hat, die mir in dieser Form bis jetzt bei keinem anderen Hersteller aufgefallen sind. Unabhängig von der Trickserei.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
Wichipingui schrieb:
Der Radar Sensor kann der gesamte Sitz scannen und sobald der Herzschlag nicht lang in die normale Höhe erkannt ist, kann ein Fehler zeigen und das Auto sollte stoppen. Es ist auch kompliziert ein Tier in eine Bestimmte Position sitzen lassen während des Fahrt.
Ergänzung ()


Wegen Datenschutz verboten...
werden ja keine daten erhoben und gespeichert ;D ist quasi wie ein https://de.wikipedia.org/wiki/Totmanneinrichtung
 
BTICronox schrieb:
Und wenn Tesla beim Autopilot außerhalb von Autobahnen auf ein Verbot hinweist, wäre es ein leichtes, ihn automatisch zu deaktivieren
Dagegen würde aber jeder Besitzer dieses Systems vehement protestieren. Es ist ja nicht mein Problem, wenn jemand anderes aus Dummheit entscheidet, sich oder andere zu gefährden. Das kann die Person auch ganz ohne das System tun.

Ich hoffe daher, dass es wie bisher gehandhabt wird und man die Zeit lieber in Verbesserungen des Systems steckt als in solchen Schwachsinn.
 
Oneplusfan schrieb:
Ich hoffe daher, dass es wie bisher gehandhabt wird und man die Zeit lieber in Verbesserungen des Systems steckt als in solchen Schwachsinn.
Wir halten also fest: Du bist dagegen, dass Tesla das AP / FSD System für Landstraßen sperrt, obwohl es dafür noch gar nicht ausgereift genug ist, aber wenn Leute die von ihrem Fahrzeug angebotene Funktion aktivieren und was passiert, sind sie Idioten und Tesla schuldfrei? ....okay?

Wie man nun auch in diversen Videos sehen konnte, bleibt dem Nutzer selbst bei hoher Aufmerksamkeit manchmal wenig Reaktionszeit, weil man schlecht das Verhalten des Fahrzeugs einschätzen kann, es einen aber auch gleichzeitig oft erst sehr spät warnt... oder gar nicht. Und eigentlich geht es beim unterstützten und autonomen Fahren um stressfreies Fahren. Aber klar, alles Honks ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iSight2TheBlind
BTICronox schrieb:
Wie man nun auch in diversen Videos sehen konnte, bleibt dem Nutzer selbst bei hoher Aufmerksamkeit manchmal wenig Reaktionszeit, weil man schlecht das Verhalten des Fahrzeugs einschätzen kann, es einen aber auch gleichzeitig oft erst sehr spät warnt... oder gar nicht.

Also halten wir fest: Manuelles Autofahren sollte komplett verboten werden, weil Menschen manchmal Fehler machen.
 
  • Gefällt mir
Reaktionen: nickydw und Kizna von Löwe
HighDefinist schrieb:
Also halten wir fest: Manuelles Autofahren sollte komplett verboten werden
... solange es den Fahrer nicht entlastet, sondern durch offensichtliche Fehler zusätzlichem Stress aussetzt und damit das exakte Gegenteil davon erreicht, wofür es entwickelt wurde.

Abgesehen davon habe ich in diesem gesamten Thread nicht ein einziges Mal von einem kompletten Verbot gesprochen, sondern nur davon, Sicherheitsaspekten nachzugehen und eventuell Teilverbote (!) kurzzeitig zu patchen.

Aber salz ruhig weiter rum... wenn's dich glücklich macht...
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
BTICronox schrieb:
Wieso hat man genau davon nur nix gelesen? Die Polizei hat dazu noch nix außer einer Vernutung verloren und Elon meint sogar, das Auto habe gar kein AP (was keinen Sinn ergibt, wenn niemand auf dem Fahrersitz war).
Again: Elon sagte das Auto hatte kein FSD (Volles Potenzial für Autonomes Fahren), und der AP war nicht aktiv.

FSD ist nicht das selbe wie AP.

Das sind zwei völlig unterschiedliche dinge, die auch so kommuniziert werden, schon immer.

Genauso wie Enhanced Autopilot von Anfang an als halbautonomes-system kommuniziert wurde das Überwachung braucht und auch nur dinge wie Spurwechsel macht nachdem der Fahrer bestätigt hat das es wirklich sicher ist die Spur zu wechseln.

Und wer das wirklich nicht weiß, oder durch lesen das nicht heraus gefunden hat bevor er das Auto kauft... dem kann man wirklich nicht mehr helfen. Aber anscheinend handelt es sich um selektive warnehmung.
 
BTICronox schrieb:
Wir halten also fest: Du bist dagegen, dass Tesla das AP / FSD System für Landstraßen sperrt, obwohl es dafür noch gar nicht ausgereift genug ist, aber wenn Leute die von ihrem Fahrzeug angebotene Funktion aktivieren und was passiert, sind sie Idioten und Tesla schuldfrei? ....okay?

Aber ne 251g schwere Drohne darf nicht in Flugverbotszonen starten, erkennt das auch via GPS und startet dann einfach nicht...

Der Unterschied bei den Regelungen und den was manche akzeptieren zwischen einer Drohne die höchstens wem auf den Kopf fallen würde oder selbst im Triebwerk noch als kleiner Vogelschlag durchgeht und einem 1t-Auto ist amüsant.
 
  • Gefällt mir
Reaktionen: BVZTIII
Kizna von Löwe schrieb:
Again: Elon sagte das Auto hatte kein FSD (Volles Potenzial für Autonomes Fahren), und der AP war nicht aktiv.

FSD ist nicht das selbe wie AP.
Again? Das Thema bin ich schon auf der vorherigen Threadseite angegangen... bisschen spät.

Kizna von Löwe schrieb:
Genauso wie Enhanced Autopilot von Anfang an als halbautonomes-system kommuniziert wurde das Überwachung braucht
Ich zitiere mich mal selbst:
BTICronox schrieb:
Wie man nun auch in diversen Videos sehen konnte, bleibt dem Nutzer selbst bei hoher Aufmerksamkeit manchmal wenig Reaktionszeit, weil man schlecht das Verhalten des Fahrzeugs einschätzen kann, es einen aber auch gleichzeitig oft erst sehr spät warnt... oder gar nicht. Und eigentlich geht es beim unterstützten und autonomen Fahren um stressfreies Fahren.

Kizna von Löwe schrieb:
Und wer das wirklich nicht weiß, oder durch lesen das nicht heraus gefunden hat bevor er das Auto kauft... dem kann man wirklich nicht mehr helfen.
Also bei anderen Herstellern bekommst du eine ewig lange Einweisung, in der dir auf Wunsch freundlich jede Einzelheit eines Fahrzeugs erklärt wird und Du auch Fragen stellen darfst... gehört zum Kaufpreis. Bei Tesla betrittst Du halt eine kalte Lagerhalle und nimmst das Teil mit :D

Die meisten Average Joes gehen bei unterstütztem / autopilotierten / autonomem Fahren davon aus, dass einem das System hilft und nicht plötzlich mit einer viel zu späten (oder gar ganz ohne) Warnung den Leeroy Jenkins macht.

Kizna von Löwe schrieb:
Aber anscheinend handelt es sich um selektive warnehmung.
So wie Du scheinbar die Hälfte meiner Kommentare wegignorierst? Nochmal Selbstzitat:
BTICronox schrieb:
Elon meint, FSD wäre nicht gebucht und Basic AP nicht aktiviert, weil Basic AP dafür Straßenbeläge erkennen müsse, die auf dieser Straße nicht existieren... offensichtlich fuhr das Auto aber ohne Fahrer.
Ich bin doch kein Papagei...

iSight2TheBlind schrieb:
Der Unterschied bei den Regelungen und den was manche akzeptieren zwischen einer Drohne die höchstens wem auf den Kopf fallen würde oder selbst im Triebwerk noch als kleiner Vogelschlag durchgeht und einem 1t-Auto ist amüsant.
Eher 2t :D Laut Nyland 1880kg beim Model 3 und 2360kg beim Model S Raven.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
BTICronox schrieb:
und nicht plötzlich mit einer viel zu späten (oder gar ganz ohne) Warnung den Leeroy Jenkins macht.

Made my day! :D
 
Es gibt neue Informationen zu dem Unfall: Das Lenkrad war deformiert und der Gurt des Fahrers war offen. Damit ist für mich zu 100% klar, dass hier ein menschlicher Fahrfehler vorliegt.
Quelle ist der Earnings Call gestern.

BTICronox schrieb:
Also bei anderen Herstellern bekommst du eine ewig lange Einweisung, in der dir auf Wunsch freundlich jede Einzelheit eines Fahrzeugs erklärt wird und Du auch Fragen stellen darfst

Langsam nerven deine unqualifizierten Aussagen ein bisschen. Da du offensichtlich keine Ahnung hast (weder vom Auslieferungsprozess, noch vom System selbst), warum kommentierst du unter dem Thema?
 
  • Gefällt mir
Reaktionen: Kizna von Löwe
BTICronox schrieb:
Abgesehen davon habe ich in diesem gesamten Thread nicht ein einziges Mal von einem kompletten Verbot gesprochen, sondern nur davon, Sicherheitsaspekten nachzugehen und eventuell Teilverbote (!) kurzzeitig zu patchen.

Das Problem deines Ansatzes, worauf mehrere immer wieder hingewiesen haben, ist, dass du mit zweierlei Mass misst: Bzgl. der Sicherheit des autonomen Fahrens ist Tesla jetzt schon viel weiter als die Anderen im Bereich manuellem Fahren - ansonsten waeren Babyschritte wie dieser hier ueberhaupt nicht erwaehnenswert:

https://www.golem.de/news/maximal-1...digkeit-bei-unfitten-fahrern-2104-156031.html

Jenseits der fehlenden Alokoholtests und Fuehrerscheinchecks ist auch ein Muedigkeitscheck etwas, wo man sich schon fragt, warum das nicht schon laengst Standard ist...

Also, natuerlich sollte man "Sicherheitsaspekten nachgehen", aber im Bereich manuellen Fahren gibt es da eben sehr viel groessere Schwachstellen als im Bereich automatisches Fahren - also was soll die ganze Aufregung ueber Tesla eigentlich? Das lenkt doch nur vom eigentlichen Thema ab, naemlich dass automatisches Fahren in absehbarer Zeit wesentlich sicherer als manuelles Fahren sein wird (falls es das nicht schon bereits ist!), und dann stellt sich in der Tat die Frage, warum manuelles Fahren ueberhaupt noch erlaubt sein sollte.
 
Oneplusfan schrieb:
Es gibt neue Informationen zu dem Unfall: Das Lenkrad war deformiert und der Gurt des Fahrers war offen. Damit ist für mich zu 100% klar, dass hier ein menschlicher Fahrfehler vorliegt.
Und das haben die wie rausgefunden? So ohne Lenkrad und Gurte, die da noch übrig wären...
1619516684857.png

1619516744987.png

Oneplusfan schrieb:
Quelle ist der Earnings Call gestern.
Also Tesla selbst und Typen, die Teslas Aktien interessieren.... cool :D
Oneplusfan schrieb:
Langsam nerven deine unqualifizierten Aussagen ein bisschen. Da du offensichtlich keine Ahnung hast (weder vom Auslieferungsprozess, noch vom System selbst), warum kommentierst du unter dem Thema?
Da du offensichtlich noch nie bei einem Neuwagenkauf dabei warst und auch die dutzenden VLogs dazu scheinbar gekonnt ignorierst... aber warum ich noch hier kommentiere, ist eine gute Frage.

HighDefinist schrieb:
Das Problem deines Ansatzes, worauf mehrere immer wieder hingewiesen haben, ist, dass du mit zweierlei Mass misst
Nicht wirklich. Meine "Forderungen" gelten für alle Hersteller gleichermaßen. Und dass teilautonomes Fahren deutlich sicherer ist als manuelles, ist auch kein Wunder, wenn das System sich bei vielen potentiell gefährlichen Situationen, die ihre Programmierung übersteigen, vorher abschaltet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chartmix
BTICronox schrieb:
Und das haben die wie rausgefunden? So ohne Lenkrad und Gurte, die da noch übrig wären...

Du scheinst sehr informationsresistent zu sein..... Machst dir auch nichtmal die Mühe, die Originalquelle zu checken. NHTSA und NTSB waren bei den Untersuchungen involviert.

BTICronox schrieb:
Also Tesla selbst und Typen, die Teslas Aktien interessieren.... cool

Quelle des Earning Calls widerrum sind Untersuchungen gemeinsam mit den beiden o.g. Quellen.
Deine impllizierten Verschwörungstheorien kannst du dir ebenfalls sparen.
Hängt dein Job an der deutschen Autoindustrie oder wie?

BTICronox schrieb:
Da du offensichtlich noch nie bei einem Neuwagenkauf dabei warst und auch die dutzenden VLogs dazu scheinbar gekonnt ignorierst... aber warum ich noch hier kommentiere, ist eine gute Frage.

Meine Abholung war am 28.12. im Auslieferungscenter Pilsting. Ich nehme an du hast keine persönliche Erfahrung mit Tesla oder deren Auslieferungssystem.
Da du anscheinend nicht mal weißt, dass bei der Auslieferung nicht die Erklärung der Funktionen stattfindet, sondern im Showroom bzw. der Probefahrt, spar ich mir ab hier weitere Kommentare.

BTICronox schrieb:
Und dass teilautonomes Fahren deutlich sicherer ist als manuelles, ist auch kein Wunder, wenn das System sich bei vielen potentiell gefährlichen Situationen, die ihre Programmierung übersteigen, vorher abschaltet.

Alle Unfälle mit Abschaltung des Systems innerhalb von 5 Sekunden vor dem Unfall werden als Unfall des Systems gewertet....

Man kann ja das Argument machen, dass die Datenbasis verwaschen ist, weil solche Systeme generell nur auf vergleichsweise sicheren Straßen benutzt werden (allerdings auch hier Faktor 2x sicherer), aber dieses Argument stimmt so nicht.
 
  • Gefällt mir
Reaktionen: Kizna von Löwe
Zurück
Oben