Woookie schrieb:
Meine Kollegen waren ausnahmslos hin- und hergerissen, ob sie weinen oder lachen sollen und gleichzeitig ziemlich schockiert. Die Vorstellung von Tesla von Produktqualität passt überhaupt nicht zu dem Bild, dass sie als "Software-Pionier" in der Automotive-Branche haben. "Stand der Technik" scheinen sie bei der Absicherung ihrer Software-Releases jedenfalls schon mal nicht zu haben.
Na, mal nicht übertreiben. Der Artikel sagt doch lediglich aus, dass eine Beta-Version der nicht allgemein zugänglichen
FSD-Software, welche sich an ca. 3.000 aktive und eingewiesene Beta-Tester richtet, zurück gezogen wurde, weil sie sich nicht wie erwartet verhalten hat. In einem Beta-Test ist das durchaus zu erwarten.
Der Artikel mischt das dann jedoch leider noch inhaltlich falsch mit dem Umstand, dass eine ganz
andere (Produktiv-)Software ("Autopilot") von Tesla derzeit in der Kritik steht. Das tut sie, weil manche Menschen sagen, dass ein ausdrücklich NICHT vorhandenes, nicht beworbenes und sogar explizit ausgeschlossenes Feature (nicht nur bei Tesla, sondern auch bei anderen Herstellern) für Kollisionen mit auf der Fahrbahn still stehenden Einsatzfahrzeugen gesorgt hat.
Woookie schrieb:
Es stimmt auf alle Fälle, dass eine hohe Sicherheit im Straßenverkehr (Deutschland) mit einer gewissen Verzögerung von Einführung von neuen Technologien hat. Gleichzeitig ist Deutschland das erste Land, was gegen Ende des Jahres ein gültiges Gesetz für L4-Fahrzeuge haben wird (wenn auch mit berechtigt sehr hohen Anforderungen).
Es ist durchaus zu erwarten, dass Tesla ihr System, wenn es dann mal fertig ist, im Rahmen dieses Gesetzes auch bei uns auf die Straßen bringen wird.
nicoc schrieb:
Das verlangt der Gesetzgeber leider auch nicht. Wird bei vollautonomen Autos nicht anders sein: der Fahrer wird haften müssen. Das der Hersteller nicht haften will und wird ist logisch: Autonom funktioniert nicht zu 100%.
Auch menschliche Fahrer "funktionieren" nicht zu 100%. Tesla strebt mit FSD keine 100% Zuverlässigkeit an, sondern "nur" nachweisbar ca. 10x so gut wie ein durchschnittlicher, menschlicher Fahrer. Wenn das bedeutet, dass es auch 10 weniger Unfälle gibt, ist es moralisch schwierig, diese Software
nicht zuzulassen, und eben nicht anders herum.
Außerdem bekräftigt Tesla ja immer wieder, dass bei Benutzung der (fertigen) FDS-Software die Verantwortung
sehr wohl bei Tesla liegen wird. Sonst wäre es ja auch kein autonomes Level-5-System. Level 5 ist aber das erklärte Ziel.
itm schrieb:
Wenn Teslas FSD in Zukunft voll zugelassen werden sollte werde ich meine Wohnung nicht mehr verlassen
Ist das nicht etwas kurz gedacht? Bereits heute nimmst du in Kauf, dass Fahranfänger oder sogar Fahrschüler am Verkehrsgeschehen teilnehmen. Oder sogar Fahrer, die aufgrund bestimmter Einflüsse momentan lieber nicht fahren sollten, z.B. wegen Alkohol-Einfluss, Müdigkeit oder Selbstüberschätzung.