News Full Self-Driving (FSD): Tesla zieht Version 10.3 nach nur einem Tag wieder zurück

Klassikfan schrieb:
Ich kann mir nicht helfen, aber ein "öffentlicher Betatest" einer Software, die automatisiert Fahrzeuge durch den Straßenverkehr steuert?
und auf der anderen Seite beschwert man sich, dass die deutschen es nicht hinbekommen, wegen der ganzen Regularien. Beta Test bedeutet sicherlich nicht, dass da nie jemand drübergeschaut hat.....irgendwann muss es halt auf die Straße und dort getestet werden. Das ist einfach so. Wer entwicklung will, der muss auch Risiken eingehen. Wenn damals jemand Marie Curie gesagt hätte "ne ach komm lass das mal besser sein", dann würden wir jetzt sicherlich auch an anderer Stelle sein, ob diese dann fortschrittlicher wäre? man weiß es nicht.
 
Pandora schrieb:
Alle Eventualitäten vorab durchzutesten ist quasi immer unwirtschaftlich bis unmöglich. Es geht daher einzig um Wahrscheinlichkeiten, zumal sich die Nutzer dieser Beta noch zur Überwachung dieser verpflichtet haben.
Aber das ist doch der Punkt: Die Beta-Version wurde nach nur einem Tag zurückgezogen. Falsche Kollisionswarnungen und plötzliche Bremsungen dürfen mit dieser hohen Wahrscheinlichkeit (in Umkehrung zu ihrem ganz offensichtlich unerwartet schnellen Eintreten) in einer öffentlichen Beta nicht passieren.
 
  • Gefällt mir
Reaktionen: ZeusTheGod, 7H0M45 und Weyoun
Balikon schrieb:
Aber die Hardware hat ja unterschiedlichste Revisionen gesehen. Überlege mal, wie alt die ersten Serienfahrzeuge von Tesla sind.
Einerseits stimmt das, andererseits müssen wir unsere Steuergeräte (Antrieb) sowohl für die Produktlebensdauer (7 bis 10 Jahre) als auch für den Garantiezeitraum (15 Jahre nach End of Life), also in Summe maximal 25 Jahre, bei jeder Hardwareänderung (das lässt sich wahrlich nicht vermeiden, da immer mal wieder Bauteile abgekündigt werden) vollkompatibel zur ersten Hardware-Revision halten. Maximal die Software muss dann ggf. an bestimmten Punkten geändert werden, wenn ganze ASICs getauscht werden. Bei kleineren Änderungen muss sichergestellt werden, dass die "Ur-Software" weiterhin vollumfänglich fehlerfrei läuft. Und wenn wir das nicht nachweisen können, nimmt uns der Kunde auch keine neue Revision ab.
 
  • Gefällt mir
Reaktionen: x37
ComputerJunge schrieb:
Aber das ist doch der Punkt: Die Beta-Version wurde nach nur einem Tag zurückgezogen. Falsche Kollisionswarnungen und plötzliche Bremsungen dürfen mit dieser hohen Wahrscheinlichkeit (in Umkehrung zu ihrem ganz offensichtlich unerwartet schnellen Eintreten) in einer öffentlichen Beta nicht passieren.

Erstens: Was genau verstehst du unter "öffentliche Beta"?
Normalerweise ist damit ein freier Zugang zur Software für jeden gemeint. Das ist hier aber nicht der Fall.

Zweitens: "Falsche Kollisionswarnungen und plötzliche Bremsungen" sind derzeit in der Branche viel weiter verbreitet, als man annehmen möchte. Bloß, dass die anderen es nicht Beta nennen; keine Möglichkeit der direkten Rücknahme haben, weil OTA-Updatefähigkeit fehlt; und damit längst nicht so öffentlich und transparent umgehen. Suche mal ein bisschen danach, du wirst sicher einiges finden.
 
KDKSenior schrieb:
- als man weiß worauf man sich da einlässt!

Jeder der hier mitmacht weiß genau was er hier tut und tragt dazu bei diese Software zu verbessern.
Und was ist mit anderen den nicht Tesla fahrenden Verkehrsteilnehmern? Wissen die das auch?
 
  • Gefällt mir
Reaktionen: chartmix, Corros1on und PHuV
Scythe1988 schrieb:
und auf der anderen Seite beschwert man sich, dass die deutschen es nicht hinbekommen, wegen der ganzen Regularien. Beta Test bedeutet sicherlich nicht, dass da nie jemand drübergeschaut hat.....irgendwann muss es halt auf die Straße und dort getestet werden. Das ist einfach so. Wer entwicklung will, der muss auch Risiken eingehen.
Na sauber, wie willst Du bitte für verloren gegangene Menschenleben einstehen? Ich will Dich erleben, daß Du bereitwillig Deinen Lebenspartner oder Deine Kinder für so einen Test als Kollateralschaden einer Beta opfern würdest. 🙄 Es hat keiner das Recht, grundlos und unnötig Risiken auf Kosten von anderen Unbeteiligten einzugehen. Das moralisch wie ethisch nicht zu rechtfertigen.

Scythe1988 schrieb:
Wenn damals jemand Marie Curie gesagt hätte "ne ach komm lass das mal besser sein", dann würden wir jetzt sicherlich auch an anderer Stelle sein, ob diese dann fortschrittlicher wäre? man weiß es nicht.
Moment, sie hat sich selbst riskiert, keine anderen. Was Menschen für sich entscheiden ist eine Sache, aber nicht, was andere für einen entscheiden. Willst Du Fremdbestimmung über Dein Leben? Ich nicht, und die meisten hier bestimmt auch nicht.

Eine Beta gehört nicht in die Öffentlichkeit, egal wie, und besonders nicht, wenn dadurch Menschen und Umwelt gefährdet sind.
 
  • Gefällt mir
Reaktionen: Dönerkatze, chartmix, Weyoun und eine weitere Person
ComputerJunge schrieb:
Und was ist mit anderen den nicht Tesla fahrenden Verkehrsteilnehmern? Wissen die das auch?
Man kann die Tesla Software sowie Teslas Kommunikation dazu nicht im Luftleeren Raum sondern nur im Vergleich zu den Alternativen bewerten. Und da macht Tesla zum Teil Fehler (es Autopilot nennen und damit einen falschen Eindruck von Sicherheit zu erwecken), aber zum Teil auch vieles besser:
  • mit Abstand transparenteste Entwicklung und Komminkation darüber.
  • Tesla steckt soweit mir bekannt die meisten Ressourcen in die Entwicklung von FSD in der Branche und zeigt damit auch, welchen Wert sie der Verhinderung der Million Toter Verkehrsteilnehmer welche durch menschliche Fahrfehler jährlich weltweit sterben beimessen.
  • regelmäßige Updates, nicht zuletzt ermöglicht durch die Over-the-Air Updatefähigkeit der Fahrzeuge. Damit können auch Fehler ausgebessert werden, die bei anderen Herstellern Monatelang im System bleiben, bis das Auto mal wieder in der Werkstatt ist.
 
themk schrieb:
Erstens: Was genau verstehst du unter "öffentliche Beta"?
Normalerweise ist damit ein freier Zugang zur Software für jeden gemeint. Das ist hier aber nicht der Fall.
Ich verstehe darunter, dass daran nicht ausgebildetes Personal (Professionelle Tester) teilnehmen kann. Die Information der Begrenzung auf 1.000 Teilnehmer mit "ausgewiesener Fahrkompetenz" war mir allerdings noch nicht bekannt. Das relativiert meine "Empörung" etwas, aber nicht vollständig.

themk schrieb:
Zweitens: "Falsche Kollisionswarnungen und plötzliche Bremsungen" sind derzeit in der Branche viel weiter verbreitet, als man annehmen möchte.
Zum Glück habe ich davon noch nichts bemerkt. Weder als aktiver noch als passiver Verkehrsteilnehmer. Aber ich erwarte auch eine gewisse Dunkelziffer.
 
Mal unabhängig von Tesla, sehe ich das autonome Fahren hier in den nächsten 10-15 Jahren sowieso nicht kommen. Das wird hier in Deutschland schon allein an den ganzen rechtlichen und versicherungstechnischen Rahmenbedingungen scheitern.

Und den Sinn habe ich auch noch nicht verstanden. Wieso sollte ich früh meine 20 Kilometer auf Arbeit autonom fahren wollen? Das lohnt sich doch nur, wenn ich auch autonom mit meinem Bett ins Auto geladen und dann erst auf dem Firmenparkplatz geweckt werde...

Dass die Autofirmen uns die Autos dann nur noch als "car as a service" verkaufen wollen ist auch klar.
 
PHuV schrieb:
Eine Beta gehört nicht in die Öffentlichkeit, egal wie, und besonders nicht, wenn dadurch Menschen und Umwelt gefährdet sind.
Grundlegend bin ich bei dir. Andererseits gibts neben dem aktiven Fahrer, der eingreifen kann, auch Sicherheitsabstand, den jeder andere Verkehrsteilnehmer einhalten sollte (auch wenn das heutzutage nicht immer der Fall ist). Ob mit entsprechend passendem Abstand sowie einem aufmerksamen Fahrer da eine deutlich größere Gefahrenlage entsteht als eh schon mit dem Ego und der falschen Einschätzungen einiger Verkehrsteilnehmer wage ich zumindest vorsichtig infrage zu stellen.
So gesehen unterstütze ich deine Aussage, allerdings ist das in der Automobilbranche Standard, jeder Neuwagen wird abgeklebt mit Assistenzsystemen und co. in begrenztem Nutzerkreis auf den Straßen getestet. Ich seh das in dem Umfang nicht ganz so kritisch. Tests ausnahmslos abseits normaler, öffentlicher Straßen durchzuführen ist ebenso realitätsfremd.
 
PHuV schrieb:
Mustererkennung ist ein wesentliches Teil der autonomen Fahrens.

Absolut. Das habe ich auch nie bestritten.

Meine Frage war ja, ob es sich proportional verhält.

Warum ich das Frage:

Deine Aussage - und bitte korrigieren mich, falls das nicht stimmt - war vereinfacht:

"Menschen am Steuer sind momentan der KI in Punkto Sicherheit überlegen, auf Grund von besserer Mustererkennung."

Dabei gibt es ja noch viele andere Faktoren, die für die Sicherheit relevant sind.

Mich machte nur stutzig, dass du dir so sicher warst, dass die KI auf jeden Fall in der Gesamtheit unterlegen ist, und das bisher nur auf die Mustererkennung zurück geführt hast.
 
  • Gefällt mir
Reaktionen: Nero1
Körperklaus schrieb:
Und den Sinn habe ich auch noch nicht verstanden. Wieso sollte ich früh meine 20 Kilometer auf Arbeit autonom fahren wollen? Das lohnt sich doch nur, wenn ich auch autonom mit meinem Bett ins Auto geladen und dann erst auf dem Firmenparkplatz geweckt werde...

Der Sinn besteht darin, dass

1. heute über 90% der Unfälle durch menschliche Fehler entstehen. Ein Großteil der 1 Million jährlichen weltweiten Verkehrstoten ist damit letztlich auf menschliches Versagen zurückzuführen.

2. Neben den Toten ist auch der Wirtschafts-/ und Umweltschaden relevant.

3. All das zeigt sich nicht zuletzt in den Versicherungskosten. Ein perfektes FSD System würde entsprechend eine um 80-95% niedrigere Versicherungsprämie benötigen, damit die dann noch durch Unfälle entstehenden Schäden abgedeckt werden können.

4. Es lassen sich durch perfekte Selbstfahrende Systeme ganz neue Fahrdienste ermöglichen die vieles verändern werden. Damit wird Mobilität langfristig deutlich günstiger und zugänglicher. Mobilität innerhalb einer Stadt wird dann so ein bisschen wie Strom sein: Für jeden leicht zu verwenden, auf unzählige Arten einsetzbar, quasi jederzeit verfügbar und so günstig, dass man sich darüber keine Gedanken mehr macht. Und um die Wartung kümmern sich auch andere. Das wird eine ganz andere Welt sein.
 
  • Gefällt mir
Reaktionen: ErbarmeHesse und Eldok
Wieso darf Tesla ihr ADAS überhaupt Full self driving nennen? Das ist doch eindeutig Täuschung.
FSD ist ein Level 2 Assistenzsystem. Nicht mehr und nicht weniger.
 
  • Gefällt mir
Reaktionen: 7H0M45, MGFirewater, x37 und eine weitere Person
|Moppel| schrieb:
Ich finde man muss es immer im Vergleich sehen.

Angenommen mein autonomes Auto hat eine Software, mit der zwar Unfälle passieren, aber im Schnitt weniger als wenn Menschen steuern.
Der Vergleich sind Autos mit Assitenzsystemen bei denen die Fahrer die Kontrolle haben und bewusst fahren und das Assistenzsystem in gefährlichen Situationen eingreift.

Es gibt 2 Modi die funktionieren:
  • Die Fahrer steuern ihr auto selbst und werden von Assistenzsystemen unterstützt.
  • Das autonome föhrt selbst.

Der Übergang kann eigentlich nur in ganz eindeutigen Verkehrssituationen erfolgen.
Modi in denen das autonome Auto selbständig fährt und die Fahrer bei kritischen Situationen übernehmen, funktionieren grundsätzlich nicht. Diese würde erfordern dass die Fahrer hochkonzentriert das Auto und die Verkehrslage überwachen.
  1. Dann können sie auch selber fahren
  2. Ich bin nicht sicher ob das überwachen erholsamer als das Selbstfahren ist.
Wenn Unfälle passieren redet sich Tesla ständig raus und schiebt den Fahrern die Schuld zu. Wer ein System mit Autopilot bezeichnet ist IMHO für jedes Fehlverhalten der Fahrer selbst verantwortlich und sollte vollumfänglich haftbar gemacht werden.
 
AGB-Leser schrieb:
Wer haftet eigentlich bei einer unnötigen Vollbremsung?
supermanlovers schrieb:
Wahrscheinlich übernimmt der Fahrer während der Beta Phase die Verantwortung. Tesla weißt ausdrücklich darauf hin daß es sich um eine Beta Software handelt, alles auf eigenes Risiko usw. Wie bei jeder anderen Beta Software.
So wie ich das verstehe: Es haftet immer der Fahrer, der ist für das Führen des Fahrzeuges verantwortlich und auf welche Assistenzsysteme er zurückgreift ist seine Sache und entbindet nicht von seiner Verantwortung.


Abgesehen davon ist es wirklich übel einen Beta-Test im öffentlichen Straßenverkehr zu machen. Andererseits ist selbst eine Software die vorher auf Herz und Nieren geprüft wurde mit einem Beta-Test noch sicherer, aber das ist ja wohl vorliegend nicht der Fall.
 
Körperklaus schrieb:
Und den Sinn habe ich auch noch nicht verstanden. Wieso sollte ich früh meine 20 Kilometer auf Arbeit autonom fahren wollen? Das lohnt sich doch nur, wenn ich auch autonom mit meinem Bett ins Auto geladen und dann erst auf dem Firmenparkplatz geweckt werde...
Weil autonome Fahrzeuge neue Verkehrs- und Dienstleistungskonzepte bei bspw. Personentransport und Verkehrsregulierung ermöglichen. Ja, schade um den Job der Taxi- und Uber-Fahrer.

Davon abgesehen, halte ich auch nichts davon, neue Software im Fahrzeug von Laien im öffentlichen Verkehrsraum zu testen.

Wie ist das eigentlich im Zusammenhang mit einer Straßenzulassung in Deutschland zu sehen? Sind das nicht signifikante Änderungen, die eine erneute Prüfung und Zulassung erfordern würden?
 
In Deutschland glücklicherweise so nicht möglich. Da findest du auch keine Versicherung die im Ernstfall das bezahlt und das ist auch gut so. Wir sind noch lange nicht so weit. Time to market ist in diesem Fall der völlig falsche Ansatz.
 
Zuletzt bearbeitet:
themk schrieb:
Man könnte im Artikel auch mal erwähnen, dass anscheinend die meisten anderen Automarken auch Probleme mit falschen Kollisionserkennungen und dadurch hervorgerufenen Vollbremsungen haben. (Quelle ist Berichterstattung des österreichischen ADAC Pendants ÖAMTC bzw. der Hefte, welche die herausgeben.) Bloß, dass die es dann halt anders als Tesla nicht Beta (was eigentlich geschlossene Beta heißen sollte) sondern Feature nennen, und es genauso wie im Dieselgate zwar bei allen passiert, aber die Medien sich immer nur auf das stürzen, was wirklich sichtbar ist.
Wieso muss man andere Hersteller erwähnen? Es geht hier um die FSD Beta von Tesla.
Zudem bewerben die anderen Hersteller ihr System als reine Assistenz. Was FSD auch nur ist. Aber der Name suggeriert was anderes. Nix full self driving.

themk schrieb:
Der Unterschied zu Tesla und den anderen ist zum Teil einfach, dass sie ehrlicher sind und die Beschränkungen ihres Systems auch offen ansprechen.
Wenn sie ehrlich wären, würden sie das ADAS nicht Full self driving nennen.
 
  • Gefällt mir
Reaktionen: 7H0M45 und x37
Ist ja eigentlich schon alles gesagt, doch auch ich finde, so was geht gar nicht. Wenn ein Windoof Update was kaputt macht, sind halt nur meine Urlausfotos weg, aber nicht mein Kopf 😡
 
chartmix schrieb:
Wieso darf Tesla ihr ADAS überhaupt Full self driving nennen? Das ist doch eindeutig Täuschung.
FSD ist ein Level 2 Assistenzsystem. Nicht mehr und nicht weniger.
FSD kann grundsätzlich alles, daher FSD.
Im Umkehrschluss dürfte man einen Spurhalteassistenen auch nicht so nennen, da der auch nicht fehlerfrei die Spur hält. Man muss genauso immer aufpassen.
 
Zurück
Oben