Bericht Mercedes-Benz Drive Pilot auf 95 km/h erweitert: Das schnellste Level-3-Fahren ist auch ohne Stau verfügbar

Kraeuterbutter schrieb:
Übermüdung, Alkohol, Überschätzung, ego usw. usf. --> auch nach 120 Jahre Autofahrergeschichte: gibts heute wie vor xy Jahren --- und wirds auch in 20 Jahren noch geben

Ja - der "Vorteil" ist aber: Bei menschlichem Fehlverhalten und Fehler gibt es eben einen Verantwortlichen. Macht das "Auto" eine Fehler ... naja. Wir reden eben von Haftungsfragen.

Beim Thema Tesla FSD vs. Rest der Automobilindustrie: Tesla hat bereits Tote produziert - aus verschiedenen Gründen - bspw. das Ding mit dem Sattelzug der wohl falsch erkannt wurde bzw. eben nicht. Hersteller wie BMW oder Mercedes wären bei einem solche Vorfall öffentlich hingerichtet worden.

Grundsätzlich können auch BMW und Mercedes so "autonom" fahren wie es Tesla kann. Man legt sich eben aus gewissen Gründen selber Beschränkungen auf weil man eben nicht um jeden Preis aus "Fehlern lernen will".

PS: Und die Schildererkennung bei Tesla ist sicherlich nicht so schlecht weil die Gesetze in der EU das nicht zulassen.
 
  • Gefällt mir
Reaktionen: Kommando und Armadill0
fdsonne schrieb:
Was ich interessant finde, wenn du dann mit deinem Handy am Ohr hinterm LKW mit 90km/h hinterher fährst und die Rennleitung bekommt das spitz. JEDE Wette, die ziehen einen raus...
Das soll ja die türkise Beleuchtung lösen. :)
 
fdsonne schrieb:
Also jetzt im Moment ist das nix von außen zu sehen?
In den USA gibt es Staaten die Mercedes dafür bereits Genehmigungen zur Erprobung gegeben haben. In Deutschland ist das rechtlich schwierig und muss noch ausgekaspert werden.
Siehe dieser Abschnitt: https://www.computerbase.de/2024-09...arkierungslichter_fuer_aussenstehende_geplant
Die US-Bundesstaaten Nevada und Kalifornien haben Mercedes-Benz bereits entsprechende Ausnahmegenehmigungen für die Erprobung erteilt. Wie der Autohersteller erklärt, habe die Erprobung dort bereits erste positive Ergebnisse geliefert. In Deutschland allerdings fehlt aktuell ein Rechtsrahmen für die Markierungslichter. Mercedes-Benz will die Systemarchitektur aber in Übereinstimmung mit den definierten Standards weiter anpassen, sobald sich diese in Deutschland weiterentwickelt haben.

Muss man dann sehen ob es eine weltweit einheitliche Lösung gibt oder ob es lokale Unterschiede geben wird wie bei anderen Beleuchtungsthemen.
Ergänzung ()

Child schrieb:
Grundsätzlich können auch BMW und Mercedes so "autonom" fahren wie es Tesla kann. Man legt sich eben aus gewissen Gründen selber Beschränkungen auf weil man eben nicht um jeden Preis aus "Fehlern lernen will".
Naja, auch da muss man BMW und Mercedes ja vorhalten, was Tesla hier immer zu hören bekommt: Wenn sie es könnten, warum tun sie es dann nicht wie Tesla in Kalifornien? :)
Defakto demonstriert Tesla dort durchaus tolle Fortschritte. Dass da mit anderen Regionen aber noch drölfzig Variablen hinzukommen, die das deutlich erschweren, haben wir hier ja bereits ausführlichst diskutiert. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando und Kraeuterbutter
Child schrieb:
Beim Thema Tesla FSD vs. Rest der Automobilindustrie: Tesla hat bereits Tote produziert - aus verschiedenen Gründen - bspw. das Ding mit dem Sattelzug der wohl falsch erkannt wurde bzw. eben nicht. Hersteller wie BMW oder Mercedes wären bei einem solche Vorfall öffentlich hingerichtet worden.

Grundsätzlich können auch BMW und Mercedes so "autonom" fahren wie es Tesla kann. Man legt sich eben aus gewissen Gründen selber Beschränkungen auf weil man eben nicht um jeden Preis aus "Fehlern lernen will".

PS: Und die Schildererkennung bei Tesla ist sicherlich nicht so schlecht weil die Gesetze in der EU das nicht zulassen.
Ja Tesla hat eine Handvoll Tote auf dem Gewissen. Bei Millionen gefahrenen Kilometern mit FSD. Ja das ist scheiße aber man wird es nie zu 100% verhindern können. Dieses Risiko muss jeder Hersteller früher oder später eingehenen wenn er Level 3 anbieten will. Und jedem Hersteller ist es auch bewusst, dass dieser Fall für ihn kommen wird und das nicht nur 1x.

Grundsätzlich können viele Hersteller so autonom fahren wie Tesla (Level 2). Die Frage ist nur wie gut sie das können. Wieviele Eingriffe sind auf X Kilometer nötig.
Auch mein Corolla kann auf der Autobahn die Spur und Abstand zum Vorderman halten. Genauso wie ein Mercedes oder BMW. Nur können das Mercedes und BMW viel besser und angenehmer. Mein Corolla pendelt ständig nach links und rechts und reagiert beim schrumpfenden oder zunehmenden Abstand zum Vordermann viel zu spät. Trotzdem "kann" er es...

Und ja die Schildererkennung bei EU-Teslas ist so schlecht weil die aktuellen FSD Versionen durch die EU-Regulierungen nicht freigegeben sind. Somit fhren EU-Teslas mit stark veralteter Autopilot-Software (was kein FSD ist) durch die Gegend. Und in dieser stark veralteten Version ist eben auch die Schildererkennung deutlich schlechter.
Ist das gut für Tesla in der EU? Nein.. definitiv nicht.
Wird sich das ändern sobald der aktuelle FSD in der EU erlaubt ist? Ja da die aktuelle FSD Version eine extrem gute Schildererkennung hat.
Ergänzung ()

fdsonne schrieb:
Versagt denn das System in dem Vergleich, weil es es nicht kann oder vielleicht eher, weil es es gar nicht können muss?

Ich mein, da sind schon in den ersten paar wenigen Minuten im Benz die Hand Symbole zu sehen. Das System SOLL doch gar nicht vollends autonom fahren können. Es soll den Fahrer unterstützen. Mit gleicher Hard- sowie Software kann man da nicht argumentieren, wenn das System gar nicht allein in der Form fahren soll
Siehe: https://group.mercedes-benz.com/innovation/case/autonomous/drive-pilot.html
Wenn man das so ließt, sind in dem Video auch teils Situationen, wo man zu langsam für das System fährt. Der Spurhalte-Assistent ab 60km/h / 37mph ist halt bei 30mph schlicht dann wohl nicht richtig aktiv, wenn überhaupt.
Buchst du bei Mercedes den Drive Pilot nicht dazu, hast du Drive Assistance (Plus).
Drive Assistance (Plus) ist ein Level 2 System (wie es auch in deinem Link steht).
Ein Level 2 System ermöglicht dem Fahrzeug selbstständig zu fahren aber nur unter der Voraussetzung, dass der Fahrer den ganzen Zeitraum über die Verantwortung behält und das Lenkrad anfassen muss (er darf nur kurz loslassen).
Level 2+ heißt dann, dass der Fahrer das Lenkrad komplett loslassen kann, aber die Augen stehts auf den Verkehr gerichtet sein müssen. Dafür bedarf es einer zusätzlichen Fahrerüberwachung.

Also ja... der Vergleich ist völlig legetim. Denn beides sind Level 2 Systeme...

Drive Pilot (Plus) ist dann die Erweiterung von Drive Assistance. Damit erweiterst du das System auf ein Szenario wo Level 3 erlaubt ist. Grundsätzlich ist es aber die gleiche Hardware und der gleiche Softwarestack nur mit der Level 3 Szenario-Erweiterung und dem Zugriff auf mehr Datenpunkte.
Mit Drive Assistance könntest du genauso hinter dem LKW herfahren. Das Fahrzeug würde sich genauso verhalten nur düftest du die Hände nicht vom Lenkrad nehmen.
 
Zuletzt bearbeitet:
fdsonne schrieb:
Da kannst du natürlich so einen Fall wie du beschreibst, "austreiben". Aber was das System genau so nicht kann ist eben "neue" Situationen zu erkennen und zu meistern, ohne dabei Fehler zu machen.
hier kommt eben quasi "Bruteforce" ins spiel..

ein Autofahrer-Neuling wird nach 8h Fahrstunden in den öffentlichen Verkehr entlassen..
und durch Kontext-Verstehen, Vorausschauen, antizipieren usw. kann er mit nur 8h Fahrpraxis überleben..

das könnte kein autonomes FAhrsystem..
ABER: die können dafür 100.000ende Stunden "Fahrpraxis" sammeln..

und jedes Auto das neu vom Fließband läuft, fängt nicht wieder bei 0 an, heute der Fahrschüler der aus der FAhrschule kommt, morgen der FAhrschüler usw. usf.





 
fdsonne schrieb:
Das stimmt, die Frage ist nur, ob das gesellschaftlich wirklich gewollt ist. Weil im Umkehrschluss bist du damit vollständig überwacht. Du kannst dich (zumindest mit dem KFZ) nicht mehr bewegen ohne dass wer sieht wo du hin fährst.

Auch wenn das erstmal für sich nicht so ultra schlimm ist. Die Frage wird sein, was daraus entsteht. Vollständige Bewegungsprofile, wo Dritte dann nachvollziehen können wo du wann warst...
hat das perse was mit autonomen Fahren zu tun ?

Google erstellt ja heute schon Bewegungsprofile...
auch sieht man wo einStau entsteht, weil dort gerade viele Handies untypisch langsam unterwegs sind etc...

auch die modernen Autos - Benzin, Diesel, Elektro - egal - melden doch mittlerweile ihre Standorte an den Hersteller, nicht ?
also ob es da zwingend schlimmer werden muss WEGEN autonomen Fahrens ?

funktioniert der Tesla "Autopilot" nur mit bestehender Internetverbindung ?
der rechnet doch nicht in der Cloud, oder? das muss doch echtzeit ablaufen, also direkt im fahrzeug

also das "Tracken" seh ich jetzt nicht als notwendige BEdingung fürs autonome Fahren..
das machen heute eben wohl schon die Notrufassistenten der Autos sowieso
 
Viper|3dc schrieb:
Und in dieser stark veralteten Version ist eben auch die Schildererkennung deutlich schlechter.
Ist das gut für Tesla in der EU? Nein.. definitiv nicht.
Wird sich das ändern sobald der aktuelle FSD in der EU erlaubt ist? Ja da die aktuelle FSD Version eine extrem gute Schildererkennung hat.
Du machst dir das hier wieder ziemlich einfach. Die Schilder sind überall unterschiedlich und müssen auch anders gedeutet werden je nach lokaler Gesetzgebung. Nur weil die Schilderkennung in den USA sehr gut funktioniert (wobei ich da teils auch Anderes gehört habe, aber lassen wir das mal außen vor) anzunehmen, dass sie dann auch in Deutschland gut funktionieren wird, ist naiv.
Und genau das ist auch mein Problem mit dieser ganzen Argumentation für den angeblich tollen Tesla FSD. Tesla hat bislang in Europa nicht bewiesen, dass sie besser sind als alle Anderen. Deswegen kann man das auch nicht sagen, dass der FSD hier genauso gut funktionieren würde. Weil man es schlicht nicht wissen kann, weil die Gegebenheiten hier gänzlich Andere sind. Auch Tesla wird sich an diese anpassen müssen. Da hilft kein noch so generisch entwickeltes System.
Ergänzung ()

Viper|3dc schrieb:
Ja Tesla hat eine Handvoll Tote auf dem Gewissen. Bei Millionen gefahrenen Kilometern mit FSD. Ja das ist scheiße aber man wird es nie zu 100% verhindern können. Dieses Risiko muss jeder Hersteller früher oder später eingehenen wenn er Level 3 anbieten will. Und jedem Hersteller ist es auch bewusst, dass dieser Fall für ihn kommen wird und das nicht nur 1x.
Sorry aber diese Argumentation ist für mich vollkommen inakzeptabel. Wo ist denn das Limit? Bei 100 Toten? Bei 1000? Mehr?

Wie stehst du dazu, wenn ein solches Auto deine kleine Tochter überrollt?

Der ganze Quatsch soll zu mehr Sicherheit führen. Wenn das auf Kosten der Fußgänger, Radfahrer oder Tiere geht, ist das meiner Meinung nach der vollkommen falsche Weg.
 
  • Gefällt mir
Reaktionen: Rambo5018, NeuerJunge und DNS81
Viper|3dc schrieb:
Also ja... der Vergleich ist völlig legetim. Denn beides sind Level 2 Systeme...
Natürlich kann man vergleichen was man woll - aber ernst gemeinte Frage, was soll das dann bringen, wenn das System dafür nicht gedacht ist?
Oder verstehe ich den Punkt gerade falsch? Das Teil im Video ist nur ein Assistenzsystem. Und entsprechend macht es das, was es machen soll. Zu assistieren? -> reizt du das jetzt aus, kann das funktionieren, aber es tut offenbar eben seinen Job und den tut es auch gut. Ob ein Tesla mit anderem Ansatz (Level 2+) das jetzt aber besser kann oder nicht, ist doch überhaupt nicht von Bedeutung? 2 <> 2+ und 2+ <> 3.

Viper|3dc schrieb:
Mit Drive Assistance könntest du genauso hinter dem LKW herfahren. Das Fahrzeug würde sich genauso verhalten nur düftest du die Hände nicht vom Lenkrad nehmen.
Dein Gedankenfehler dabei ist, dass der Sinn des "Hände am Lenkrad" Themas nicht ist, dass das Lenkrad die Wärme der Hand benötigt um zu drehen, sondern dass DU als Fahrer das KFZ fahren sollst und das System dich dabei unterstützen soll. Und nicht umgekehrt. Ich verstehe deinen Punkt nicht, ehrlich... Etwas, was nicht dafür gedacht ist, kann etwas nicht (so gut), für was es nicht gedacht ist. Ja OK... aber was bringt diese Erkenntnis?

Kraeuterbutter schrieb:
und jedes Auto das neu vom Fließband läuft, fängt nicht wieder bei 0 an, heute der Fahrschüler der aus der FAhrschule kommt, morgen der FAhrschüler usw. usf.
Natürlich - dennoch wirst du nur näherungsweise an die Perfekte Situation kommen. Die Frage ist am Ende, wer haftet für den Schaden?
Der Selbstfahrer wird für den Schaden aufkommen (müssen), es sei denn, es ist technisches Versagen und er hat korrekt gehandelt und kann noch den Nachweis darüber bringen. -> keine Ahnung, Auffahrunfall durch kapitales Bremsversagen aufgrund technischem Mangels bei nem Neuwagen oder irgend so ein Beispiel.

Autonom fahren heißt, das System MUSS in allen Situationen die richtigen Entscheidungen treffen. Wie sagt man so schön in der IT - 80% der Aufgaben dauern 20% der Zeit und die restlichen 20% der Dinge benötigen 80% der Zeit. Im Moment ist man eher dabei die 80% der Dinge irgendwie zum fliegen zu bekommen, nutzt dafür reaktive KI Modelle und trainiert Modelle, die halt Dinge und Situationen durchspielen, die bekannt und getestet sind. Spannend wird, was danach kommt. Weil dann trennt sich wahrscheinlich die Spreu vom Weizen, da auch behördlich mit aller größter Wahrscheinlichkeit Zulassungen und Haftungsfragen anhand technisch erreichtem gekoppelt werden. Also da könnten dann Konzerne mit Fehlern in der Technik den Anschluss verlieren. Heute ist das (noch) relativ irrelevant, weil alle irgendwo noch in der Aufbauphase sind...
Ergänzung ()

Kraeuterbutter schrieb:
funktioniert der Tesla "Autopilot" nur mit bestehender Internetverbindung ?
der rechnet doch nicht in der Cloud, oder? das muss doch echtzeit ablaufen, also direkt im fahrzeug

also das "Tracken" seh ich jetzt nicht als notwendige BEdingung fürs autonome Fahren..
das machen heute eben wohl schon die Notrufassistenten der Autos sowieso
Es wird wahrscheinlich nur noch schlimmer damit. Weil die Haftungsfrage wie gesagt im Raum steht und damit der Nachweis sich zum Hersteller verschiebt, der natürlich von extern gar nicht drin sitzt. Logisch.

Was mich so ein bisschen dabei stört ist halt, dass man nicht drum rum kommen wird. Es fordern ja heute schon einige bzw. wollen das haben, dass die Straßen dann primär oder vielleicht vollends autonom befahren werden. Da kannst du dich dann nicht mehr widersetzen.

Anders als mit dem Smartphone. Mach den Trümmer aus, kauf eins ohne Google Dienste, Flugmodus, whatever.
Und ja, die EU hat auch in der Thematik mit dem Tracking in der letzten Richtlinie gültig ab 07/2024 vorgelegt, dass die Neuzulassungen über ein OTA Update Funktion und andere Dinge wie Statusabfragen, Versionstände usw. verfügen müssen. Sprich, seit 07/2024 ist kein Neufahrzeug ohne Internet mehr... Zumindest nicht hierzulande.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M@C
fdsonne schrieb:
Autonom fahren heißt, das System MUSS in allen Situationen die richtigen Entscheidungen treffen.
Nein, heißt es nicht. Im Optimalfall funktioniert es perfekt, dieser ist aber nicht zu erreichen. Und solange es besser funktioniert als Menschen (was es bereits tut) ist es eine Verbesserung des Status Quo.
fdsonne schrieb:
Es wird wahrscheinlich nur noch schlimmer damit. Weil die Haftungsfrage wie gesagt im Raum steht und damit der Nachweis sich zum Hersteller verschiebt, der natürlich von extern gar nicht drin sitzt. Logisch.
Ist doch ganz einfach. Liegt ein technischer Defekt vor (wenn ein Level 3 Auto in den LKW vor ihm fährt) haftet der Hersteller. Liegt eine Fehlbedienung vor, haftet der Fahrer. Dazu wird dann halt ein durchgehendes Video und Telemetrieaufzeichnung erstellt, was die meisten Autos eh schon tun.

Die möglichen Schäden für die Hersteller werden dann halt eingepreist, andersherum preist die KFZ-Haftpflicht das ganze dann hoffentlich auch ein. Man fährt ja deutlich sicherer im Vergleich zum Menschen.


Beispiel: Mercedes verkauft auch einen Notbremsassistenten, welcher gerne komplett versagt. Machen sich da gerade Menschen gedanken über die Haftungsfrage? Nö.
 
  • Gefällt mir
Reaktionen: #basTi
Sron schrieb:
Nein, heißt es nicht. Im Optimalfall funktioniert es perfekt, dieser ist aber nicht zu erreichen. Und solange es besser funktioniert als Menschen (was es bereits tut) ist es eine Verbesserung des Status Quo.
Doch natürlich muss das so sein? Wie kommst du darauf, dass dem nicht so ist?
Level 5 - Vollautonomes Fahren bedeutet, das Fahrzeug trifft alle Entscheidungen selbst. ALLE, es gibt nur noch Passagiere. Das heißt im Umkehrschluss, dass die getroffenen Entscheidungen des Fahrzeugs immer Richtig sein müssen. Sonst kommt es zu einer Haftungsfrage. Natürlich wird es Fehler geben, aber Fehler sind nie richtig, dafür wird Jemand haften, wie und was genau, werden wir dann sehen. Die tote kleine Tochter des Passanten, die von so ner Karre umgeplättet wurde, wird dadurch nicht wieder zurück kommen um es mal als Extrembeispiel zu benennen.

Ob das jetzt besser oder schlechter als ein Status Quo ist, habe ich btw. nie benannt, vor allem absichtlich nicht. Weil das jeder für sich selbst entscheiden muss wie er dazu steht.
Sron schrieb:
Ist doch ganz einfach. Liegt ein technischer Defekt vor (wenn ein Level 3 Auto in den LKW vor ihm fährt) haftet der Hersteller. Liegt eine Fehlbedienung vor, haftet der Fahrer. Dazu wird dann halt ein durchgehendes Video und Telemetrieaufzeichnung erstellt, was die meisten Autos eh schon tun.
Das ist doch aber das was ich meine? Es wird schlimmer. Im zweifel geht das dann sogar live. Also im Tracking direkt und nicht erst ausgewertet durch das Abfragen der Blackbox nach nem Crash. Heutige Neuzulassungen wie gesagt, haben ja schon nen quasi nen Online Zwang. Es wird also erkennbar "schlimmer" in der Hinsicht, des gläsernen Menschen (der so ein Fahrzeug nutzt)
Sron schrieb:
Beispiel: Mercedes verkauft auch einen Notbremsassistenten, welcher gerne komplett versagt. Machen sich da gerade Menschen gedanken über die Haftungsfrage? Nö.
Falsches Beispiel - es ist ein Assistent und dieser assistiert. Nicht mehr und nicht weniger. Niemand haftet wenn das System versagt außer eben der Fahrer. Es sei denn, es ist ein entsprechend autonom fahrendes Fahrzeug.
 
Armadill0 schrieb:
Sorry aber diese Argumentation ist für mich vollkommen inakzeptabel. Wo ist denn das Limit? Bei 100 Toten? Bei 1000? Mehr?

Wie stehst du dazu, wenn ein solches Auto deine kleine Tochter überrollt?

Der ganze Quatsch soll zu mehr Sicherheit führen. Wenn das auf Kosten der Fußgänger, Radfahrer oder Tiere geht, ist das meiner Meinung nach der vollkommen falsche Weg.
War vielleicht nicht ganz richtig formuliert von ihm.

Aber man muss auch sagen, dass die Zahlen von Waymo ganz deutlich zeigen: Per Autopilot gibt es um Größenordnungen weniger Tote. Das Fahren mit deren Systemen ist deutlich sicherer.

Insofern ist irgendwann die Frage: Können wir akzeptieren, dass es einen tödlichen Unfall mit autonomen Autos geben wird, dafür aber die 10 fache Menge an Leuten weniger verunfallen?
Diese Frage kann man schon heute stellen.

(Nur halt nicht mit dem FSD, das kann er nicht leisten. Waymo kann das. Und Mercedes / BMW können das unter sehr engen Rahmenbedingungen.)

Wahrscheinlich wird sich das irgendwann einfach von selbst erledigen.
 
  • Gefällt mir
Reaktionen: Armadill0 und Sron
Kommando schrieb:
(Nur halt nicht mit dem FSD, das kann er nicht leisten. Waymo kann das. Und Mercedes / BMW können das unter sehr engen Rahmenbedingungen.)
Natürlich kann das FSD leisten. FSD hat mittlerweile Millionen gefahrene KM.
Klingt zwar kalt und gefühlslos - aber da kannst du dann einfach die Anzahl der Toten pro gefahrene KM nehmen und das mit den Zahlen der Verstorbenen vergleichen die ohne FSD ums Leben gekommen sind.
Und auch da ist der FSD bereits jetzt schon sicherer...

/edit: Oder meinst du nur bezogen auf Level 3? Dann hättest du recht, dann kann das nur Waymo bieten.
 
fdsonne schrieb:
100km/h Tacho oder GPS gemessen?
Mir ist zumindest dahingehend auffällig, dass vor allem VW Konzern Fahrzeuge stark untertreiben was den Tachowert angeht. Kann natürlich auch immer an der Rad/Reifen Kombo liegen. Mein damaliger Passat mit Serien 19" Bereifung ist bei 250km/h Tacho ganze ~10km/h niedriger als GPS gefahren. Bei ~100 waren es um die 5-6km/h Differenz. In der Stadt merkt man das stark, wenn man mal ein KFZ fährt, was 1:1 Tacho mit GPS zeigt und du dann regelmäßig mit 45km/h hinter den Leuten her nuckelst...

Aber wenn der Tacho meines Audis untertreibt - dann müssten die LKW doch noch schneller fahren als ich annehme?!
 
Kommando schrieb:
Nur halt nicht mit dem FSD, das kann er nicht leisten. Waymo kann das. Und Mercedes / BMW können das unter sehr engen Rahmenbedingungen.
Alle von dir genannten leisten genau das doch schon. Das Risiko eines tödlichen Unfalls wird um einen Faktor > 1 verringert.
 
Das heißt also ich hock mich in meinen Tesla mit FSD sag dem per Spracheingabe wo ich hin möchte und los geht's? Weil das ist es doch über das hier geredet wird - "autonom" fahren bedeutet im Volksmund: Level 5.
 
Sron schrieb:
Häh? Du Widersprichst dir.
Nein? Die Entscheidungen müssen richtig sein. Sind sie das nicht, ist das ein Fehler, der zu einer Haftungsfrage führt. Wo ist da ein Widerspruch?

Widerspruch wäre, wenn ich sage, dass das System Fehler machen darf. Das darf es aber nicht. Weil Fehler nicht richtig sind. Letztlich wird das am Ende Juristisch geklärt werden. Ganz sicher. Denn findige Juristen werden dann irgendwie drum rum argumentieren und Fehler anders darstellen als sie waren, damit dann am Ende doch die Haftung nicht greift usw. -> mMn sehr perfide, aber wenn es ums Geld geht, gibt es keinerlei Sympathie.

aid0nex schrieb:
Aber wenn der Tacho meines Audis untertreibt - dann müssten die LKW doch noch schneller fahren als ich annehme?!
Ne, da du ja bei 100 auf deinem Tacho in Wirklichkeit eher keine Ahnung 93-95km/h schnell bist, fährt der LKW halt dann 20 drüber. Je nachdem. Das Limit auf 95 ergibt durchaus "Sinn" wenn das reale 95 sind.
 
fdsonne schrieb:
Nein? Die Entscheidungen müssen richtig sein. Sind sie das nicht, ist das ein Fehler, der zu einer Haftungsfrage führt. Wo ist da ein Widerspruch?
Du sagst das System darf keine Fehler machen. Du sagst es wird auf jedenfall zu Fehlern kommen. Das ist ein Widerspruch.

Und wo ist das Problem mit Haftungsfragen? Das wird geklärt und gut ist. Jeder der sich mit solchen Systemen beschäftigt weiß, dass Fehler unvermeidbar sind. Deine Forderungen sind unlogisch und absurd.
Ergänzung ()

Child schrieb:
Das heißt also ich hock mich in meinen Tesla mit FSD sag dem per Spracheingabe wo ich hin möchte und los geht's? Weil das ist es doch über das hier geredet wird - "autonom" fahren bedeutet im Volksmund: Level 5.
Irgendwann wird es das bedeuten. Was hier beschrieben wird ist, wie du sicherlich weißt, dass in einer bestimmten Situation unter bestimmten Bedingungen das Auto selbst fahren kann und keine unmittelbaren Eingriffe durch den Fahrer erwartet werden.
 
  • Gefällt mir
Reaktionen: #basTi
Zurück
Oben