Bericht Drive Pilot: Neue S-Klasse fährt mit Level-3-System bis 60 km/h allein

Der Unterschied liegt beim Entscheidungszeitpunkt.

Mensch und KI werden ad hoc mit der Situation konfrontiert. Der Mensch hat dann Millisekunden für seine Entscheidung. Die Maschine agiert jedoch auf Entscheidungsgrundlagen, die vorher andere Menschen mit "aller Zeit der Welt" am Schreibtisch ausgetüfftelt haben.

Die Gesellschaft wird hier logischerweise andere Anforderungen an die "Richtigkeit" der Entscheidungen stellen und das zurecht.
 
  • Gefällt mir
Reaktionen: dampflokfreund und holdes
Ja natürlich, welche das aber auch immer sein werden, wenn sie einmal programmiert sind dann wird die Maschine immer schneller entscheiden können und wenn gewollt sogar nach viel mehr Gesichtspunkten als nur dem Alter (vllt. Krankheiten etc.). Das sehe ich dem Menschen, seiner Entscheidung und letzendes Reaktionszeit bis zur Aktion meilenweit voraus.
 
  • Gefällt mir
Reaktionen: Bright0001 und dampflokfreund
Mir ist bei dem Foto wieder Mal aufgefallen, wie sehr diese Touchscreens die Augen vom Verkehr ablenken. Warum nicht zuschaltbares Heads-Up Display mit Touchpad oder ähnlichem am oder im Lenkrad? Gerade die S Klasse ist teuer genug um Touchscreens zum Nutzen durch Beifahrer und Mitfahrer relegieren; wenn Mercedes Designer Anregungen brauchen, empfehle ich u.a. die Controller von Konsolen; die sind darauf ausgelegt, blind bedienbar zu sein, man will ja nicht vom Monitor wegschauen.
 
Binalog schrieb:
Ist das nicht ein Vorteil der KI dann? Als Mensch ist es durchaus üblich, in absoluter Panikreaktion falsche Entscheidungen zu treffen. Die KI hätte das Problem nicht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Rockstar85 und holdes
Das ist im Falle des Falles dann auch psychisch für den Betroffenen besser zu verarbeiten wenn dein Auto sich entschieden hat denjenigen zu nehmen als sich bis zum Rest des eigenen Lebens zu fragen wieso habe ich nicht anders reagiert. Was mich mal unabhängig davon interessieren würde: wie sieht’s denn im maximal Level aus? Die Dinger brauchen dann ja keinen Piloten mehr, sprich ich ruf mein Auto und das kommt mich dann aus vllt. 50km Entfernung abholen. Was wenn es unterwegs solche Probleme hatte? Bekomm ich davon überhaupt etwas mit? Kann ja gut sein, dass es auf dem Weg zu mir eine Katze überfahren hat und begeht dann von selbst Fahrzeugflucht.
 
ThePlayer schrieb:
Ich glaube abgesehen vom Stau würde ich Level 3 und höher im Auto nicht nutzen.
Dafür macht mir Autofahren zuviel Spaß. Aber das AR System von Merceds macht echt was her.
Ich finde die Automobil Branche hat sich mit den SUVs und Autonomen fahren in die falsche richtung entwickelt.
Statt sich auf die wirklich wichtigen Dinge zu konzentrieren. Wie leichte und sichere Autos die auch noch weniger verbrauchen und neue Antriebe nutzen wie E-Mobilität.

Erstmal: Leicht, sicher, elektrisch und autonom schließt sich gegenseitig nicht aus, die Konzentration auf ein Thema hilft der anderen Disziplin nicht. Automobilentwicklung ist längst ein hochgradig parallelisiertes Unternehmen. Schau dir mal den i3 an: Der erfüllt bis auf den Punkt "autonom" bzw. vollgepackt mit Assistenz genau die Punkte die du forderst (okay, im Stau bis 60km/h fährt er auch in Level 2). Und hat auf seiner Grundfläche auch einen enormen Nutzwert.

Und du setzt der beliebten Pseudoargumentation auf, dass du nicht mehr fahren dürftest. Solche Assistenten (oder "Piloten") sind dafür da, dich dann von der Fahraufgabe zu befreien, wenn du gerade nicht fahren möchtest. Im PKW ist sowas immer optional, ansonsten hättest du keinen PKW mehr, sondern einen Bus. Und der hat ganz andere Designanforderungen.

Lusche1234 schrieb:
Da muss dringend nachgearbeitet werden. Denn da hat sich die letzten 10 - 15 Jahre nichts getan, außer, das zusätzliche Assistenten (wenn man sie so nennen kenn, mich nerven sie eher) eingeführt wurden. Die Technik wurde aber so belassen. Ich würde mich da bei Level 3 auf gar nichts verlassen, sorry!

Das stimmt so nicht. Viele Assistenten arbeiten bereits heute in den gesetzlichen Grenzen, aber eben nicht darüber hinaus. Das ist ein echtes Problem dabei, bestehende Systeme zu verbessern. Aber auch der Punkt, wie man denn ein automatisches Notbremssystem verbessern kann - wie mache ich das denn sichtbar oder erlebbar? Wenn ich mal den Zulieferer-Hut aufsetze: Wo ist der Mehrwert für den Kunden (OEM), damit er das dem Endkunden schmackhaft machen kann? Am Ende steht doch nur "Notbremsfunktion" auf dem Datenblatt, und die kann jeder. Die kann in der NCAP-Testserie dann auch jeder...

Averomoe schrieb:
Sobald ich das Schema verlasse (scharfe Kurve, plötzliche Bewegung des Fahrers schräg vorne) übernehme ich sofort Gas, Pedal und Lenkead dann auch mit beiden Händen.

Joa, wie bei Level 2 halt üblich.

KlaasKersting schrieb:
Als ich im Urlaub mal ein Model S als Leihwagen hatte, habe ich auch den Autopiloten getestet und fand das Feature sehr anstrengend.

Tesla fährt aber nicht Level 3.

Tesla Autopilot ist an der Stelle sehr mitteilungsfreudig, man merkt selbst heute zwischen den Updates die Verbesserungen im Fahrverhalten. Ich will nicht wissen, wie das vor ein paar Jahren im Alltag war.
Ich weiß noch, dass wir anno 2015 mit einem Model S durch die Gegend gefahren sind, Autopilot ließ sich in der Stadt aktivieren und bei etwas engeren Kurven als auf der Autobahn ist das System einfach aus gegangen. Ohne entsprechend erfahrene Fahrer (mit Prototypenschein...) hätte das Blech sicherlich gelitten.

Rickmer schrieb:
Hätte ich mich auf Level 3 verlassen (hat er nicht, weiß ich) und Youtube geschaut, wäre das ein Unfall gewesen.

Mit der engen Spur einer Baustelle ist er auch unzufrieden, das merkt man am Flattern vom Lenkrad. Besser selber fahren.

Du hattest aber kein Level 3. Level 3 hat einen begrenzten Einsatzbereich, damit ist vordefiniert ob du so fahren darfst. Bei Level 2 bist du als Fahrer verantwortlich für das System und ob du es in Bedingungen wie den oben genannten aktivierst oder nicht.

Coenzym schrieb:
Wie ist es bei den 2020 Teslas, haben die mittlerweile level 3?

Nope. Die lesen noch nicht mal Schilder.

corvus schrieb:
Ich persönlich halte von all dem weiterhin nichts und will mich auf solche Systeme nicht verlassen.

Wie beim Elektroauto: Ausprobieren hilft bei der Meinungsbildung.

borizb schrieb:
Da die Alten bei uns in der Gegend überraschend oft einen Daimler fahren, wäre das ne feine Sache.

Wenn nicht der Enkel die Systeme vorsorglich abgestellt hat...wie die "ich kenn mich mit Computer aus"-Dudes, die als erstes mal Windows-Updates deaktivieren und dafür "Tuning-Software" installieren.

Oneplusfan schrieb:
Mal vorausgesetzt es kommt wieder ein Nvidia SoC zum Einsatz, was könnte das für eins sein?

Xavier. https://www.nvidia.com/de-de/autonomous-machines/embedded-systems/jetson-agx-xavier/

nicoc schrieb:
Ist den die Frage, wer bei einem Unfall die Verantwortung trägt, schon geregelt? So lange die Verantwortung beim Fahrer liegt, würde ich mich nicht in so eine Kiste setzen.

Natürlich und natürlich beim Hersteller während der Level 3-Funktion.

wille1277 schrieb:
Na bei Level 3 der Hersteller. Das ist doch der Kern der ganzen Sache... Level 3 ist hauptsächlich ein rechtliches Thema, soweit ich weiss.

Jein. Es gibt auch eine technische Dimension. Bei Level 3 kommt der Faktor "Operational Design Domain" dazu, so ein System hat einen sehr genau definierten Einsatzbereich und Randbedingungen.

DJMadMax schrieb:
"Blablub autonom bis 60 kmh" ... und dann im Titelbild erstmal auf der Autobahn rumgurken, Hände nicht am Lenkrad, im Geiste mit dem ach so tollen Infotainment-Mist beschäftigt

Darf man bei Level 3 ja auch. Ist ja nicht Level 2 wie bei Tesla.

uburoi schrieb:
Wenn man in wenigen Jahrzehnten ohnehin nur noch fernsieht oder daddelt beim "Fahren", stellt sich einmal mehr die Frage, ob ein gut ausgebauter Nahverkehr nicht sinnvoller wäre – wogegen sich die Automobilindustrie natürlich mit Händen und Füßen wehren wird.

Jeder Zulieferer, der was auf sich hält entwickelt gerade an Shuttle-Projekten: https://www.hochbahn.de/hochbahn/hamburg/de/Home/Naechster_Halt/Ausbau_und_Projekte/projekt_heat

Das Thema "MOIA" ist ja massiv von VW getrieben.

Hellblazer schrieb:
Interessant. Audi hat dieses Jahr beim A8 Level 3 ja komplett gestrichen, weil der Hersteller bei einem Unfall haftet (laut Audi: "fehlende Rechtsgrundlage"). Da hatten angeblich die Audi-Anwälte bedenken...

Eigentlich nicht. Ich kenne einige, die an dem Projekt beteiligt waren, effektiv wurden AUDI seitens der Behörden massive Steine in den Weg gelegt, weil sie das nicht zulassen wollten und dann immer wieder neue Anforderungen erfunden haben. Diese wurden dann mit enormem personellen Aufwand erfüllt, bis dann wieder was neues kam. Letztendlich war das System so viel später fertig, dass man den Aufwand zur endgültigen Integration nicht mehr leisten wollte. Das Auto wird immerhin seit 2017 verkauft, die vier Jahre Zyklus bis zur "Produktaufwertung" sind fast vorbei. Dazu gibt es die in der Industrie weit bekannten Probleme mit dem zentralen Assistenzcomputer, welcher für die Aufgaben falsch kalkuliert war. Vermutlich wartet man da eher die neue Generation an Chips (wie bei Daimler) ab.

MujamiVice schrieb:
Wenn das in Level 3 fahrende Auto aufgrund eines für den Fahrer unvorhersehbaren Fahrmanövers einen Unfall baut, bezahlt dann der Hersteller den Schaden, ich bin ja nicht selbst gefahren und das Fahrzeug hat auch nicht darauf hingewiesen, dass es das tut?

Das Level-3-Fahrzeug benötigt zwingend eine Blackbox, die für die Behörden und Versicherungen die Frage der Kontrolle nachweisen kann. Und wie schon vorher gesagt: Bezahlen tut das die Versicherung.
Aber: Bei Level-3 ist der Hersteller in der Haftung, die Übergabe an den Fahrer erfordert einige Sekunden Zeit und der Fahrer kommt dann in die Haftung, wenn sobald er die Kontrolle übernommen hat - oder wenn er nach ausreichend langer Aufforderung die Kontrolle nicht übernimmt.

Gordon-1979 schrieb:
Aha, das ist laut dem letztem Richterspruch nicht zulässig:
https://winfuture.de/news,117437.html

Fun fact: Gestern hatte ich einen Polo vor mir, bei dem die Fahrerin ein Smartphone in einer Halterung vor sich hatte. Nur dass statt dem Navi da YouTube lief...und sie natürlich mit >50km/h durch die Stadt gefahren ist und sie natürlich ihre Spur verlassen hat.

Die Tesla-Geschichte ist mehrerelei Hinsicht bemerkenswert: Der Fahrer will an seinem Model S statt dem Drehknopf am Blinkerhebel die Funktion am Display verstellt haben. Erfahrungsgemäß geht diese Einstellung ohne jede Form von hingucken, das ist im Augenwinkel....und ja, die Entscheidung ist insofern richtig, dass auch bei fest verbauten Geräten die Ablenkung anerkannt wird.

Aber: Kein Tesla fährt Level 3!

C4rp3di3m schrieb:
Neben mir Auto also blieb nur ein leichter Schlenker auf die Pannenspur, das alles passierte in einem Augenblick. Ich glaube nie im Leben das ein Computer so reagiert hätte.

Das dürfte er gar nicht, weil er nach UNECE die Spurmarkierung nicht überfahren darf.

C4rp3di3m schrieb:
Was ist wenn ein Unfall nicht mehr zu vermeiden ist? Z.B. drei möglichkeiten Frau überfahren, Kind überfahren oder selbst gegen eine Wand fahren. Wie entscheidet ein Computer wer dann Überleben darf?

"Der Computer" entscheidet sich genau so, wie er programmiert wurde. Allerdings müsste er erstmal in diese Situation kommen - im AD-Fahren zünden Deeskalationsstufen schon deutlich früher und du hast in der Realität die Möglichkeit zu deeskalieren und zu migitieren (bremsen) im Gegensatz zum Trolley-Problem, wo du davon ausgehst dass jede Entscheidung alternativlos tödlich ist.
Beispiel: Wenn ich im Autonomen Bus stehende Fahrgäste habe, könnte ich diese durch eine Notbremsung gefährden. Der menschliche Busfahrer denkt daran weniger, im AD-Fahren ist das aber eine relevante Größe. Daher muss die Geschwindigkeit bei der Detektion stehender Fahrgäste eine Schwelle nicht überschreiten, bei der gefährliche Verletzungen zu erwarten sind.
 
  • Gefällt mir
Reaktionen: Rockstar85, Hellblazer und Averomoe
dampflokfreund schrieb:
Ist das nicht ein Vorteil der KI dann? Als Mensch ist es durchaus üblich, in absoluter Panikreaktion falsche Entscheidungen zu treffen. Die KI hätte das Problem nicht.
Aus juristischer Sicht ganz heikel. Ottonormalverbraucher ohne Vermögen, der im Affekt eine falsche Entscheidung getroffen hat ist für Anwälte wahrscheinlich weniger interessant als ein liquider DAX-Konzern, der ein fehlerhaftes Produkt in Umlauf gebracht hat.
 
Gordon-1979 schrieb:
Ob autonomen fahren oder nicht, der Fahrer hat zu 100% den Verkehr zu bewachen.
🙈 Vollautonomes fahren ist ja explizit so definiert, dass (menschliche) "Insassen" eben gar keine Fahrer mehr sind. Somit hat er auch keiner von denen den Verkehr zu überwachen.
Manche haben offensichtlich eine sehr verquere Vorstellung von autonomen Systemen...

Binalog schrieb:
Ja genau Ethik. Wenn morgen ein Mensch zwischen zwei parkenden Autos auf die Straße und mir direkt vor's Auto läuft, dann werde ich natürlich erst mal ganz bewusst eine ethische Abwägung vornehmen, bevor ich reagiere. Nicht dass meine Reaktion eine unethische ist :freak:

Diskutieren hier eigentlich hauptsächlich Fußgänger? :D
Ergänzung ()

Binalog schrieb:
...der ein fehlerhaftes Produkt in Umlauf gebracht hat.
Sobald vollautonome Fahrsysteme zugelassen werden, werden deren Spezifikationen, Algorithmen und Parameter innerhalb deren sie funktionieren vollständig dokumentiert und den Behörden vorgelegt werden.
Wenn dann eine vollautonome KI einen Unfall baut, obwohl sie innerhalb dieser Parameter funktioniert hat, dann wird es keinen Schuldigen im eigentlichen Sinne geben. Und schon gar nicht irgendwen den man erfolgreich verklagen könnte. Dann wird das einfach nur ein Unfall sein der von einer Versicherung geregelt wird.
 
  • Gefällt mir
Reaktionen: Bright0001
Sophisto schrieb:
(...)Sobald vollautonome Fahrsysteme zugelassen werden, werden deren Spezifikationen, Algorithmen und Parameter innerhalb deren sie funktionieren vollständig dokumentiert und den Behörden vorgelegt werden.
Wenn dann eine vollautonome KI einen Unfall baut, obwohl sie innerhalb dieser Parameter funktioniert hat, dann wird es keinen Schuldigen im eigentlichen Sinne geben. Und schon gar nicht irgendwen den man erfolgreich verklagen könnte. Dann wird das einfach nur ein Unfall sein der von einer Versicherung geregelt wird.
Genau das wird m. E. die Gesellschaft anders sehen.
 
Binalog schrieb:
Genau das wird m. E. die Gesellschaft anders sehen.
Und weiter? Die Gesellschaft sieht öfter mal was anders als der Gesetzgeber oder Gerichte.
Wenn autonome Fahrsysteme weniger Unfälle verursachen als menschliche Fahrer, und darauf wird ja hingearbeitet und so wird es auch irgendwann kommen, dann ist es irrelevant wie die "Gesellschaft" einzelne Unfälle/Situationen bewertet.
 
  • Gefällt mir
Reaktionen: new Account()
Zugegeben, hab‘ den Artikel nur überflogen, aber was ist jetzt so neu daran? Skoda bietet das im neuen Oktavia auch an mit dem Stauasistenten bis 60 km/h :confused_alt:
 
Ein totes Kind "bewusst" überfahren von einer KI und die Hölle wird über den Hersteller hereinbrechen. Es ist eben nicht irrelevant was die Gesellschaft bewertet, denn die Gesellschaft besteht aus Konsumenten und Wählern.

Das Fussballregelwerk ist eigentlich eindeutig, doch selbst auf dieser Basis wird über Elfmeterszenen (aufgenommen aus fünf Perspektiven in Superzeitlupen-HD) heftig gestritten.

Ich befürchte, dass die Vorlage von 10 GByte Programmcode nicht dazu führen wird, dass die aufgebrachte Menge sagt "Ach so, na dann.".
 
Schraube24 schrieb:
Skoda bietet das im neuen Oktavia auch an mit dem Stauasistenten bis 60 km/h :confused_alt:
Steht vorne im Text, am Anfang erstmal ein Level2 System wie im Skoda aber später wird’s ein Level3 Upgrade geben ;).
 
  • Gefällt mir
Reaktionen: Schraube24
B.XP schrieb:
Und du setzt der beliebten Pseudoargumentation auf, dass du nicht mehr fahren dürftest. Solche Assistenten (oder "Piloten") sind dafür da, dich dann von der Fahraufgabe zu befreien, wenn du gerade nicht fahren möchtest. Im PKW ist sowas immer optional, ansonsten hättest du keinen PKW mehr, sondern einen Bus. Und der hat ganz andere Designanforderungen.
Ja stimmt schon ich kann fahren wann ich will. Aber dafür kaufen und fahren plötzlich Menschen ein Auto die sonst nicht oder kaum fahren. Ich kenne so einige Leute die einen Führerschein haben. Aber aus Angst nicht fahren. Somit würde das Autonome Auto nur den Individual verkehr verstärken. Und wenn die Autos komplett alleine fahren können, braucht der Eigentümer dann noch einen Führerschein? Es gibt ja sogar Untersuchungen zum Car Sharing, mit dem Ergebniss das es denn Verkehr nicht entlastet sondern das Leute die Autos nutzen um 2-5km mit dem Auto zu fahren statt auf Bus und Bahn zu setzen. Ich hatte einen Kollegen im Büro der das regelmäßig gemacht hat. Und sich dann darüber geärgert hat das er dann trotzdem 5 Minuten länger braucht als mit der Bahn von der Arbeit nach Hause.
Und deswegen denke ich das man sich auf Alternative und effizientere Antriebe sowie leichter Autos konzentrierten sollte. Statt die Autos mit noch mehr Technik voll zu stopfen. Das macht die Autos wieder schwerer. Somit steigt der Verbrauch.
Aber was Rede ich, die Hersteller wissen schon was das richtige für uns ist. Hust SUV, überlege auch einen zu kaufen weil der so toll ist. Auch wenn ein Kombi oder ein Renault Espace es auch tun würde. Aber so ein X5 oder besser der X7 für eine Familie mit Hund sieht doch so toll aus in der Werbung. Tja hier versagt der Markt halt und sollte reguliert werden.
 
dampflokfreund schrieb:
100 Jahre? Lol. Mach mal 8 Jahre draus.

Das Level 5 autonome Fahren wird schneller kommen, als die meisten es erahnen können!

Ich rede von der breiten Masse, eine grosse Abdeckung hat. Wie bei Smartphones, am Anfang hatte nicht jeder eins, heute hat man zwei davon.
 
Binalog schrieb:
Ein totes Kind "bewusst" überfahren von einer KI und die Hölle wird über den Hersteller hereinbrechen. Es ist eben nicht irrelevant was die Gesellschaft bewertet, denn die Gesellschaft besteht aus Konsumenten und Wählern.
Du setzt es ja selbst noch in Anführungszeichen. Keine KI überfährt "bewusst" irgendwen!
Eine KI wird ein Fahrzeug immer so steuern, dass sie bei allen überschaubaren Risiken rechtzeitig bremsen und anhalten kann.
Ein Kind, oder wer auch immer, das einenmeterfünfzig vor einem mit 50 km/h herannahenden Fahrzeug auf die Straße springt, das wird höchstwahrscheinlich überfahren. Sowohl von einem Fahrer, als auch von einer KI.

Und Konsumenten die das Fahrzeug von Hersteller xyz nicht mehr kaufen aus Grund abc, sind etwas anderes als eine rechtliche Beurteilung.
 
Wenn man das Titelbild mal genauer anschaut und auf die Dame achtet und auf das was sie da so tut und vor allem wo sich der Wagen befindet nicht außer Acht lässt, dann wird einem sehr schnell klar, dass die ganzen Assistenzsysteme inzwischen ein !MUSS! sind da das "Fahren" inzwischen alles andere als "fahren" bzw. den Wagen vorrausschauend "lenken" geworden ist. Finde ich persönlich nicht lustig da leider auch sehr viele "Fahrer" (eher Blindgänger) das auch ohne die Helferlein so handhaben. Ich hoffe diese Systeme kommen dann so schnell wie möglich auch ausgereift in der Mittel- und Einsteiger- Klasse.
 
Sophisto schrieb:
(...)Und Konsumenten die das Fahrzeug von Hersteller xyz nicht mehr kaufen aus Grund abc, sind etwas anderes als eine rechtliche Beurteilung.
Darum ging es aber in meinem Beitrag, deshalb habe ich auch von der Gesellschaft gesprochen und nicht von Gerichten.

Ungeachtet dessen halte ich persönlich es bis auf Weiteres für ausgeschlossen, dass es staatlich geprüfte/abgesegnete "Überfahrkriterien" geben wird.

Nachtrag: https://de.wikipedia.org/wiki/Augenblicksversagen

Dieses wird m. E. weder die Gesellschaft noch ein Gericht einer KI zubilligen.
 
Zuletzt bearbeitet von einem Moderator:
Ja, fährt das Deutschland-Superklasse-Auto nun voll-elektrisch oder nicht? Das konnte ich jetzt nicht aus dem Artikel herauslesen. Wenn es ein Verbrenner ist, können sie ihren Autonom-Level sich sonst wo hinbauen.
 
  • Gefällt mir
Reaktionen: new Account()
Zurück
Oben