News Tesla Vision: Model 3 und Model Y kommen ohne Radar in Nordamerika

Viele denken irgendwie, dass Radar oder Lidar den visuellen Systemen überlegen sind. Aber das ist absolut nicht der Fall. Gerade bei Wetter-Extremen (heftiger Regen, Hagel, Schnee etc.) stoßen diese auch komplett an ihre Grenzen und sind meistens weniger zu gebrauchen als eine "einfache" Kamera. Ein weiterer Nachteil von unterschiedlichen Systemen wie Kamera, Lidar und Radar ist die Sensor-Fusion, also das "mappen" von Bilddaten auf Punkte im Lidar oder Radar. Das zuverlässig und schnell hinzubekommen ist definitiv nicht trivial und sehr sehr Fehleranfällig. Hinzu kommen ja noch diverse IMUs und GPS Daten. Das alles miteinander zu kombinieren ist extrem schwer.

Der große Vorteil bei Kameras ist die einfache Kalibrierung der intrinsischen und extrinsischen Werte. Das ist seit Jahrzehnten ein gelöstes Problem und es gibt diverse Optimierungen wie einfache Bildverarbeitung (Bild-Magie ohne KI) etc.
Was auch ein Vorteil von Kameras ist: Man kann die Bilder erheblich Optimieren und aus hellen oder sehr dunklen Bereichen noch viel an Daten herausholen. Und Kamerasensor != Kamerasensor. Da gibt es gewaltige Unterschiede und je nach Anwendungsfall entsprechend optimierte Systeme.
Ein Beispiel wäre das Entfernen von Schnee- oder Regenfall im Videostream. Ich finde gerade nicht mehr das passende Paper (war glaube ich von Tesla oder Nvidia), wo das sehr eindrucksvoll demonstriert wurde. Das Paper hier zeigt das aber auch schon ganz gut.

Musks aussagen sind leider sehr of ziemlich überspitzt, wenn nicht sogar schon kindisch. Aber der Grundgedanke dahinter hat schon seine Berechtigung. Nur wie er es rüberbringt ist etwas fragwürdig. Musk ist ja nicht der einzige Kopf hinter der ganzen Sache. Andrej Karpathy ist inzwischen der treibende Faktor bei der KI und der Mann hats definitiv auf dem Kasten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hayda Ministral, gongplong, Magellan und 6 andere
Soviele Leute hier, die es nicht besser machen können und konstruktiv nichts dazu beitragen können. Bravo.

@Nozuka

Warum ein Bauteil mehr verbauen, wenn bereits verbaute Hardware ebenso dazu im Stande ist? Der Algorithmus muss nur trainiert werden. Mit dem letzten Update ist die Scheibenwischer-Automatik nahezu perfekt, ergoogle es dir selbst. Unkonventionell, aber ergibt Sinn.

BTT:

Das selbe wird die Tesla Vision betreffen. Tesla testet mittels Lidar und Radar-Testfahrzeugen die eigene Technologie gegen, das war auch die letzten Tage in den News. Sie vergleichen ihre eigene Technik ständig mit Alternativen und können so daraus lernen und die eigene Technik verbessern. Teslamodelle mit Lidar-Sensoren fahren zu Testzwecken schon recht lange herum.

Außerdem verfügt z.B. das Model 3 über 12 Ultraschallsensoren, welche zu weit mehr im Stande sind, als bloße Abstandswarnung beim einparken zu ermöglichen. Dies fließt ebenso in die Kalkulationen mit ein, bereits jetzt. Ein Model 3 kontrolliert permanent, auch ohne aktiven Autopiloten, die Abstände zu Hindernissen, Gehsteigen, anderen Fahrzeugen etc. in einem (dargestellten) Umkreis von rund 100-150cm vom Fahrzeug weg.

Ich denke, die Hater werden noch staunen ✌️
 
  • Gefällt mir
Reaktionen: nco2k
Davon halte ich nichts. Scheint eine reine Kostensenkungsaktion zu sein.
 
  • Gefällt mir
Reaktionen: M-X und Nacho_Man
Die werden getestet haben wie viel Gewicht die Informationen vom Radar tatsächlich in deren System haben. Lässt sich ja anhand von aufgezeichneten Fahrten simulieren. Scheinbar nicht so viel als dass sich der technische Aufwand lohnen würde.

Der Hautnachteil bei Kameras ist schlechte Sicht wegen Nebel, Regen, Gegenlicht etc. Einiges davon trifft auch Radar. Von daher ist der Benefit des zusätzlichen Systems vielleicht gar nicht so groß. Oder spitz ausgedrückt: Wenn beide Systeme nur bei Schönwetter verwertbare Daten liefern, warum nicht das billigere nehmen?
 
  • Gefällt mir
Reaktionen: Benj
KDKSenior schrieb:
Warum ein Bauteil mehr verbauen, wenn bereits verbaute Hardware ebenso dazu im Stande ist? Der Algorithmus muss nur trainiert werden.
Und wieso bleibt es bei Model S und X erhalten? Kann ich dir sagen:
Käufer in dieser Preisklasse sind noch weniger dazu bereit, Versuchskaninchen zu spielen. Daher wird man hier die Experimenten tunlichst unterlassen erst dann auf die Sensoren verzichten, WENN das rein Kamerabasierte System funktioniert. Ob und wann das ist, weiß vermutlich auch Musk nicht.

Und für die vergleichweise verwöhnten Europäer gilt natürlich das selbe. Daher gilt das erstmal nur für NA.

KDKSenior schrieb:
Außerdem verfügt z.B. das Model 3 über 12 Ultraschallsensoren, welche zu weit mehr im Stande sind, als bloße Abstandswarnung beim einparken zu ermöglichen. Dies fließt ebenso in die Kalkulationen mit ein, bereits jetzt.
Das ist bei anderen Herstellern auch so, hat aber mit dem Thema hier wenig zu tun, da wir du indirekt schon sagtest, die Reichweite sehr begrenzt ist.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Kitsune-Senpai, fullnewb, M-X und 2 andere
Xes schrieb:
Für mich als Laien klingt das weniger nach einem Problem: Das sollte sich doch mit einer mechanischen Lösung (wie beim Scheibenwischer) oder vermutlich besser mit einem Heizelement lösen lassen.

Für das spezifische Problem vielleicht schon, nur warum macht es kein Hersteller bis jetzt? Die Radarsensoren gibt es seit über 10 Jahren in Autos. Dieses Problem wurde aber nicht angegangen. Abseits davon haben alle Sensoren das Problem, dass die Strahlen durch Objekte wie Schneekristalle oder Regentropfen abgelenkt werden. So funktionieren ja bspw. auch Täuschkörper zu Abwehr von Raketen. Nimmt die Menge an Reflektionen bzw. Ablenkung zu kommen nicht mehr genug eindeutige Signale zurück.
Allerdings bezweifle ich, dass für diese Anwendungensfälle eine Lösung erarbeitet wird so bald. Wichtiger sind Fahszenarien die sehr häufig vorkommen. Schönwetter, leichter Regen, normaler Regen, leichter Schneefall.
Schneebedeckte Straße (kann heute noch keine verarbeiten!) erkennen und Sput halten.
 
Dazzel schrieb:
Viele denken irgendwie, dass Radar oder Lidar den visuellen Systemen überlegen sind. Aber das ist absolut nicht der Fall. Gerade bei Wetter-Extremen (heftiger Regen, Hagel, Schnee etc.) stoßen diese auch komplett an ihre Grenzen und sind meistens weniger zu gebrauchen als eine "einfache" Kamera. Ein weiterer Nachteil von unterschiedlichen Systemen wie Kamera, Lidar und Radar ist die Sensor-Fusion, also das "mappen" von Bilddaten auf Punkte im Lidar oder Radar. Das zuverlässig und schnell hinzubekommen ist definitiv nicht trivial und sehr sehr Fehleranfällig. Hinzu kommen ja noch diverse IMUs und GPS Daten. Das alles miteinander zu kombinieren ist extrem schwer.
Und nur weil es "schwer" ist, ist es ein guter Grund auf die paar Prozent mehr an "Sicherheit" durch mehrere voneinander anders bewertende Systeme zu verzichten?
SPEZIELL, wenn man von autonomen Fahren spricht (den expliziten Level der Autonomie mal vernachlässigt).
Da kann man drehen und wenden wie man will, da ist mehr Kostenaspekt dahinter als die Frage des "Sinns oder Unsinns" oder was der Elon einem da Weis machen will...

Tesla / Elon brüskieren sich doch in regelmäßigen Abständen Vorreiter von allerlei Technologien zu sein...
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Nacho_Man, chartmix und eine weitere Person
In meinen Augen eine völlig absurde Entscheidung, nur auf Kameras zu setzen. Es gibt diverse Szenarien, in denen man zusätzlich zu den Kameras Radar und / oder Lidar benötigt, um Gegenstände und deren Abstände zum Auto bestimmen zu können. Redundanz ist dann auch nicht mehr gegeben.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und foo_1337
tookpeace. schrieb:
und der mensch hat deswegen klare "Nachteile" wie bei der Fahrt zu ner tief stehenden Sonne :freak:
dafür braucht man kein lidar. für sowas gibt es filter. ausserdem werden die kameras an verschiedenen stellen positioniert und die KI kann dementsprechend ein räumliches bild erstellen, selbst wenn mal eine geblendet werden sollte.

HAse_ONE schrieb:
Und wie gut sehen wir im Dunkeln, bei Nebel, heftigem Schneefall etc.?
für die dunkelheit gibt es nachtsichtkameras. für schneefall wird es wohl etwas ähnliches geben. schliesslich kann man mit einer overcast schneebrille noch tiefste details erkennen. das einzige problem sehe ich bei starkem nebel. das auto wird aber ohnehin die geschwindigkeit drosseln, genauso wie der mensch auch.

Eneloop schrieb:
Der Mensch ist auch deswegen unzuverlässiger. Das Roboterauto muss viel zuverlässiger sein, damit überhaupt von den Kunden akzeptiert wird und von den Behörden zugelassen wird.
ja, weil der mensch nur zwei augen und eine langsame reaktionszeit hat. das auto hingegen hat mehrere kameras, die deutlich besser sehen können als wir und eine KI die deutlich schneller eine entscheidung treffen kann.

Benj schrieb:
Also ich habe noch einige mehr Sinne, die ich benutzen kann. Mikrophone, Beschleunigungssensoren, Geruchssensoren, etc.
aber kein lidar. und trotzdem hast du so lange ohne überlebt. das auto hat übrigens ebenfalls beschleunigungssensoren, mikrofone, etc. und alle davon sind deutlich präziser als deine sinne.
 
  • Gefällt mir
Reaktionen: surtic
nco2k schrieb:
warum? der mensch hat doch auch nur zwei "kameras".
ich hoffe die kameras können auch blinseln, falls mal etwas schnee oder staub auf der linse hängen bleibt.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Nacho_Man und Weyoun
Damien White schrieb:
Hinweis:

"Full Self Driving" ist kein Autopilot und lediglich auf Autonomie Level 2 Niveau, sprich das ist ein normales Fahrassistenzsystem wie man es auch in vielen anderen Fahrzeugen heutzutage findet.

Kameras, die bei schlechtem Lichteinfall andere Fahrzeugen nicht erkennen waren auch die Ursache für die aktuellen Todesfälle mit "FSD".
https://en.wikipedia.org/wiki/Tesla_Autopilot#Fatal_crashes

Das Fahrzeug hat den Trailer aufgrund der Lichtverhältnisse "nicht gesehen"

Dies ist ein klarer Schritt zurück.

Wenn schon zitieren und übersetzen, dann bitte komplett:

"neither autopilot nor the driver noticed the white side of the tractor-trailer"

Der Fahrer hat ebenso den Trailer NICHT erkannt und ebenfall nicht eingegriffen.

Jetzt also per se zu sagen, dass das Fahrzeug bzw. die KI allein die Schuld am Todesfall hatte, entspricht nicht der Wahrheit. Der Mensch hat hier ebenso aufgrund der Lichtverhältnisse und der fehlende Erkennung des Objekts einen Fehler begangen und das Ende kennen wir.

Wäre es ein normales Auto gewesen, wäre der Unfall wohl genauso passiert - da der Fahrer ebenso den Trailer aufgrund des Lichtes nicht erkannt hätte.

Das nur nebenbei.



on-Topic: Ein klarer Rückschritt und mal schauen, wie sich das auswirkt. Vor allem technisch ist es nur schwerlich nachvollziehbar. Nunja, dann werden die Modelle zu Schönwetter-Autos für bestimmte Tageszeiten wa. :D
 
DenMCX schrieb:
Und nur weil es "schwer" ist, ist es ein guter Grund auf die paar Prozent mehr an "Sicherheit" durch mehrere voneinander anders bewertende Systeme zu verzichten?
Ne stimmt schon. Aber ein Kosten-Nutzen-Faktor ist ja vorhanden. Da wird eben abgewogen, inwieweit sich das JETZT gut und sicher umsetzen lässt. In einem Talk hat Karpathy auch erwähnt, dass das Radar sehr viele False-Positives meldet. Diese müssen dann wiederum herausgerechnet werden. Da ist dann wieder die Frage, wer hat jetzt wirklich recht und wer nicht? (Stichwort Phantom-Breaking).

Ich sage ja nicht, dass man völlig auf diese Systeme verzichten soll. Aber ich kann die Entscheidung völlig nachvollziehen (nicht aus Kostensenkungsfaktoren). Ich bezeweifle sehr stark, dass das eine "aus dem Bauch heraus" Entscheidung war. Da wird viel an Research betrieben und getestet. Und offensichtlich hat sich dort herausgestellt, dass aktuell die Fehlerquote bei Vision-Only wesentlich niedriger ist als mit Radar.

Wie gesagt, mein Problem bei der Geschichte, auch auf Lidar bezogen, ist wie Musk das präsentiert und die aktuelle Lösung als DIE einzig Wahre und richtige hinstellt. Als Entwickler kann ich da nur die Augen rollen. Es gibt für kein technische Problem DIE eine Lösung und Herangehensweise. Es ist immer die Frage nach dem richtigen Tool und Zeitpunkt.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, fullnewb, Weyoun und 3 andere
Dass es vornehmlich um eine Kostensenkungsmaßnahme geht, erkennt man ja schon daran, dass nur in Nordamerika und nur bei den günstigen Modellen dahingehend vorgeprescht wird. Und das bevor die Software überhaupt "final" (eher "funktionsfähig") ist.

Inwieweit ein rein kamerabasiertes System auf lange Sicht funktioniert will ich gar nicht bewerten wollen da ich davon keine Ahnung habe. Aber: Teslas momentaner Börsenwert basiert mittlerweile zum Großteil auf der Annahme dass man mit Abstand führend bei autonomen Fahrfunktionen ist, und dass die Tesla-Flotte während ihres Lebenszykluses noch die Möglichkeit bekommt als "Robo-Taxi" wertschöpfend tätig werden zu können. WENN das passiert, und Tesla das EINZIGE Unternehmen ist dass das liefern kann, dann ist die Bewertung halbwegs berechtigt, da dann die Wertschöpfung pro Auto signifikant gesteigert werden kann.

Zu dieser Story passt der Verzicht auf Sensoren, nur um kurzfristig profitabel zu werden allerdings überhaupt nicht. Es kann sogar kontraproduktiv sein, denn wenn die Kundschaft den Glauben an autonomes Fahren verliert, werden immer weniger entsprechende Pakete zubuchen. Und diese Pakete sind jetzt schon (bevor sie besonders toll funktionieren) pures Gold für Tesla.
 
  • Gefällt mir
Reaktionen: Melkor03 und foo_1337
Das System arbeitet ja schon so perfekt, dass man es ohne Probleme weiter abrüsten und damit Geld sparen kann. ;)
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Kurze Übersicht:

Radar:
  • kann die Distanz (und somit auch Relativgeschwindigkeit) extrem genau schätzen
  • kann sogar verdeckte Fahrzeuge erkennen (aufgrund Reflektionen der Straße)
  • ignoriert quasi alle Sichtbehinderungen (Wetter , Licht )

- Geisterobjekte sind deutlich schwerer in den Griff zu bekommen als bei den anderen (Schachtdeckel, Leitplanke, etc.)
-seitlicher Versatz von Fahrzeugen ist etwas ungenauer (die Höhenschätzung auch)

Kamera:
  • extrem gute Schätzung des seitlichen Versatzes (und höhe)
  • Kann neben Positionsbestimmung unfassbar viele Informationen generieren die bei Prädiktionen hilfreich sind (Weil unser Verkehr ja offenkundig auf optische Informationen basiert)

-Distanz zu Fahrzeugen relativ ungenau
-Abhängig von Wetter und Lichtverhältnissen (weniger als man meinen möchte)

Lidar:
+"Etwas" robuster gegen Licht und Wettereinflüsse als Kamera (Kann immenroch geblendet werden, kann durch Nebel/Schnee gestört werden)
+genaue Distanzschätzung
~akzeptable Schätzung von seitlichem Versatz (Automotiv Lidar kostet 100-200€ )
-Kann Teilweise durch Lackierungen anderer Fahrzeuge beeinflusst werden

Lidar ist ein Mittelding zwischen Radar und Kamera und kann alles gut, aber nichts am besten. Es wird aber aus einem ganz simplen Grund kommen: Redundanz
Höhere Automatisierungen werden ohne redundante Daten vermutlich nicht die nötige Sicherheit erreich.
Zehn Kameras wie Tesla zu verbauen überwindet sensorspezifische Schwächen nicht.

Ein schönes Beispiel sind Autobahnbrücken bei Nacht/Gegenlicht, da Kamera relativ wenig sieht und Radar durch viel Stahlbeton Gefahr läuft Geisterobjekte zu erzeugen. Lidar hat in diesem Fall keins der beiden Probleme und kann "übernehmen" bzw. bestätigen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, fullnewb, nkler und 6 andere
projectneo schrieb:
Das ist nicht korrekt, bei Schneefall bilden sich am Stoßfänger Schneeschichten die die Nutzung verhindern.
Auch die genannten Geister sind sehr Kontraproduktiv für die Sicherheit.

Also am Stoßfänger bilden sich bei normaler Fahrt eigentlich keine wirklichen Schichten, zumindest nicht in den Ecken in denen die Sensoren verbaut sind. Anders beim ACC der genau in der mitte vorne verbaut ist, der kann wenn er offen verbaut ist eine zu dicke Schicht Schnee auf der Oberfläche bekommen und dann wird er blind. Aber viele neuen Fahrzeuge haben auch den ACC Sensor nicht mehr offen verbaut sondern hinter dem Stoßfänger und wenn dieser ausreichend "rund" oder abgeschrägt ist, dann sollte sich da kein Schnee sammeln können. Wenn man jetzt durch einen jahrhundert Blizzard fährt, dann kann das aber natürlich trotzdem vorkommen, kein System ist 100% gegen alles abgesichert.

Und klar die Geister sind kontraproduktiv. Aber genau deswegen ist bei einem Radarsensor die Software und das Tracking so extrem wichtig. Hier wird mit verschiedensten Algorithmen etc. eben plausibilisiert, dass diese Geisterziele nicht mehr beachtet werden. Und die Algorithmen sind schon sehr gut.
 
so_oder_so schrieb:
Wenn schon zitieren und übersetzen, dann bitte komplett:

"neither autopilot nor the driver noticed the white side of the tractor-trailer"

Der Fahrer hat ebenso den Trailer NICHT erkannt und ebenfall nicht eingegriffen.

Jetzt also per se zu sagen, dass das Fahrzeug bzw. die KI allein die Schuld am Todesfall hatte, entspricht nicht der Wahrheit. Der Mensch hat hier ebenso aufgrund der Lichtverhältnisse und der fehlende Erkennung des Objekts einen Fehler begangen und das Ende kennen wir.
Mir ging es darum zu zeigen, dass Kameras bereits heute bekannte Fehler haben. Das Menschen nicht perfekt sind ist klar, aber der Entschluss Radar/Lidar zu entfernen und nur auf Kameras zu setzen, welche die gleichen Probleme haben wie menschliche Augen, löst die obrigen Probleme nicht.

so_oder_so schrieb:
Wäre es ein normales Auto gewesen, wäre der Unfall wohl genauso passiert - da der Fahrer ebenso den Trailer aufgrund des Lichtes nicht erkannt hätte.
Mit Radar/Lidar, so wie es bei den meisten Herstellern zum Einsatz kommt, wäre dies nicht geschehen, da diesen Systemen die Sonneneinstrahlung und Farbe des LKW egal ist.

Bereits seit Jahren sind Daimler, BMW, Volvo und co hier Tesla um Längen überlegen. Deren Systeme hätten eine Vollbremsung eingeleitet und wären nicht mit Vollgas unter dem LKW hindurch gefahren.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Also jetzt wird auf eine Technologie ohne Redundanz gesetzt, die vor ein paar Jahren für einen tödlichen Verkehrsunfall verantwortlich war bzw. in der Situation versagt hatte.
Entweder scheint Tesla oder Musk das verdrängt zu haben oder haben den Schuss nicht gehört.

Ich hoffe, dass diese Fahrzeuge bei uns keine Zulassung bekommen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und Nacho_Man
Damien White schrieb:
Mir ging es darum zu zeigen, dass Kameras bereits heute bekannte Fehler haben. Das Menschen nicht perfekt sind ist klar, aber der Entschluss Radar/Lidar zu entfernen und nur auf Kameras zu setzen, welche die gleichen Probleme haben wie menschliche Augen, löst die obrigen Probleme nicht.


Mit Radar/Lidar, so wie es bei den meisten Herstellern zum Einsatz kommt, wäre dies nicht geschehen, da diesen Systemen die Sonneneinstrahlung und Farbe des LKW egal ist.

Bereits seit Jahren sind Daimler, BMW, Volvo und co hier Tesla um Längen überlegen. Deren Systeme hätten eine Vollbremsung eingeleitet und wären nicht mit Vollgas unter dem LKW hindurch gefahren.

Das ist mir bewusst, aber dein Zitat + das rausgepickte Beispiel mit nur halbem Inhalt sagt am Ende was anderes aus. Als Leser denkt man was anderes, als du aussagen wolltest.
 
Jyk schrieb:
Da ist wohl jemand die Technik zu teuer? Nur auf Kameras zu setzen halte ich für schwierig, da dann doch lieber die Kombination aus mehreren Systemen, ich würde jetzt nicht der Kamera in allen Situationen vertrauen.
So, jetzt stell dir mal vor 1000 Autos senden mit Radarfunk um sich herum. Dürfte für die Sensorik recht anspruchsvoll werden da die reflexion der eigenen Signale sowie deren laufzeit zu ermitteln.
 

Ähnliche Themen

Zurück
Oben