Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsTesla Vision: Model 3 und Model Y kommen ohne Radar in Nordamerika
Da ist wohl jemand die Technik zu teuer? Nur auf Kameras zu setzen halte ich für schwierig, da dann doch lieber die Kombination aus mehreren Systemen, ich würde jetzt nicht der Kamera in allen Situationen vertrauen.
Das sind Einzelfälle durch "Übermüdung", "Drogen", "Alkohol" oder Ablenkung durch Smartphones. Im Normalfall passiert sowas nicht wenn der Mensch darauf achtet.
Die Evolution hat diese Lösung gewählt und sie lag selten falsch.
Lidar war IMHO ein Notbehelf, um die Datenmengen die man verarbeiten muss vorzufiltern weil man die Kameradaten nicht verabeitet bekam. Wenn man diesen Filter nicht braucht, weg damit?
Zusätzliche Sonsorik kann man ja immer noch ergänzend einbauen. So wie wir uns in der Nacht mit Lampen behelfen.
Nun gerade an diesem wichtigen Punkt zu sparen ist echt eine schlechte Idee und die schlechtere Sicherheit könnte das vollautonome Fahren insbesondere hierzulande, wo die Politiker (mehr oder weniger zurecht) sehr vorsichtig sind was dies angeht, nur unnötig länger herauszögern.
Das möchte ich aus Erfahrung als Motorradfahrer ganz stark anzweifeln. Viele schaffen es nicht mal einfache Geschwindigkeiten und Abstände einzuschätzen. Manche Leute sind schon mit der Wahl der Fahrspur hoffnungslos überfordert, wenn Sie in der Stadt unterwegs sind. Wenn es eine Sache gibt, die ein Computer besser kann, dann aus Messgrößen Situationen richtig bewerten.
Gaspedal schrieb:
Das sind Einzelfälle durch "Übermüdung", "Drogen", "Alkohol" oder Ablenkung durch Smartphones.
2019 gab es in Deutschland 2,7 Millionen registrierte Verkehrsunfälle. Sind dann aber eine menge Einzelfälle. Alleine wenn man Themen wie Alkohol, Müdigkeit und allgemein Ablenkung ausschließen kann, sind das viele tausende Unfälle im Jahr, die nicht passiert wären. Im Gegenzug kann auch mal ein autonomes Fahrzeug Fehler machen. Aber da ist es dann immer ein riesen Aufschrei wenn was passiert. Autonome fahrzeuge werden auch nie zu 100% fehlerfrei sein.
Aber irgendwie haben manche das Verständnis, dass eine Technik erst perfekt sein muss, bevor sie eingesetzt werden kann. Sobald autonome Fahrzeuge weniger Fehler machen als Menschen ist es schon die überlegene Technik. Und davon sind wir nicht weit entfernt.
Gaspedal schrieb:
Erst wenn die Passagierflugzeuge ohne Piloten fliegen können, wären wir soweit.
machen sie heute praktisch schon. Dabei ist das reine fliegen eigentlich die einfachere Aufgabe. Aber auch die schwierigen Themen Start und Landung können mittlerweile vom Autopiloten ausgeführt werden. Mit bestimmten Flugzeugtypen ist die automatische Landung möglich, wenn alle Voraussetzungen erfüllt sind. Einen Autopilotstart könnte man auch theoretisch relativ einfach (einfacher als die Landung) umsetzen, verzichtet aber darauf, da man diese Systeme als Fallback nutzt. Ein Start ist aber niemals ein optionales Szenario. Da du rechtlich eh nur mit Pilot fliegen darfst, macht es wenig Sinn diesen Vorgang zu automatisieren.
So, jetzt stell dir mal vor 1000 Autos senden mit Radarfunk um sich herum. Dürfte für die Sensorik recht anspruchsvoll werden da die reflexion der eigenen Signale sowie deren laufzeit zu ermitteln.
Aus diesem Grund sind die eigentlichen Sensoren auch in einem Gehäuse untergebracht, welches Radarstrahlen nur innerhalb eines genau definierten Winkels passieren lässt. Da wird schon mal alleine durch das Gehäuse jede Menge "Mist" geschluckt. Den Rest muss die Software erledigen. Durch Plausibilisieren kann schon herausfinden, ob ein reflektiertes Signal von einem selbst kommt, oder einem Auto, das 50 m vor einem fährt. kompliziert wird es, wenn drei Autos nebeneinander fahren und somit auf ein und dergleichen Höhe fahren. Aber selbst hier sollte die Software, wenn man selber gerade auf der Mittelspur fährt, erkennen, dass zwei von den drei Signalen nicht "passen", weil die Reflexionen zu den Leitplanken nicht zu den erwarteten Reflexionen passen. Diese Plausibilisierung funktioniert natürlich nur unter Zuhilfenahme anderer Sensoren (in diesem Fall die optischen Kamera-Sensoren des Spurhalte-Assistenten, der weiß, auf welcher Spur das Auto gerade fährt).
Genau aus diesem Grund ist die Redundanz ja so wichtig. Der eine Sensor sichert den anderen ab.
Ergänzung ()
chartmix schrieb:
Wann kommt jetzt eigentlich das full self driving? Und ist das auch autonomes fahren nach SAE Level 4 oder 5?
Es kommt auf die Gesamtleistung pro m² an und da ist das in Summe gar nicht mal so viel, auch wenn auf der Autobahn 20 Autos in deiner Nähe gleichzeitig "strahlen".
Das Auto hat aber nicht nur 2 starr nach vorn gerichtete Kameras.
Das Model 3 hat nach vorne eine Tele, eine Hauptkamera und eine Weitwinkel, dann jeweils zwei Flankenkameras zu den Seiten nach vorn bzw. hinten sowie eine Heckkamera. Dazu dann noch 12 Ultraschallsensoren.
Insofern hinkt der Vergleich doch ziemlich.
Es ging darum, dass beim Mensch auch 2 Kameras "ausreichen" würden, wobei ich da natürlich korrigieren muss, weil diese dann ja schon recht flexibel sind (aber Bewegung relativ langsam).
Der Mensch kann die Situation immer noch besser einschätzen als ein Computer. Der Computer hat nur die Auswahl von Optionen den der Programmierer ihm zur Verfügung stellt. Eigentständige Intelligenz fehlanzeige.
Nicht mit Deep Learning, da werden Tonnenweise Daten gefüttert und basierend darauf entwickelt der SuperComputer eigenständig einen Algorythmus, da steckt kein (armer) Programmierer dahinter, der für alle mögliche Entscheidungen eine Zeile schreiben muss.
Nö nicht wirklich. Bei FMCW Radar sollte es da schon wenig Probleme geben die Chirps zu trennen. Vor allem wenn auch noch multiple Chirps über die Phase Codiert werden. Beim Einsatz von OFDM gibt's dann gar keine Probleme mehr, da ist jeder Chirp 100% identifizierbar und kann sogar zur Datenübertragung genutzt werden.
Heißt das, dass JEDER Sensor quasi mit einem eigenen "Code" die Radarwellen aussendet? Wo ist die technische (also wie viele verschiedene unterscheidbare Codes gibt es)? Unendlich dürfte es nicht sein. Beim Mobilfunk sind es in der Regel einige hundert bis tausend verschiedene Codes innerhalb einer Funkzelle. Wenn man Pech hat, besitzt der "Nachbar" auf der Spur neben einem den gleichen Code (ist nicht sehr wahrscheinlich, aber auch nicht unmöglich).
Was theoretisch aber möglich wäre (wenn wirkliche alle Autos innerhalb von 1.000 m miteinander via Mobilfunk miteinander kommunizieren und die gleiche "Sprache" sprechen würden): Die Autos einigen sich auf definierte Codes, damit niemand innerhalb 1.000 m die gleichen Codes einsetzt.
Ergänzung ()
Precide schrieb:
Nein, nicht in den Modellen die auf der Frontantrieb-Plattform aufbauen. (1er, 2er, X1, X2, Mini)
Da hat wohl jemand noch nicht genug Leute bei seinem öffentlichen Alpha-Test auf dem Gewissen...
Warum ist dieser fahrlässige und gefährliche Unsinn überhaupt erlaubt?
Was ist dann bei Nebel, Rauch und Sand (vor allem in trockenen Gegenden), starken Regen, oder starkem Schneefall oder ungünstige Sonneneinstrahlungen(Berg)?
Dann muss der Rechner die Geschwindigkeit an die Sichtweite anpassen, wie der Mensch auch. Und auch Kombinationen aus Kamera und Lidar muss das tun. Zwar kann das Lidar Objekte durch den Nebel erkenne, weiß aber auch nicht, was das Objekt letztendlich ist, bis es von der Kamera erfaßt werden kann.
Ziel des Autonomen Fahrens ist doch nicht, mit 200 Sachen durch den Nebel zu ballern.
Sagen wir mal so, der "Autopilot" von Tesla (maximal SAE-Level 2) und der "Full-Self-Driving" von Tesla (maximal Level SAE-Level 2,5) sind weit entfernt vom SAE-Level 4, den man jetzt in Deutschland in ein Gesetz gießen will.
Echter Level 4 wird ohne Redundanz nicht funktionieren. Nicht umsonst gibt es beim Flugzeug auch jede Menge Redundanz (nicht nur die Sensoren und deren Auswertelogiken sind dort redundant ausgelegt, sogar die Bordnetze, was beim Auto so noch gar nicht groß öffentlich diskutiert wurde).
Da hat wohl jemand noch nicht genug Leute bei seinem öffentlichen Alpha-Test auf dem Gewissen...
Warum ist dieser fahrlässige und gefährliche Unsinn überhaupt erlaubt?
Fahrlässig und gefährlich sind die Leute, die meinen, jetzt schon das Steuer komplett aus der Hand geben zu können.
Abgesehen davon ist es wie hier im Forum, wenn es um Hard- oder Softwareprobleme geht. Bekannt werden nur die Betroffenen des Fehlers, nicht wieviele Leute ohne Probleme einen Nutzen aus dem Neuen ziehen.
Sprich, wir wissen zwar, dass X Personen umkamen, weil sie dem Autopiloten idiotischer Weise das Fahren überlassen haben.
Was wir nicht wissen: Wie vielen Personen der Autopilot schon das Leben gerettet hat, weil er Fahrfehler des Teslafahrers korrigiert hat oder von anderen Teilnehmern ausgehende Gefahren schneller erkannt und entsprechend schnell reagiert hat. Das ist nämlich für die Medien vollkommen uninteressant. Und für viele Forenteilnehmer wohl auch.
Sicher hat das auch was mit kosteneinsparung (nicht umbedingt die Bauteile, viel mehr die Forschung und weiterentwicklung der Software in dem Bereich) zu tun, aber gibt es bei zwei verschiedenen Systemen die das selbe tun sollen nicht immer das Problem was tun, wenn sich die Systeme widersprechen? Kamera meldet Hindernis, Rader/lidar sagt ist alles ok oder eben umgekehrt. Bei reinen Kamerasystem kann man das viel einfacher über redundante Kameras lösen.
Redundanz muss nicht unbedingt sein. Wenn ein System ausfällt, wird das Auto an sicherer Stelle kontrolliert zum stehen gebracht, damit der Fahrer in Ruhe das Steuer übernehmen und manuell weiterfahren kann. Die Redundanz beim Flugzeug ist eher dem Umstand geschuldet, dass es runterfällt, sollte der Pilot bei einem Ausfall nicht entsprechend seiner Schulung reagieren und eingreifen. Da ist es schon sinnvoll, dass ein Zweitsystem übernimmt, bis der Pilot sich geordnet hat und entsprechend handelt.
aber gibt es bei zwei verschiedenen Systemen die das selbe tun sollen nicht immer das Problem was tun, wenn sich die Systeme widersprechen? Kamera meldet Hindernis, Rader/lidar sagt ist alles ok oder eben umgekehrt. Bei reinen Kamerasystem kann man das viel einfacher über redundante Kameras lösen.
Das Problem hast du auch bei zwei Kameras. Wenn eine ein Hindernis meldet, die zweite nicht, dann musst du dich auch entscheiden, was du machst.
Bei Unterschiedlichen Sensoren hast du aber weitaus mehr Daten zur Analyse der Situation, so dass du aus unterschiedlichen Quellen durchaus eher ein realistisches Bild bekommst.
Ist beim Menschen auch nicht anders. Nur weil deine beiden "Kameras melden" diese Flüssigkeit sieht wie Wasser aus, ist es noch nicht so sicher, das es auch wirklich Wasser ist. Mit zusätzlichem Geruchsinn kannst du z.B. schon mal Wasser von Essigessenz unterscheiden.
Aus den Daten vom Radar Sensor / Entfernungsmessung über Lidar und Kamera kann man eher auf die echte Situation schließen, als wenn man nur die Kamera hat.
Ist auch von mir ernsthaft geantwortet. https://de.wikipedia.org/wiki/Autonomes_Fliegen
Die eigentlichen Schwierigkeiten sind ja nicht das es grundsätzlich technisch nicht geht, sondern rechtliche Rahmenbedinungen und die Akzeptanz (insbesondere dass auch autonome System Unfälle bauen).
Im Endeffekt ist mit GPS vorprogrammiertem Flugweg und automatischer Flugsteuerung ja schon alles da.