TheCounter schrieb:
Interessant wird zu sehen sein, wann Mercedes und Co. mal ein System bringen, dass wie FSD auch in der Stadt etc. selbständig fahren kann.
Die deutschen Hersteller gehen da ja einen anderen Weg, bei dem wohl nur spezielle Fahrzeuge unter bestimmten Sicherheitsbedingungen in der Stadt autonom fahren dürften. An eine Open Beta wie bei Tesla glaube ich bei uns nicht.
Ich versuche mal das so zu formulieren: Es gibt bei Tesla einige Punkte, die man am besten über Antipattern beschreibt. Da wäre einmal das "Blendwerk", was aber offensichtlich sogar als solches gut ankommt. Dann gäbe es natürlich den "Golden Hammer" (mehr Kamera, mehr KI...), "not evented here" (eng verwandt mit der "vertikalen Integration", die wiederum KEIN Antipattern ist), in diesem Fall aber die Featuritis, in der Bedeutung dass neue Features vor Vollständigkeit oder Zuverlässigkeit liegen.
Tesla schraubt jetzt zwei Jahre an Navigate@CityStreets herum, nachdem sie eigentlich das Problem lösen wollten, dass sie bei Navigate on Autopilot nicht mehr weiter kamen und die allgegenwärtigen Phantombremsungen mehr und nicht weniger wurden. Nur hat sich dabei im wesentlichen eine Sache geändert: Um die Schilderkennung, NoA und TACC kümmert sich niemand mehr, die Autos fahren im wesentlichen seit zwei Jahren mit unfertiger Abandonware vom Band. Stattdessen bekommt das Model S ein neues UI - ein Auto was in homöopathischer Dosis ausgeliefert wird, mit "Pure Vision" sind die Phantombremsungen noch mehr statt weniger geworden, alle Welt hofft auf die Erlösung durch den Rollout von FSD, nur dass die Punkte an denen es schmerzt nie gefixt wurden, da man neues Zeug für die City-Funktion implementiert hat.
Daimler geht eben weniger in die Breite und mehr in die Tiefe. Das bedeutet: Weniger Features, dafür zuverlässig.
Und ja, Phantombremsen gibt's bei nicht-Teslas auch. Aber halt nicht alle 30-50km bei nennenswertem Verkehr.
latiose88 schrieb:
dann brauchen wir wirklich ein System das ein Menschliches Gehirn nachemfpinden kann.Dafür braucht es aber ne verdammte gute Hardware. Und auch die Technik die es noch nicht zu kaufen gibt ebenso.Bin gespannt wann es eine Maschine gibt die so wie ein Mensch denken kann.
Ich möchte hier mal eben in Zweifel stellen, ob der reine elektronische Nachbau von Gehirnstrukturen überhaupt zielführend ist. Letztlich holt man sich durch die Implementierung einer ähnlichen Lösung eben auch ähnliche Probleme auf den Tisch. Also: "Denken" über Wahrscheinlichkeiten, Resultate mit Unsicherheitsfaktor.
Wenn ich eine analytische Lösung für 2+2 brauche, dann ist die auf Logik beruhende Antwort 4. Wenn ich eine KI auf das kleine Einmaleins trainiere kann es - etwas übertrieben - passieren, dass die Antwort lautet "mit einer Wahrscheinlichkeit von 80% ist der Wert 5".
TheCounter schrieb:
Bis das ganze Mal so weit wie die FSD oder Waymo ist, vergehen sicherlich noch 10-15 Jahre. Denn dafür haben die Deutschen die letzten 20 Jahre einfach viel zu viel verschlafen.
Ist das so? Man vergebe mir meinen Bias, aber ich sehe etwas hinter die Mauern und da kochen alle mit Wasser. Nur die einen haben einen Wasserkocher mit leiser, automatischer Abschaltung und die anderen einen Wasserkessel mit Pfeife.
Alleine der Forschung nach zu gehen ist der einzige Markt, in dem autonome PKW eine rolle spielen die USA. Der Rest der Welt setzt auf den Einsatz im öffentlichen Verkehr.
Nore Ply schrieb:
Da kommt dann das Mobilfunknetz ins Spiel. Eine aktuell gehaltene Karte erlaubt die Entscheidung und Vorbereitungen schon sehr weit vor der eigentlichen Baustelle zu treffen .
Muss nicht zwangsweise Mobilfunk sein. C-V2X kann das alles dezentralisiert. Ob 802.11p, LTE oder die verschiedenen 5G-Varianten spielt dabei keine Rolle; aber das nur am Rande.
Das Thema "Karte" ist relativ heiß. Für einige bedeutet "Karte" die digitale Form dessen, was sie noch auf Papier bekommen. Amtlich vermessen, alle 10 Jahre aktualisiert und bei Veröffentlichung veraltet. Bei HD-Karten kommen ganz andere Aspekte zum Tragen: Hier ist das eine gemeinsame Austauschbasis, die über Schwarmwissen mit Daten angereichert und plausibilisiert wird. Das muss im Prinzip nicht mal über die Hersteller-Datenbank gehen; Das kann ein simpler Broadcast sein, bei dem andere Fahrzeuge im Umkreis etlicher Kilometer vor Wild am Fahrbahnrand gewarnt werden.
holdes schrieb:
Ein Absturz der Kfz Software muss ja nicht zwangsläufig einen Unfall provozieren.
Kommt auf die Risikobewertung an. Wenn der Absturz deiner Software z.B. einen Airbag zündet ist das hochriskant. Die Grenzen innerhalb der Risikobewertung für Exposure, Severity und Controlability sind relativ eng für die nächsthöhere Einstufung im Rahmen der funktionalen Sicherheit.
aibe schrieb:
Tesla strebt genau das an. Bspw. int8 Quantifizierung, womit ja neuronale Netzwerke lernen. Hier ist der Ansatz nur über die Kameras zu gehen und somit muss das System ja in gewissem Maße erkennen was da geschieht.
MB und Co setzen auf Sensoren, was in Städten eigentlich nicht klappen kann…
Ich finde das immer wieder interessant zu lesen was Tesla angeblich anstrebt - nur dass diese Theorien meistens eben nicht von Tesla kommen, sondern auf dem allseits beliebten Hypetrain entstehen. Das erstaunliche ist, dass Tesla auf dem AI Day groß verkündet hat, dass ihre neueste Errungenschaft eine gewisse Objektpersistenz wäre. Das einzige Problem ist nur: Der Rest der Industrie macht das seit ~10 Jahren und bei den FSD-Videos erkennt man relativ gut, dass es mit dem "Objektgedächtnis" oft nicht weit her ist.
Die brandneue Qualität bei Tesla ist, dass sie mit der High-Level-Fusion gescheitert sind und es jetzt mit einer Low-Level-Fusion der Wahrnehmung versuchen. Den Radar haben sie rausgeworfen, weil der Sensor - im Gegensatz zum Lidar - nicht Low-Level-Fusionsfähig ist. Dito "4D" oder Imagingradar.
Das was ich bei Tesla immer wieder spannend finde ist, wie weit man ohne Vorausschau und Berechnung allein in der Gegenwart kommt - und das bei lächerlichen Reichweiten der Kameras.
Gorasuhl schrieb:
Aber Level 3 baut auf Level 2 auf. Die Level 2 Systeme werden bei Level 3 aktiv mit genutzt, angefangen beim Spurhalteassistenten, damit das Level 3 System einer einfachen Fahrspur folgen kann.
Wenn die Level 2 Systeme Probleme haben, werden diese automatisch mit in Level 3 übernommen.
Auch wenn du weiter unten die Redundanz beschreibst: Nein, Level 3 baut eben nicht einfach auf Level 2 auf, egal ob es "Gleichteile" in der Software gibt.
Jedes Level 2-System ist in seiner Sicherheitsbetrachtung darauf ausgelegt, dass der "sichere Zustand" die Übernahme durch den Fahrer ist. Als Assistenzsystem müssen sie den Fahrer unterstützen, aber ihm jederzeit die Kontrolle belassen. Sobald ich die Sicherheitsschicht in der Fahrzeugverantwortung (und damit Herstellerverantwortung) habe, verändert sich der komplette Systemschnitt, die Verantwortungs- und Systemarchitektur. Die einzigen Punkte die man behalten kann sind die, die von der eigentlichen Fahraufgabe weit genug weg sind.