News Consumer Reports: Tesla Autopilot lasse sich ohne Fahrer zu einfach austricksen

Hayda Ministral schrieb:
Weil ja noch niemals vor der Implementierung des AP ein Auto gegen einen Baum fuhr ohne das ein Fahrer am Steuer saß?
Da saß niemand am Steuer... das ist einfach. Fahrzeug starten, einkuppeln, Gas beschweren und losfahren lassen. Im zweiten Gang kuppelt so ein Kleinbus bereits bei ~15km/h ein, reicht locker zum abspringen. Der zweite Gang endet dann bei ~90km/h. In unserem Fall sind aber zwei Tote Insassen vorzufinden. Wenn die beiden also keinen Doppelselbstmord verüben wollten, ergibt es keinen Sinn, wie das Auto selbst weiterfuhr.
 
@Hayda Ministral so wie Apple behauptet hat, es hätte weltweit nur 9 Fälle von Bendgate gegeben? Oder VW jahrelang behauptet hat, ihre Diesel würden die NOx Werte einhalten? Man stelle sich vor, Firmen und ihre Inhaber können lügen. Wäre nicht das erste Mal, dass Musk Stuss von sich gibt:
https://www.elonmusk.today

Nächstes Mal markier mich bitte. Hab den Kommentar nur durch Zufall gelesen.
 
Es gibt keinen - absolut keinen! - Grund warum ein Fahrzeug mit Motorleistung fahren können muss wenn niemand auf dem Fahrersitz sitzt - was bei diesem Unfall aber wohl genau so passiert ist.

Hier hat Tesla einfach geschlampt, insbesondere in Kombination mit der Gegebenheit, dass ein Tesla je nach Motorisierung wie ein Flugzeug auf nem Flugzeugträger beschleunigen kann, was ein normales Auto mit nem Stein nicht hinbekommt.

Wenn andere Hersteller den Gewichtssensor im Fahrersitz auch nicht abgleiche - sind sie halt auch scheiße, aber die drängen sich auch nicht jede zweite Woche wieder in die Medien und versprechen wie unglaublich schlau ihre Autos sind.
Das machen sie jetzt nur alle zwei Monate - aber auch erst seit sie bei dem ganzen Gebullshitte von Musk nachziehen müssen um nicht als weit abgeschlagen dazustehen, weil der ja schon vor Jahren von FSD SOON!!!!!!! bullshittete.

Das Reality Distortion Field von Steve Jobs war ein Dreck gegen das von Musk - das von Jobs wirkte vor allem intern bei Apple und führte dazu, dass seine Angestellten Dinge vollbrachten die sie erst für unmöglich hielten.
Musk dagegen versucht immer wieder sein RDF auf die ganze Welt auszudehnen, in der Hoffnung, dass andere den Bullshit glauben!
Deshalb landet SpaceX ja auch schon seit Jahren "bald" auf dem Mars, Teslas können "bald" autonom von Los Angeles bis Paris fahren und für den Trip über den Atlantik nehmen sie halt die Tunnel der Boring Company - schneller ginge es aber natürlich wenn man den Hyperloop nutzt, weil ein unterirdischer Zug natürlich in einem Land welches unfähig ist überhaupt überirdische Fernzugstrecken zu bauen so erfolgsversprechend ist.
Und mit dem kugelsicheren Cybertruck fährt man dann ganz sicher durch die schlimmen Nachbarschaften, falls man jedoch doch mal eine gebrochene Scheibe hat kann man sich mit dem Boring Company Unkrautbrenn... ähm natürlich Flammenwerfer verteidigen...

Aber hey, manche sind Elon Musk ja auch heute noch dankbar, dass er vor ein paar Jahren die thailändischen Kinder aus der Höhle gerettet hat.
 
BTICronox schrieb:
Du verdrehst die Fakten. Die Unfälle sind DURCH die Verwendung des Autopilots entstanden und waren absolut vermeidbar.
Ich verdrehe ueberhaupt nichts, du verstehst nur einfach nicht, was tatsaechlich passiert ist: Die Unfaelle sind durch MENSCHEN entstanden, die den Autopilot ausgetrickst haben! Aber in dem Punkt der Vermeidbarkeit stimme ich dir zu, insbesondere sehe ich hier zwei Ansaetze:

  1. Manuelles Fahren wird verboten
  2. Idioten sollten weniger idiotische Dinge tun. Ja, ich weiss, das ist sehr optimistisch... daher wird sich Ansatz 1 wohl auch durchsetzen, sobald Autopiloten zumindest etwas sicherer als Menschen sind.


BTICronox schrieb:
Nur hat in diesen Fällen eben diese Technik im Auto durch unnötige Fehler und fehlende Sicherheitsmechanismen Menschenleben gefordert.

Sehr viel mehr Menschenleben werden durch unnoetige Idioten gefordert. Warum haben moderne Autos denn keinen verpflichtenden Alkoholtest? Oder einen Fuehrerscheinscanner? Als Filter gegen "unnoetige Idioten" waere das sogar wirklich effektiv.

BTICronox schrieb:
Tesla müsste hier die Klarheit schaffen, dass ihr AP eben doch noch nicht "Full Self Driving" fähig ist und der Fahrer immer aufmerksam zu sein hat, auch hoch offiziell, nicht nur im Handbuch.

Tesla schafft sehr wohl Klarheit: Das Problem ist der Mensch - nicht die Technik! Aber irgendwie scheinen viele Tesla-Gegner den Wald vor lauter Baeumen nicht zu sehen, und konzentrieren sich auf so irrelevanter Details, wie dass die existierende Autopilot-Technik noch nicht perfekt funktioniert... ja, duh! Wer das nicht kapiert, der sollte nicht nur keinen Autopiloten verwenden - der sollte einfach generell nicht Autofahren. Aber der Fuehrerschein wird halt leider auch ohne "common-sense"-Test vergeben, also vielleicht sollte man lieber hier ansetzen...

BTICronox schrieb:
Voll autonom beschreibt Level 5, Tesla ist aber bei Level 2+. Wie gesagt, falsches Sicherheitsgefühl. [...]

Ja, vielleicht sollte Tesla die Werbung etwas modifizieren - habe ich ja schliesslich auch schon gesagt. Es aendert aber nichts daran, dass das Problem der Mensch ist, und vielleicht auch in gewissem Masse die Werbung, aber nicht die Technik an sich, und deshalb ist der "Test" von Consumer Reports auch einfach Unfug.
 
  • Gefällt mir
Reaktionen: Oneplusfan und Odysseus277
BTICronox schrieb:
Wieso hat man genau davon nur nix gelesen? Die Polizei hat dazu noch nix außer einer Vernutung verloren und Elon meint sogar, das Auto habe gar kein AP (was keinen Sinn ergibt, wenn niemand auf dem Fahrersitz war).
Deine mangelnde Sachkenntnis ist inzwischen evident.
Elon Musk hat in seinem Tweet zwei Sachen klargestellt:
Erstens, dass das Autopilot-System den ihm vorliegenden Daten zufolge nicht eingeschaltet war.
Zweitens: Dass das in den Unfall verwickelte Auto keine "Full Self Driving" Option gebucht hatte.
Das sind zwei separate Infos, und du wirfst hier - wie einige andere auch - ständig Autopilot und FDS in einen Topf. Ist es zu viel verlangt, dass du dich bitte mal an die bekannten Fakten hältst?

Und selbstverständlich kann das Auto ohne Autopilot fahren, wenn niemand auf dem Fahrersitz sitzt. Gang einlegen, Gaspedal drücken - fährt. Wie bei jeder anderen Karre auch. (Außer ein Hersteller hat tatsächlich einen Fahrersitz-besetzt-Check implementiert, was mir jedoch nirgends bekannt wäre.)
BTICronox schrieb:
Ist übrigens nicht das erste Mal... sogar zwei Fälle autonomer Trunkenfahrt sind bekannt. Und wenn sogar Besoffene das hinkriegen, kann das System nicht so schwer "auszutricksen" sein, oder? Natürlich obliegt es dem Kunden, verantwortungsvoll mit sowas umzugehen. Andersrum ist es aber auch Aufgabe des Herstellers, die Sicherheit des Fahrers zu erhöhen soweit möglich.
Es bleibt dabei: Relevanz? Es handelte sich nicht um einen Unfall mit Autopilot.
Das Auto ist in seinem jetzigen technischen Zustand zugelassen und entspricht in Sachen Sicherheit dem Stand der Technik. Missbrauch ist bei quasi jedem technischen Gerät möglich.
Zweifelsohne wäre jedoch ein "Sitzt der Fahrer?"-Check bei jedem Auto eine sinnvolle Voraussetzung, um den Wagen in Bewegung setzen zu können. (Mal sehen, wie viele Hersteller das demnächst umsetzen - und womöglich sogar in der gesamten Flotte nachrüsten.)

Abgesehen davon: Besoffenen fallen ziemlich viele Dinge ein, um sich und Dritte in Gefahr zu bringen.
BTICronox schrieb:
Bleibt die Frage: Wieso scheinen solche Unfälle nur bei Tesla zu passieren?
Ach Krampf. Du bist ein Opfer von "Selection Bias" in Reinform, und das kommt so: "Tesla" in der Überschrift erzeugt Klicks - am besten noch, wenn dann irgend etwas negatives im Artikel berichtet werden kann. Klicks bedeuten Geld. Du kannst dich darauf verlassen, dass jedes Problem und jeder Unfall, der es bei einem anderen Hersteller nicht über die Lokalmedien heraus schafft, im Falle von Tesla sofort zur internationalen Schlagzeile wird. Es funktioniert einfach viel zu gut, um damit aufzuhören.
Ich will dir das nicht mal zur Vorwurf machen, denn mir ging es früher auch so, und zahllosen anderen auch. Da hilft nur kritisches Auseinandersetzen mit der Materie.
BTICronox schrieb:
Meine simple Vermutung: Es mangelt an Sicherheitsmaßnahmen.
Mit denen nimmt Tesla es sowieso nicht so genau, siehe die Ladeleistung von 200kW bei einem Lader, dessen Anschluss eigentlich nur für 70kW ausgelegt ist,
Link or it did not happen.
Zumal das im Kern technisch überhaupt nicht möglich ist. Die Ladesäule gibt vor, welche Leistung das Ladegerät des Autos maximal bekommt.
 
  • Gefällt mir
Reaktionen: Kizna von Löwe
Odysseus277 schrieb:
Deine mangelnde Sachkenntnis ist inzwischen evident.
Nein, ich habe nur abgekürzt. "Das für die Situation notwendige AP" (advanced / FSD) hätte die Missverständnisse vermieden, sorry dafür.
Odysseus277 schrieb:
Ist es zu viel verlangt, dass du dich bitte mal an die bekannten Fakten hältst?
Ist es zu viel verlangt, aus dieser Aussage schlusszufolgern? Elon meint, FSD wäre nicht gebucht und Basic AP nicht aktiviert, weil Basic AP dafür Straßenbeläge erkennen müsse, die auf dieser Straße nicht existieren... offensichtlich fuhr das Auto aber ohne Fahrer.
Odysseus277 schrieb:
Und selbstverständlich kann das Auto ohne Autopilot fahren, wenn niemand auf dem Fahrersitz sitzt. Gang einlegen, Gaspedal drücken - fährt. Wie bei jeder anderen Karre auch.
Und wie drückt man das Gaspedal, ohne auf dem Fahrersitz zu sitzen? Stein druff, klar. Aber der Unfall ereignete sich nicht auf einer Geraden Autobahn, sondern im Wald. Außerdem wollte der Besitzer laut Zeugenaussagen dem anderen die autonomen Fähigkeiten vorführen, so seine Aussagen kurz vor dem Tod.
Odysseus277 schrieb:
Es bleibt dabei: Relevanz? Es handelte sich nicht um einen Unfall mit Autopilot.
Laut Elon, dem Inhaber der Firma, die darin verwickelt ist. Ich warte da lieber auf Untersuchungen Unabhängiger.
Odysseus277 schrieb:
Zweifelsohne wäre jedoch ein "Sitzt der Fahrer?"-Check bei jedem Auto eine sinnvolle Voraussetzung, um den Wagen in Bewegung setzen zu können.
Immerhin da sind wir uns einig. Bei z. B. Mercedes oder Audi reicht der "Finger am Lenkrad" Trick aber nicht aus. Auch "wache Augen" müssen erkannt werden, sonst vollzieht das Auto eine Notbremse.
Odysseus277 schrieb:
Abgesehen davon: Besoffenen fallen ziemlich viele Dinge ein, um sich und Dritte in Gefahr zu bringen.
Stimmt zwar, aber versuch mal bitte, mit 2 Promille die richtigen Sensoren zu finden :D
Odysseus277 schrieb:
Link or it did not happen.
https://upload.wikimedia.org/wikipe...2_Socket_de.svg/440px-Type2_Socket_de.svg.png

DC Mid steckt im Model S. 500V * 140A = 70kW. Maximale Ladeleistung am Tesla Supercharger mit einem Model S: 200kW.
Odysseus277 schrieb:
Zumal das im Kern technisch überhaupt nicht möglich ist. Die Ladesäule gibt vor, welche Leistung das Ladegerät des Autos maximal bekommt.
Klar ist das möglich, ich kann so viel Strom durch ein Kabel jagen wie ich will... die Frage ist nur, wie viel das Kabel aushält.

Halt mich für ein "Bias Opfer", wenn du willst. Gelesen habe ich jedenfalls bisher nur von Tesla, wenn es um autonome Unfälle geht. Selbst wenn es nur lokal wäre, müsste ja wenigstens irgendwas zu den anderen auftauchen.

Wie gesagt, alles was ich verlange, ist ein System, das sich weniger leicht bescheißen lässt. Gilt für alle. Nicht zuletzt, weil die Chance reduziert wird, dass sich solche Honks nicht nur selbst, sondern auch andere gefährden. Ich denke, da werden wir uns alle einig sein.
 
BTICronox schrieb:
Die Unfälle sind DURCH die Verwendung des Autopilots entstanden und waren absolut vermeidbar. Das System war oft schlicht zu blöd, Situationen richtig zu erkennen

Nein, ein Unfall kann per Definition nicht "durch" ein System verursacht werden, dass die volle Verantwortung zu jeder Zeit dem Fahrer übergibt.
Der Lastwagenunfall ist so zu bewerten, als wäre der Autopilot gar nicht eingeschaltet gewesen - Der Mann hatte mit dem Handy gespielt und dadurch den Lastwagen übersehen. Daran ist er selber Schuld. Man darf als Fahrer nicht ins Handy schauen, insofern ist der Unfall vermeidbar gewesen.
Selbstverständlich hätte der AP den Unfall verhindern können, wenn er besser gewesen wäre. Dies hat aber keinen Einfluss auf die Schuldfrage.
Viele Unfälle in jedem Feld hätten verhindert werden können, wenn die Technik zu dem Zeitpunkt besser gewesen wäre. Was meinst du wie viele Leute schon gestorben sind, weils Ihnen den Motor in die Kabine gedrückt hat? Wäre mit anderer Antriebstechnologie alles vermeidbar gewesen. Relevanz für die Schuldfrage ist aber nicht gegeben.

BTICronox schrieb:
Klingt für mich extrem nach "wir könnten, aber wir dürfen nicht".

Ich habe die Aussagen auf der Seite zitiert. Nirgends steht, dass der AP ganz von alleine ohne Aufsicht fahren kann oder darf. Deine Interpretation ist zumindest fragwürdig.

BTICronox schrieb:
Weiter schreibt Tesla "ein autonomer Betrieb des Fahrzeugs ist damit nicht möglich" - erlaubt wäre das richtige Wort, denn möglich ist es ja offensichtlich doch. Sonst gäbe es keine Unfälle ohne belegten Fahrersitz.

Diese Aussage widerspricht deiner vorher getroffenen Aussage und ergibt zudem keinen Sinn.
"Autonomer Betrieb" entspricht einem Betrieb zumindest nach Level 4. Level 4 hat bestimmte Anforderungen, die beim AP schlicht nicht gegeben sind. Ein solcher Betrieb ist daher nicht nur nicht erlaubt, sondern auch nicht möglich. Unfälle ohne belegten Fahrersitz kann es ohne Probleme auch mit Level 0 Systemen geben und sind kein Indikator dafür, ob ein System autonom agieren kann.

BTICronox schrieb:
Ich rezitiere:
"In naher Zukunft automatisiertes Fahren innerorts"

Das impliziert erneut nicht, auf welchem Autonomie Level wir uns bewegen.

BTICronox schrieb:
Andere Hersteller werben mit dem, was das Auto tatsächlich kann und wofür es zertifiziert ist.

Was ein Auto kann und wofür es zertifiziert ist sind zwei paar Schuhe. Insofern finde ich den Weg, den Tesla geht besser. Die schreiben nämlich klar rein, was das System derzeit kann und was es in Zukunft können soll. Schreibt ein Hersteller rein, dass ein System nach Level 3 fahren kann, wird überhaupt nicht klar, welche Situationen das Auto selbstständig fahren kann. Dies ist außerdem weiterhin abhängig von der geltenden Rechtsordnung. Die Aussage "Level 3" ist nicht ausreichend, um die Kompetenzen eines Systems zu beschreiben. Level 3 kann sich auf jede Straße inklusive dem Schotterweg hinterm Wald beziehen oder nur auf Teilstrecken der Autobahn, die vorher gemappt wurden und auch nur wenn es einen Stau bzw. zähfließenden Verkehr gibt der sich nicht schneller als 60 km/h bewegt (in Deutschland bisher der Fall).

Odysseus277 schrieb:
Zweifelsohne wäre jedoch ein "Sitzt der Fahrer?"-Check bei jedem Auto eine sinnvolle Voraussetzung, um den Wagen in Bewegung setzen zu können.

Genau genommen wissen wir nicht, ob es einen solchen Check gibt oder nicht. Bisher wurde jeder mir bekannte Test so gestartet: Gurt rein, Lenkradbeschwerer ran, Fahrer auf Sitz, Auto starten und AP an. Erst nachdem alles an war (und der Gang "Drive" eingelegt war) wurde der Sitz gewechselt.

Werde ich aber mal ausprobieren, ob man Drive einlegen kann wenn man auf dem Beifahrersitz (mit angestecktem Gurt auf dem Fahrersitz) Platz nimmt (man müsste hierzu aber die Bremse drücken, wodurch das Ganze natürlich erschwert wird).

Ich bin mir nämlich relativ sicher, dass das Auto gar nicht gestartet werden kann, wenn kein Fahrer im Sitz erkannt wird. Sollte dies der Fall sein, gibt es absolut 0 Gründe einen darüber hinaus gehenden regelmäßigen Sitzsensor Check durchzuführen.

Noch zu diesem mysteriösen Unfall:

BTICronox schrieb:
Ist es zu viel verlangt, aus dieser Aussage schlusszufolgern? Elon meint, FSD wäre nicht gebucht und Basic AP nicht aktiviert, weil Basic AP dafür Straßenbeläge erkennen müsse, die auf dieser Straße nicht existieren... offensichtlich fuhr das Auto aber ohne Fahrer.

Die AP Theorie ergibt aus mehreren technischen Gründen keinen Sinn.
Einerseits kann der AP nicht von sich aus in der Streckenlänge die erforderliche Geschwindigkeit erreicht haben, die für den Crash nötig war (Allerdings ist bisher noch nicht klar, wie schnell das Auto genau war).
Weiterhin kann der AP nicht auf eine höhere Geschwindigkeit als das Speedlimit gestellt werden. Auch hier ist es nicht möglich, die vermutlich erforderliche Geschwindigkeit ohne manuellen Eingriff erreicht zu haben.

BTICronox schrieb:
Und wie drückt man das Gaspedal, ohne auf dem Fahrersitz zu sitzen?

Ach mir fallen spontan Möglichkeiten ein, ein Stock oder Stein oder eine Vorrichtung usw.

BTICronox schrieb:
Ich warte da lieber auf Untersuchungen Unabhängiger. Außerdem frage ich mich, wie Elon wissen kann, dass das Auto kein FSD hat und AP nicht aktiviert war, wenn das Auto komplett niedergebrannt ist und die Fahrer noch nicht identifiziert wurden. Lasse mich aber dahingehend gerne belehren.

Es ist nach bisherigen Infos physikalisch nicht möglich mit dem regulären AP bezogen auf die Beschleunigung diesen Unfall zu bauen, ohne selbst in das System eingegriffen zu haben. Jeder Tesla sendet übrigens bei Airbagauslösung automatisch Telemetriedaten, sodass grob nachvollzogen werden kann, was kurz vorher passiert ist.
Die aktuelle wahrscheinlichsten Theorien:
1. Es wurde die Beschleunigung getestet, Kontrolle verloren, Vordertüre geklemmt und daher Versuch über Rückbank rauszukommen.
2. Es gab eine dritte Person, die den Wagen gesteuert hat

BTICronox schrieb:
Immerhin da sind wir uns einig. Bei z. B. Mercedes oder Audi reicht der "Finger am Lenkrad" Trick aber nicht aus. Auch "wache Augen" müssen erkannt werden, sonst vollzieht das Auto eine Notbremse.

Hast du ne Quelle dafür? Zumindest bei Audi habe ich kein Driver Monitoring System bisher gesehen.
Die Tests des E-Tron Systems zeigen eher, dass das Auto bei etwas stärkeren Kurven einfach in die Leitplanke fahren würde (was auch hier nicht die Schuld des Audis wäre, weil angegeben ist, dass es sich nicht um ein vollautonomes System handelt).

BTICronox schrieb:
DC Mid steckt im Model S. 500V * 140A = 70kW. Maximale Ladeleistung am Tesla Supercharger mit einem Model S: 200kW.

Genau genommen ist auch der Supercharger V3 nicht DC konform, da 625A. Interessiert hier aber nicht, weil sowohl das Model 3/Y als auch der SUC nur für Tesla freigegeben ist und beides auf diese Ströme ausgelegt ist.

BTICronox schrieb:
Wie gesagt, alles was ich verlange, ist ein System, das sich weniger leicht bescheißen lässt.

Wo ziehst du die Grenze? Denn selbst unter dauerhafter Hinzunahme des Sitzsensors während der Fahrt und der Kamera wird es Wege geben, das System zu überlisten.
 
Tesla kann das einfach mit einem 60GHz Radar System lösen. Infineon bietet der BGT60TR13C der genau für Menschen Erkennung super funktioniert, und wird auch des Herzschlag des Menschen sehen, also Sie können das auf keinen Fall dann austricksen.
 
Und schon kostet autonomes Fahren leben... mal gespannt wann die Kenntnis auch hier zu lande ankommt. Es sind ja alle ganz geil darauf, endlich während der Fahrt CoD auf PS5 spielen zu können und ähnliches. Bei dieser extrem unreifen Haltung wir mir ganz schlecht...

So etwas simples wie Auto fahren wird für viele schon zu schwierig und brauchen Assistents-systeme die für sie das denken übernehmen. Solche Leute sollten erst gar kein Wagen mehr bekommen können! Ich sehe da echt schwarz für zukünftige Generationen die in solchen Haushalten dann noch aufwachsen.
 
  • Gefällt mir
Reaktionen: VoAlgdH
Dieter.H schrieb:
Und schon kostet autonomes Fahren leben... mal gespannt wann die Kenntnis auch hier zu lande ankommt. Es sind ja alle ganz geil darauf, endlich während der Fahrt CoD auf PS5 spielen zu können und ähnliches. Bei dieser extrem unreifen Haltung wir mir ganz schlecht...

So etwas simples wie Auto fahren wird für viele schon zu schwierig und brauchen Assistents-systeme die für sie das denken übernehmen. Solche Leute sollten erst gar kein Wagen mehr bekommen können! Ich sehe da echt schwarz für zukünftige Generationen die in solchen Haushalten dann noch aufwachsen.

Was hat das mit autonomem Fahren zu tun? Ich kann bei meinem 8 Jahre alten Ford auch den Tempomat reinhaun und auf den Beifahrersitz hüpfen, wenn die Karre dann vor die Wand knallt und abfackelt ist dann auch der Tempomat schuld oder wie? ^^
 
  • Gefällt mir
Reaktionen: Kizna von Löwe
Wichipingui schrieb:
Tesla kann das einfach mit einem 60GHz Radar System lösen. Infineon bietet der BGT60TR13C der genau für Menschen Erkennung super funktioniert, und wird auch des Herzschlag des Menschen sehen, also Sie können das auf keinen Fall dann austricksen.
Würde ein Tier, z. B. eine Katze das System ggf. austricksen? Eine Fellerkennungs-Diode sollte zusätzlich installiert werden um Tiere auszuschließen. Die Tiere fahren ansonsten selbständig zu Fressnapf wenn es endlich 20% auf Tiernahrung gibt und verursachen dabei möglicherweise einen Unfall.
 
  • Gefällt mir
Reaktionen: Kizna von Löwe
Wow, ein Lenkrad und ein Display für 60.000€, nur weil es ein E-Wagen ist?
Ich weiss, über Geschmak lässt sich nicht streiten. Aber Innenausstattung ist Augenkrebs und das Design vom Auto, naja.

Es wird immer irgendwelche möglichkeiten geben Technik auszutricksen. Manche umgehen es mit einem kleinen Kissen, das am Lenkrad geklemmt wird. Dieses wird vom Tesla offenbar als Berührung erkannt.
Sind immer wieder menschen dabei, die gegen das gesunde Menchenverstand ankämpfen. Wird wohl auch nicht der Letzte sein.
 
Hayda Ministral schrieb:
Der Autopilot kann also nicht auf das fremde Flugzeug reagieren weil ihm kein Radar zur Verfügung steht. Andererseits stünde dem Autopiloten aber das Signal des TCAS zur Verfügung das nicht nur diese Information enthält sondern auch noch die Anweisung was zu tun ist. Und...was macht der Autopilot nun mit diesen sehr simplen und strukturierten Informationen?
Er macht gar nichts weil er diese Informationen eben nicht hat. TCAS ist meines Wissens nach momentan (noch) nicht mit dem Autopiloten vernetzt. Eine TCAS-Warnung wird als so kritisch erachtet, dass ein Eingreifen des Piloten zwingend vorausgesetzt wird. Der Autopilot eines Flugzeuges ist halt eben nicht dazu gedacht, das Flugzeug autonom zu fliegen, sondern ist eine Navigations-und Landehilfe, und soll Routineabläufe übernehmen. Einem anderen Flugzeug ausweichen zu müssen ist keine Routine, sondern ein ernster Zwischenfall.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kizna von Löwe
NobodysFool schrieb:
Er macht gar nichts weil er diese Informationen eben nicht hat. TCAS ist meines Wissens nach momentan (noch) nicht mit dem Autopiloten vernetzt.
Danke, das wußte ich nicht. Hatte es aber wie gesagt vermutet.
Nun ist TCAS ja nicht erst seit gestern 12 Uhr auf dem Markt. Warum hat man Deiner Meinung nach den Autopiloten bisher nicht mit dessen Informationen gefüttert? Naheliegend scheint mir der Gedanke dass man (bisher) davor zurückschreckte weil man dann die Verantwortung vom Piloten auf ihn übertragen müsste. Und dann müsste man für jede einzelne Subroutine nachweisen dass sie unter allen Umständen fehlerfrei arbeitet oder wenigstens zuverlässig abschaltet wenn das nicht mehr möglich ist. Womit der Autopilot im Flugzeug - nur meine Spekulation - eben doch nicht so einfach wäre.
 
7hyrael schrieb:
Umgekehrt wärs natürlich auch Sinnvoll wenn das Fahrzeug bei solchem Verhalten einfach rechts ranfahren und Pfefferspray in den Innenraum leiten könnte, sodass die "Fahrzeug-Nicht


Herzlich .....musste laut lachen , zum Glück war keiner im Pausenraum ,
 
@Hayda Ministral Ich muss jetzt auch vermuten, aber ich denke mal dass das mehrere Gründe hat. Zum einen dass die Zielsetzung des Autopiloten im Flugzeug wohl wirklich ist, dass es nur ein Assistenzsystem ist, dem Piloten aber gar nicht wichtige Entscheidungen oder Vorgänge abnehmen soll. Denn technisch möglich wäre ein automatisches Ausweichmanöver aufgrund TCAS völlig problemlos. Kurs- und Höhenkorrekturen kann der Autopilot jetzt auch schon vornehmen, er folgt vorprogrammierten Wegpunkten. Eine TCAS-Kurskorrektur wäre nur ein Eingreifen in den vorliegenden programmierten Kurs.

Zum anderen weil ein Flugzeug, insbesondere die Elektronik kein x-beliebiges Baukastensystem ist. In ein bestehendes Design neue Instrumente und Funktionen nachzurüsten ist immer ein potentielles Risiko. Das müssen nicht einmal flugkritische Systeme sein. Man bringt damit Parameter in Bewegung, an die beim Grunddesign nicht gedacht wurde. Ich glaube mich zu erinnern, dass irgendwann in den glaub 90ern einmal ein Brand in einem Flugzeug ausgebrochen ist, der von der Elektrik eines nachgerüsteten Entertainment-Systems ausging. Es ist grundsätzlich also immer einfacher, bei der Modellpflege neue Komponenten gleich mit einzuplanen.

TCAS gibt es schon länger, seit wann es Pflicht ist weiß ich nicht. Aber man muss auch davon ausgehen, dass ein Passagierflugzeug unter Umständen auch mal 20 Jahre im Dienst ist. Da gab es zumindest anfangs viele, die TCAS nacherüstet bekamen, wo es aber schlichtweg gar keine Möglichkeit gab, es mit dem Autopilot zu koppeln, da gar keine Schnittstellen dafür vorhanden waren.
 
1619422871115.png


irgendwie gehts immer
 
Zurück
Oben