News Hardware-Upgrade: Alle neuen Tesla können vollständig autonom fahren

NoD.sunrise schrieb:
Ich glaube nicht dass seitens Tesla explizit von einem bestimmten Level gesprochen wurde.

Den Level hat Musk in einem Conference Call genannt.
Die Hardware sei "fully capable of level 5 autonomy".
 
40-fache Rechenleistung???

Was ist den die Referenzrechenleistung?

40*0=0
 
Corros1on schrieb:
Tesla soll lieber den Mut haben selber bei der Entwicklung womöglich schlimme Unfälle zu verursachen aber nicht auf den Schultern zahlender Kunden.

Technischer Fortschritt in Ehren aber in autonomen Fahrzeuge sitzen lebende Menschen und mit dem Leben spielt man nicht wie Tesla es gerade tut.

Audi konnte das doch mit dem ersten TT auch gut, da sind aber mehr Menschen ums Leben bekommen, bis Audi es endlich mal geschafft hat ESP und einen kleinen Heckspoiler nachzurüsten.

Da fragt man sich, ob die Autos keiner Probefahrt unterzogen werden bevor sie auf den Markt kommen.

Wer frei von Fehlern ist, werfe den ersten Stein...
 
domian schrieb:
40-fache Rechenleistung???

Was ist den die Referenzrechenleistung?

40*0=0

Das Model S hat einen Tegra2, einen Tegra3 sowie den MobilEye EyeQ3 SoC, welcher einem Quadcore mit 4x500MHz entspricht. Der Tegra3 zählt zugegebenermaßen nicht, da der wohl für das große Display drauf geht, aber allgemeine Fahrzeugfunktionen werden vom Tegra2 und das Fahren vom EyeQ3 SoC übernommen. Zwar keine Rechenwunder, aber "0" kommt jetzt nicht ganz hin.

edit: Mittlerweile sind im Model S der Tegra2 von einem Tegra3, und der Tegra3 von einem Tegra4 ersetzt worden.
 
Zuletzt bearbeitet:
Lar337 schrieb:
Also Marketing kann der Typ echt gut.
Baut einen erweiterten Tempomat mit Spurhalteassistent und nennt ihn "Autopilot".
Nun baut er Sensoren ein und tut so, als hätte er somit irgendwas tolles erreicht, dabei fehlt die eigentliche Schwierigkeit, nämlich die Software selbst.

Tesla verbrennt unmengen Geld seiner Investoren, weil es einen riesigen Hype darstellt. Klar machen andere Autohersteller das nicht, die wollen Geld verdienen.
Trotzdem hat Tesla keinerlei Vorsprung. Sensoren verbauen könnten andere auch (wenn man denn Geld zum Fenster raus schmeißen will oder den Kunden als Datenquelle nutzen). Nur bei Tesla klingt das wieder ganz toll.

Würde mich darüber freuen, wenn mein 50k+ Euro <Deutsche Automarke> auch schon alle Sensoren für ein autonomes Fahren integriert hätte. Dann müsste ich mir wenn die Software so weit ist nämlich nicht nochmal ein 50k+ Auto kaufen, sondern krieg einfach ein Update und alles läuft.

@proud2b: Die werden Probe gefahren. Der Fehler liegt darin, dass der Testfahrer Auto fahren kann und die üblichen Kunden nicht. Führerscheinprüfung bestehen, reicht eben nicht um Auto fahren zu können. Aber härtere Kriterien gehen ja nicht, würde ja die Wirtschaft einbrechen wenn nicht mindestens 85% der Einwohner auch die Führerscheinprüfung schaffen.
 
Zuletzt bearbeitet:
Keine Frage, daß autonome Autos sicherer sind als Menschen. Zumindest werden sie es mit der Zeit.

Wen zieht ihr denn vor Gericht, wenn ein Tesla euer Kind übersieht und totfährt? Elon Musk?
Wer übernimmt die Verantwortung für den Unfall? Oder sagt ihr? Ja ist passiert, damit hat sich das erledigt.
 
Wenn ich wieder mal einen Spezialisten hinter mir habe der meint mit 20cm Sicherheitsabstand und 120km/h auf regennasser Fahrbahn könne er noch alles kontrollieren wünsche ich mir das autonome Fahren umso mehr.
Bei der Anzahl der Unfälle pro Minute in Deutschland kann es da auch nur besser werden. Allerdings bleibt eine Frage offen:
Was ist wenn eine Maschine keinen Unfall verhindern kann sondern entscheiden muss wer sterben wird? Das Kind was ohne zu schauen auf die Straße rannte oder der Rentner der beim ausweichen zwangsläufig sterben muss oder evtl der Fahrer selbst um andere Leben zu retten?

Soll eine Maschine so eine Entscheidung treffen?
 
Eine Titan X GPU im Auto ? Wie geil ist das den bitte ?

Wenn ich mir teilweise die grottenlahme Systeme von Audi und BMW angucke ... Da wird an der falschen Stelle gespart !
 
Na, dann heisst es jetzt wieder warten auf erste Unfälle/Todesopfer, für die Tesla und Elon Musk ja dann wohl wieder nicht zur Verantwortung gezogen werden, denn anscheinend haben diese ja bei den US Behörden einen Freibrief im Gegensatz zu anderen (ausländischen) Automobilherstellern :rolleyes:.

In Sachen Fahrsicherheit ist Tesla bisher sicherlich nicht führend sondern eher fahrlässig gewesen und ich kann mir nicht vorstellen, dass sich das mit diesem Hardware-Upgrade jetzt schlagartig geändert haben soll. Ich betrachte Fahrsicherheit aber als das wichtigste Element in Bezug auf autonomes Fahren und würde sowieso erst einmal einige Jahre abwarten wollen bis die Technik wirklich ausgereift ist und sich statistisch bewiesen hat.
 
SKu schrieb:
In Deutschland ist nach §23 der StVO das freihändige Fahren verboten. Daher müsste erst einmal die Gesetzeslage verändert werden, bevor das relevant für Versicherungen wird.

Sie meinen diesen Absatz?
"(3) Wer ein Fahrrad oder ein Kraftrad fährt, darf sich nicht an Fahrzeuge anhängen. Es darf nicht freihändig gefahren werden. Die Füße dürfen nur dann von den Pedalen oder den Fußrasten genommen werden, wenn der Straßenzustand das erfordert."

Bezieht sich meiner Meinung nach auf Fahrräder bzw. Motorräder...
 
gesperrter_User schrieb:
Sie meinen diesen Absatz?
"(3) Wer ein Fahrrad oder ein Kraftrad fährt, darf sich nicht an Fahrzeuge anhängen. Es darf nicht freihändig gefahren werden. Die Füße dürfen nur dann von den Pedalen oder den Fußrasten genommen werden, wenn der Straßenzustand das erfordert."

Bezieht sich meiner Meinung nach auf Fahrräder bzw. Motorräder...

Würde ich mich jetzt nicht drauf verlassen. Der restliche Paragraf springt auch wild zwischen Kraftfahrzeugen und Fahrrädern hin und her. Im Zweifelsfall heißt es dann gegen den Angeklagten. ;-)
 
Köf3 schrieb:
Tja, dann forscht mal schön. Ich will Auto und nicht Computer fahren.
Ich denke schon, dass ein solches Konzept (in den nächsten 10-20 Jahren) machbar ist. Eine Art "Autonome Ente" wäre schön, einfach simpel, ohne Internet um Datenschutz zu gewährleisten und Missbrauch zu vermeiden, und so erschwinglich, dass es sich die Massen leisten können.

Endlich ein gleichgesinnter. Entweder fahren alle autonom oder keiner.
 
Sonst wollten die doch immer mit möglichst wenig Hardware und möglichst viel Software alles bewerkstelligen?
 
Ich finde das Elon Musk einen Vorreiter ist bestimmte Techniken zu bündeln und so etwas besseres daraus zu machen, sehr genial das gibt der Entwicklung einen ordendlichen Schubs. Und Tesla ist einfach genial den S70D den ich fahren durfte hätte ich am liebsten mitgenommen.

Und wer mit dem Tesla nicht umgehen kann weil er zu dumm ist sich an die Regeln (Die oft genug Komuniziert werden und sogar im Cockpit angezeigt werden) zu halten ist selber schuld und muss gegebenfalls den Preis dafür zahlen.

Es müsste mehr Leute geben wie Elon Musk da würde auch mehr in der Entwicklung gehen siehe Space X mit der wieder landenden Rakete einfach super, das nicht alles reibungslos läuft sollte jedem klar sein wenn man sieht welche Pionierarbeit teilweise geleistet wird.
 
proud2b schrieb:
Audi konnte das doch mit dem ersten TT auch gut, da sind aber mehr Menschen ums Leben bekommen, bis Audi es endlich mal geschafft hat ESP und einen kleinen Heckspoiler nachzurüsten.

Da fragt man sich, ob die Autos keiner Probefahrt unterzogen werden bevor sie auf den Markt kommen.

Wer frei von Fehlern ist, werfe den ersten Stein...

nicht zu vergessen die erste A Klasse ;-) hat MB den Ruf eingebracht Autos bis zum Umfallen zu bauen ;-)
 
handyman schrieb:
Keine Frage, daß autonome Autos sicherer sind als Menschen. Zumindest werden sie es mit der Zeit.

Wen zieht ihr denn vor Gericht, wenn ein Tesla euer Kind übersieht und totfährt? Elon Musk?
Wer übernimmt die Verantwortung für den Unfall? Oder sagt ihr? Ja ist passiert, damit hat sich das erledigt.

Und wenn ein besoffener das Kind totfährt? Oder damals mit dem TT wenn durch einen Abflug
jemand verletzt oder getötet worden wäre?
 
Tesla ist und bleibt (für mich) das derzeit geilste Auto auf dem Markt. Würde mir ohne zu Zögern sofort ein Model S bestellen, hätte ich die Kohle.
 
Zuletzt bearbeitet:
Neos2c

Ich hab doch gesagt, daß ich autonomes Fahren für sicherer halte.

Trotzdem möchte ich mal wissen, wer bei einem Fehler eines autonomen Fahrzeugs, welches zum Tod einer Person führt, die Verantwortung übernimmt.
 
GTR schrieb:
Allerdings bleibt eine Frage offen:
Was ist wenn eine Maschine keinen Unfall verhindern kann sondern entscheiden muss wer sterben wird? Das Kind was ohne zu schauen auf die Straße rannte oder der Rentner der beim ausweichen zwangsläufig sterben muss oder evtl der Fahrer selbst um andere Leben zu retten?

Soll eine Maschine so eine Entscheidung treffen?

Zumindest für Deutschland ist da wohl gerade die Ethikkomission dran.
Es wird wohl darauf hinauslaufen, dass es solange möglich immer danach gehen wird, wo mit höherer Wahrscheinlichkeit Leben gerettet werden können und in den wenigen Grenzfällen könnte wohl tatsächlich -so verrückt es klingt- ein Zufallsgenerator einspringen, weil man da einfach keine rationale Entscheidung treffen kann.

Was auf jeden Fall schon klar kommuniziert wurde, ist dass Sachschaden in jedem einzelnen Fall einem Personenschaden vorgezogen wird. Auch wenn das bedeutet, dass das Auto einen Totalschaden bekommt, während ein Unfallgegner nur leicht verletzt wäre.
 
[F]L4SH schrieb:
Was auf jeden Fall schon klar kommuniziert wurde, ist dass Sachschaden in jedem einzelnen Fall einem Personenschaden vorgezogen wird. Auch wenn das bedeutet, dass das Auto einen Totalschaden bekommt, während ein Unfallgegner nur leicht verletzt wäre.

Das erinnert mich irgendwie an I Robot von Isaac Asimov an die drei Robotergesetzte

Die drei Robotergesetze von Isaac Asimov sind doch schon sehr durchdacht.

1.Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

2.Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

3.Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
 
Zurück
Oben