News Dojo: Tesla zeigt eigenen D1-Chip und ExaFLOPS-Supercomputer

Mextli schrieb:
Hallo. Wurde schon als Beispiel gebracht und hier kommentiert. Ich hatte gehofft, daß Jemand das weiß oder es beurteilen könnte. Sollen ja nicht nur IT-Nerds hier herumwandeln. ;) Dann werde ich mir diese Frage für später aufheben.
 
Draco Nobilis schrieb:
Warum ich so viel Vertrauen in Tesla etc. habe ist, weil die ein Ziel haben das über Gewinnmaximierung und Quartalsdenken hinaus geht. Quasi eine Vision, wenn man so mag. Das ist allen anderen Automobilfirmen völlig egal.
ist halt der Standard bei diesen Tech-Unternehmen, erstmal jahrelang auf Wachstum, ohne Gewinnabsicht, die Investoren verstehen das, dementsprechend ist der Laden bewertet... (bei Amazon nicht anders)
und wenn man dann in der Gewinnzone ist, ist diese ordentlich bemessen... ist halt für die Investoren eine Wette, die aufgehen kann, nicht muss.
 
Oneplusfan schrieb:
Was die L2 Diskussion angeht: Ist halt ne Sache der Verantwortung. Lieber hab ich ein Level 2 System, dass überall fährt als ein L3 System wie das von Daimler*

* funktioniert nur: bis 60 km/h auf gemappten Autobahnteilen, nicht bei Nacht, direkter Sonne, Regen, Schnee, wenn ein Lead Car da ist, nicht auf Baustellen.
Mercedes kann doch genauso Level 2. Und jetzt halt auch begrenzt Level 3.
Wie sieht denn eigentlich der Zeitplan für automatisiertes fahren (Level 3 oder höher) bei Tesla aus?
 
kingphiltheill schrieb:
Teslas sind Dank der Assistenten bereits heute 4 mal seltener in Unfälle verwickelt als der Durchschnitt der US-Autofahrer.
https://www.teslarati.com/tesla-veh...without-autopilot-and-active-safety-features/
Es geht darum, im Verkehr nicht völlig unnötig zu sterben und darum, dass dir die Maschine Arbeit und Stress abnimmt.
Oder wäschst du deine Wäsche nach wie vor auf dem Waschbrett unten am Flussufer?
Ob das an den Features des Tesla liegt oder schlicht an der verantwortungsvolleren Käuferschaft (oder an einem der zahlreichen anderen plausiblem Gründen) vermag der Artikel allerdings nicht zu beantworten. Ohne die Daten und involvierten Variablen zu kennen, ist dieser Umstand - insbesondere mit Kontext eines bereits im Namen "tesla" beinhaltenden Onlinemagazins - mit Skepsis zu betrachten.
 
  • Gefällt mir
Reaktionen: chartmix
sNo0k schrieb:
ist halt der Standard bei diesen Tech-Unternehmen, erstmal jahrelang auf Wachstum, ohne Gewinnabsicht, die Investoren verstehen das, dementsprechend ist der Laden bewertet... (bei Amazon nicht anders)
Du hast natürlich damit recht. Aus Investorensicht vollkommen richtig.
Aber ich meine tatsächlich das Ziel Elektromobilität zu erreichen, am besten mit zusätzlich dem Kunden verkaufte Lademöglichkeit um autark zu sein. Oder der Option den Akku des Autos auch für zuhause zu nutzen, etc. pp. Vor dem Hintergrund CO2 Emissionen einzusparen und andere Ziele Musks zu finanzieren. Man merkt auch daran wie die Gigafab in DE gebaut werden sollte, das man viel mehr umsetzen will, freiwillig, als es jede andere Firma je tun würde. Die finden Technik einfach geil. Nicht Quartalszahlen. Alle anderen Firmen handeln genau andersherum.

Das ist wie die Boring Company. Das Ziel war nie wirklich auf der Erde Tunnel für Autos etc. zu bohren, wär natürlich toll wenns klappt. Das eigentliche "Ziel" Musks ist damit Tunnel auf dem Mond zu bohren!
Das meine ich damit.
 
So viele Seiten Diskussion mit verhärteten Fronten...
ich kann es kaum erwarten, dass ich morgens den repetetiven Weg zu meiner Arbeit mit Kaffe in der einen und dem Handy in der anderen Hand erledigen kann.
Wer das wie hinbekommt, ist mir egal. Aber irgendwie bin ich ziemlich sicher, dass es kein deutsches Fabrikat sein wird. Ich habe keine Lust auf Listen mit Zusatzausstattung in der Dicke eines Telefonbuchs und zum Aufpreis in Höhe des Grundpreises des Fahrzeugs.


-Ps-Y-cO- schrieb:
Nvidia ist wohl nur zur Überbrückung gewesen. Um Know-how zu entwickeln genereller Art.

AMD Infotainment System wird das gleiche blühen.

Würde ich nicht drauf wetten. Wozu? Die KI Chips, Sensoren und Co. sind essentiell für das Ziel das Auto zu bauen und irgendwann selbst fahren zu lassen. Da braucht es eigenes Knowhow und es ist ein Unterscheidungsmerkmal zu anderen.

Beim Infotainment geht es um Insassenbespaßung und wenn genug Leistung und Kompatibilität da ist, hat der Kunde alles, was man sich wünschen könnte. Effizienter ist nett aber fällt wenig ins Gewicht und der einzige Faktor, der einen Unterschied macht, ist wenn es schneller läuft. Mit dem x86+AMD GPU System hat man aber die maximale Kompatibilität und kann Unmengen an Software nativ laufen lassen und alle Video Codecs und Co. sind schon verbaut. Um das selbst zu machen, braucht es Unmengen an Lizenzen und Erfahrung mit fragwürdigem Nutzen. Man würde vermutlich einen RiscV oder ARM Prozessor bauen und eine GPU lizensieren. Bestenfalls hat man damit einen Apple M1 Moment aber das bringt für den Kunden nichts.
Aufwand und Nutzen sind da also sehr fraglich.
 
Die Autobauer haben über die Jahre alles abgegeben und bauen am Ende nur noch Autos und designen die.
Die Motoren wurden meistens auch noch selbst designed.
Aber alles andere kommt aus Zuliefererhand.
Wenn Bosch nix innovatives liefert, dann kann Daimler nix innovatives einbauen.
Die Firmen strotzen nur so vor Bürokratie.
Tesla fährt aktuell weit voraus und die klassischen Autobauer müssen schon sehr rudern um hinterherzukommen.
Ich hoffe zwar dass sie es schaffen, ich hab aber Angst dass wir dafür alle bluten müssen.

Der Puritaner schrieb:
mit was bitte schön sollte ich mich auf einer langen fahrt beschäftigen
Schlafen z.b. !
Mir fällt da sehr viel ein.
 
  • Gefällt mir
Reaktionen: Kommando und #basTi
7H0M45 schrieb:
Aber meinst du wirklich, dass es die Sache besser machen würde? Solche Systeme sind mittlerweile Standard und die Verkaufszahlen von Tesla sind im Vergleich zum Gesamtmarkt winzig. Es hat schon einen Grund warum Tesla deswegen so oft in den Schlagzeilen ist und nein Bashing gehört da nicht dazu
Ich weiß nicht, ob es die Sache besser machen würde. Aber ich zumindest bilde mir jetzt keine Meinung aus 2 absoluten Zahlen ohne den nötigen Kontext. Wenn du nicht suchen willst, ist das auch ok, wenn mich die Neugier packt mache ich das sonst selbst. Dachte, du hättest da vielleicht was in der Hinterhand.

Das Tesla auch (nicht ausschließlich) aus Bashing / Klick-Gründen häufig in den Schlagzeilen ist, glaube ich dagegen schon.
Wie oft siehst du z.B. große Artikel über brennende Autos anderer Hersteller (täglich brennen allein in D ~40 Autos)? Ich eigentlich nie. Von anderen E-Autos hin und wieder mal, aber nicht in der Menge und Ausführlichkeit wie bei Tesla.
Am Ende des Tages ist das ein einfacher Weg um bisschen mehr Klicks zu generieren - ohne irgendwelche Fake-News oder populistische Sachen zu verbreiten, und ohne wie Klatschpresse zu wirken. Wird daher dankend angenommen.

chartmix schrieb:
Total unbeabsichtigt. ;-)
Mit Sicherheit nicht, und da sehe ich auch ganz klar Tesla für in der Verantwortung. Sollte man mMn. nur klar abtrennen, wenn man z.B. technische Fähigkeiten unterschiedlicher Hersteller vergleicht.

chartmix schrieb:
Wird bestimmt nicht die aktuelle Software drauf sein.
Das etwas mit so vielen Bugs überhaupt die Fabrik verlässt, finde ich schon krass, bei dem Image, was VW einem sonst vermitteln will von hoher Qualität usw. Das passte mal überhaupt nicht ins Bild. Und da beide Autos weniger als 10kkm auf der Uhr hatten, werden sie auch noch nicht allzu alt gewesen sein.

Looniversity schrieb:
Der Wagen erkennt manchmal fälschlich die Aufkleber hinten an LKWs als Geschwindigkeitsbegrenzungen. Das ist immer wieder lustig wenn man am Laster vorbeifährt und die Verkehrszeichenerkennung Stress schiebt. Schilder auf parallel zur Autobahn laufenden Straßen sind auch manchmal ist Kandidaten. "WTF hier soll jetzt 30 sein!?!?". Die ganze Technik ist noch nicht so ganz gar...
Das könnte tatsächlich eine Erklärung sein, wenn ich mal wieder ein Auto mit automatischer Geschwindigkeitserkennung habe muss ich mal drauf achten, ob in dem Moment ein LKW mit Aufkleber in der Nähe war.
 
Coenzym schrieb:
In 20 Jahren fahren alle Autos voll autonom und da braucht man solche Chips. Super Timing, dann bin ich alt und kann trotzdem Auto fahren…
Nein, solche Chips braucht man nicht, zumindest nicht im Auto. Das sind hochspezialisierte ASICs für das Training neuronaler Netze. Supercomputing erfordert ganz andere Architekturen als Embedded-Anwendungen. Während bei letzteren beispielsweise Connectivity (Digital, Analog-IO, Busse, Netzwerk ...) und Energieverbrauch im Vordergrund stehen, ist das bei den D1-Modulen schlicht egal. Energieverbrauch? Kühlleistung gibt es in rauen Mengen.

#basTi schrieb:
Hast du dafür Fakten?
Das Thema Tesla-Sensorset ist ein ziemlich heikles. Da gibt es die Fanboys die alles von Musk bejubeln was gerade so um die Ecke kommt. Tatsache ist, dass man für "Highway"-Szenarien eine Sensor-Sichtweite von mindestens 250m braucht, was derzeit ausschließlich Radare und Lidare leisten können. Man kann den LIDAR wegdiskutieren wenn man einen Imaging-Radar verwendet. Tesla hat letztes Jahr eine Kooperation mit Arbe angestrebt: https://electrek.co/2020/10/22/tesla-4d-radar-twice-range-self-driving/ - das wäre der richtige Weg gewesen, nachdem auch der aktuelle Conti-Radar nur für eingeschränkte Anwendungen geeignet, dafür billig war. Nur hat man aktuell lieber den Radar komplett entfernt, weil das offensichtlich noch billiger ist und man bei Tesla halt doch nur an die Marge denkt. Man versucht das gerade als Schritt nach vorne zu verkaufen, die Daten in der Präsentation von Karpathy vor einigen Wochen zeigen aber eher, dass Tesla keinen Bock auf Sensordatenfusion hat, sondern lieber mit dem Lernen von vorne beginnt und einfach alle Kameradaten in eine Pipeline wirft.
Das löst leider nicht das Problem, dass die Kameras weder einen ausreichenden FOV noch eine ausreichende Reichweite für die angestrebten Szenen haben. Die "Tele-Kamera" nach vorne hat meines Wissens nach eine verlässliche Reichweite von ~150m; meine Erfahrungen mit der Objekterkennung im NoA sind dass das Auto auf nichts reagiert was weiter weg als die Reichweite des Radars (150-160m) ist. Das macht u.A. die Abblendautomatik halt leider ziemlich unbrauchbar, solange man den Gegenverkehr nicht blenden will. Das ist das was man sich mit einer zentralen Perception einfach einkauft.

#basTi schrieb:
Das ist Falsch. In der FSD Beta gibt es einen Button um problematische Situationen zu melden. Und die Beta kriegen nur ausgewählte Leute wodurch die Wahrscheinlichkeit hoch ist hier "gute" Reports zu bekommen.
Ich rede nicht nur von der FSD Beta. Derzeit fahren über eine Million Teslas mit einer Reihe an "Beta"-Softwaremodulen durch die Gegend. Das ist nicht nur TACC, Autosteer und "Navigate on Autopilot" sondern auch so profane Dinge wie die Klimaautomatik, Schilderkennung, Abblendautomatik für Spiegel, Fernlichtautomatik für die Scheinwerfer ... wo ist der Sinn eines so groß angelegten Betatests, wenn ich überhaupt kein Feedback von den Testern haben will?

#basTi schrieb:
  • Ich glaube unabhängiges Fahren geht nur wenn das Auto die Welt um sich erkennt. (ohne eine HD Map, welche Falsch sein könnte und ohne C2C Kommunikation, welche auch Probleme mit sich bringt wie Abhängigkeit etc)
Was unter "HD-Map" genau zu verstehen ist daran scheiden sich ja die Geister. Dass man seitens Tesla die Verwendung von natürlichen oder künstlichen Landmarken schon im voraus verteufelt, auf der anderen Seite aber genau so eine Karte intern generiert lässt tief blicken. Die Verwendung von Kartenmaterial sorgt dafür, dass man eine höhere Vorausschau hat als man sensorisch erfassen kann. Stichwort Planung über die FoV-Grenze hinaus. Dass am Ende nur die reale Welt die echte Wahrheit darstellt bezweifelt ja niemand. Die Abfälligkeit, mit der sich einige Tesla-Angestellte über Waymo äußern ist mit nichts anderem als Arroganz und/oder Kurzssichtigkeit erklären. Warum? Auch als Mensch hast du A-priori-Wissen über die Strecke. Die Spurmarkierungen sind nie vollständig; jede Menge Freistil-Schilder erklären dir den Weg über komplexe Kreuzungen, ggf. kannst du ein Ziel nur erreichen, wenn du genau weißt welche Spurwechsel du zu welcher Zeit machen musst.
Warum ist der Ansatz von Tesla problematisch? Man kann sich zwar alle Edge-Cases raussuchen und alle Einzelfälle. Dann findet dein Dojo-Supercomputer eine Lösung die alle alle Constraints mit einem Minimum an Fehlern abdeckt. Wenn du aber durch die Begrenzung deiner künstlichen Neuronen nicht mehr "Regeln" erfassen kannst, führt die Optimierung eines Falls zur (leichten) Verschlechterung anderer Fälle. Damit lebst du mit einem Kompromiss.

Dass Tesla von Car2X nicht viel hält ist klar, dafür gibt es ja schon Standards und dann kann man keinen neuen proprietären Mist einführen.

#basTi schrieb:
  • Die Möglichkeit das Netz im Schattenmodus auf der gesamten Tesla Flotte mit 1Mio Autos zu testen, bzw sich Grenzfälle schicken zu lassen als neue Trainingsdaten.
Diese Annahme beruht darauf, dass die Bordcomputer/FSD-Computer genügend Rechenleistung besitzen, um zwei Softwareversionen unabhängig voneinander zu betreiben UND die Ergebnisse zu vergleichen. Nun ist es laut "@Greentheonly" aber so, dass Tesla wohl schon eine ganze Weile an der Grenze der Kapazitäten des FSD-Chips arbeitet. Ohne dass eine Produktivsoftware parallel läuft.

Seit Jahresanfang ist es schon so, dass während einer "Shadowmode"-Kampagne sich das Zeitverhalten des Fahrzeugs ändert. Andere Fahrzeuge werden später erkannt, das System bekommt eine Latenz, der Vampire-Drain geht hoch, weil natürlich das Fahrzeug die Daten nach hause funkt. Ohne neue Version der Software verschwindet das Verhalten dann einfach wieder, alles läuft wieder normal. Nichts anderes ist aber in Sachen Multitasking zu erwarten.

Oneplusfan schrieb:
Was die L2 Diskussion angeht: Ist halt ne Sache der Verantwortung. Lieber hab ich ein Level 2 System, dass überall fährt als ein L3 System wie das von Daimler*
Das mag sein, dann musst du halt auch mit den Einschränkungen dieses Level2-Systems bezüglich Kurvengeschwindigkeit, Querbeschleunigung und Lenkrate leben. Diese Faktoren kommen durch die physiologischen Fähigkeiten der Fahrer zum tragen. Egal was das angeblich selbstfahrende Auto tut, wirst du immer die Verantwortung tragen. Mir persönlich ist das Babysitten einer Alpha-Software zusätzlich zur Fahraufgabe mittlerweile zu dämlich. Da fahre ich lieber selbst.

Oneplusfan schrieb:
Ob es dir passt oder nicht, aber Tesla ist der einzige Hersteller eines generalisierbaren Ansatzes, wo man völlig ungefiltert die Performance des Systems einsehen kann (und neben Waymo überhaupt nur 1 von 2 Systemen, die derart bewertbar sind). Ebenfalls ist es der einzige Hersteller, der diese Performance dann beliebig auf fast der gesamten Fahrzeugflotte ausrollen kann.
"Ungefiltert" finde ich reichlich übertrieben, der Filter sind die Teilnahmebedingungen am Programm. Mir reicht es zu sehen, was in den Mails zum Early Adopter-Programm an Auflagen gestellt werden, auch bezüglich der Veröffentlichung von Material, der Äußerungen in Foren etc.
Das ganze "FSD Beta"-Programm ist hauptsächlich eine Marketing-Show. Natürlich ist Tesla beim Thema "Computervision" verdammt weit, aber sie sind halt die einzigen, die einen reinen Computervision-Ansatz fahren. Mit Sensoren von Anno dazumal, was halt wieder nicht zum Anspruch passt.
Das ist doch genau der Punkt von Dojo. Sie schaffen sich die Probleme selbst, weil sie alles in einer Szene per CV erkennen müssen. Objekte, die sie nicht klassifizieren können, fallen halt hinten runter. Gab es noch nicht genügend Tote aufgrund dieses Ansatzes. Achso, stimmt, die waren alle vollkommen selbst schuld...

Oneplusfan schrieb:
Wenn Blinde versuchen von Farbe zu sprechen.
Wer im Glashaus sitzt... ;)


Oneplusfan schrieb:
Völlig sinnlose Vergleiche mit dem Ioniq in den Raum stellen (der btw. mal eben 40% mehr verbraucht, gar keine Ladestrategie im Navi hat, einfachste Dinge wie Einparken überhaupt nicht hinbekommt) hin zu vagen Aussagen was an der Datenpipeline schlecht ist, ohne darauf einzugehen, wie es bei den anderen (Mobileye, Waymo etc.) so läuft. Ist Waymo z.b. nicht im Vectorspace unterwegs? Wenn nein warum nicht? Welche Vorteile hats? Fehlt alles in deiner Ausführung.
Der Ioniq hat funktionierende Automatiken und Assistenzsysteme. Auch die Ladeplanung funktioniert, und er kennt Zwischenziele. Was soll das Ablenkungsmanöver zum Verbrauch?
Mal im Ernst: Ich bin einen Ioniq 5 probegefahren, danach ins Model 3 zum Heimfahren eingestiegen und hab mich Jahre in die Vergangenheit zurückversetzt gefühlt.
Dieses permanente Gequengel geht mir tierisch auf den Wecker: Auf der einen Seite werden die Hardcore-Tesla-Fans nicht müde zu betonen wie überlegen der Ansatz von Tesla wäre mit Millionen Fahrzeugen Daten zu sammeln und alles vertikal zu integrieren, alles in-house zu machen. Wenn dann die Model S-AP1-Fahrer oder Leute die ab und zu mal was anderes Fahren als Tesla darauf aufmerksam machen, wie unreif diese Software ist, die Tesla da seit 2016 ausliefert zieht man die "wir sind ja neu"-Karte. Doppelstandards vorne und hinten.

Draco Nobilis schrieb:
Warum ich so viel Vertrauen in Tesla etc. habe ist, weil die ein Ziel haben das über Gewinnmaximierung und Quartalsdenken hinaus geht. Quasi eine Vision, wenn man so mag. Das ist allen anderen Automobilfirmen völlig egal.
Öhm...frag mal Tesla-Mitarbeiter wie es jeweils zum Quartalsende zu geht. Da wird alles an Autos rausgehauen was irgendwie noch da ist. Egal in welchem Zustand. Hauptsache zugelassen. Es gibt keinen anderen Hersteller, der so auf Quartalszahlen fixiert ist wie Tesla. Das hatte vor zwei Jahren mit der Model 3-Einführung vielleicht noch seine Existenzberechtigung, mittlerweile ist es halt einfach nur lächerlich. Siehe die LFP-Model 3 SR+ letztes Jahr. Neue Akkus verbaut, nix getestet, Software nicht fertig. Wird an die Kunden ausgeliefert, im Winter ging dann "Schnellladen" halt noch mit 30kW. Pünktlich zum Frühjahr kamen dann die Kalibrierdaten. Aber Hauptsache die Autos zwei Quartale früher ausliefern.

Draco Nobilis schrieb:
Tesla benutzt, mehrere Kameras und auch Radar.
Wie das in Software / Hardware im einzelnen derzeit aussieht, kann ich allerdings nicht sagen.
Jein. Radar fliegt gerade raus. Wer ein Auto mit Radar hat, hat in Zukunft ein Auto mit Radar als Dekoration. In der Parameter-Lotterie mit jedem Update kann es halt mal sein dass du als Model 3-Fahrer auch jetzt mal keinen Radar mehr hast. Dann fällt die Fähigkeit des Abstandstempomaten halt auf die des BMW-KAFAS (mit Mobileye-Kamera) von 2013 zurück...schwankendes Tempo, schwankender Abstand...man lässt sich für die "Innovation" feiern, wo andere schon vor 10 Jahren waren und den Ansatz danach verworfen haben.

Autokiller677 schrieb:
Das etwas mit so vielen Bugs überhaupt die Fabrik verlässt, finde ich schon krass, bei dem Image, was VW einem sonst vermitteln will von hoher Qualität usw. Das passte mal überhaupt nicht ins Bild. Und da beide Autos weniger als 10kkm auf der Uhr hatten, werden sie auch noch nicht allzu alt gewesen sein.
Tesla macht halt vor, dass das nicht nur akzeptabel, sondern auch gewünscht ist. Wir hatten Probefahrten mit Enyaq und ID.4, beide hatten diese Probleme nicht. Obwohl bei einem ID.4 noch die alte Software vom Dezember 2020 aufgespielt war.
VW hat sich halt beim Golf 8 und beim MEB von Conti über den Tisch ziehen lassen; Das sind noch die Auswirkungen der (kurzen) Matthias-Müller-Ära. Das ist hier in der Region normaler "Flurfunk", dass es Meldungen aus den internen Spezialisten gab, dass der Zeitplan von Müller nicht haltbar gewesen wäre und man gerne das intern vorhandene Know-How weiter vorangetrieben hätte; Nur Conti hat damals halt gesagt "wir machen das wie ihr das wollt, und um x% günstiger" und die Sache war besiegelt, obwohl Conti damals ~90% der Leute gefehlt haben um den Auftrag zu schaffen. Golf 8 und ID.3 waren dann die von Allen in der Branche erwartete Software-Katastrophe.
Dass der VW-Einkauf nicht gerade die hellsten Kerzen auf der Torte beschäftigte ist ja jetzt kein Geheimnis; da gibt es die absurdesten Beispiele, insbesondere in der Zeit zwischen 2015 und 2018

cruse schrieb:
Die Autobauer haben über die Jahre alles abgegeben und bauen am Ende nur noch Autos und designen die.
Das ist sehr unterschiedlich und wird zwischen den Herstellern unterschiedlich gehandhabt. Ich finde es erstaunlich, das in dem Kontext immer auf VW eingehackt wird, wo die noch relativ viel selbst machen. Ford entwickelt exakt nichts selbst, die schreiben nur Lastenhefte.
Daimler und BMW sind längst zu klein um die Entwicklung maßgeblich voran zu treiben.

Es ist vielleicht eine idyllische Vorstellung des "alles selbst machen", in einer arbeitsteiligen, globalen Welt überlebt aber am Ende der, der Synergieeffekte, Kostenteilung und Individualisierung am Besten hinbekommt.
 
  • Gefällt mir
Reaktionen: Nacho_Man, Kommando, momos und eine weitere Person
CyrionX schrieb:
Ein Modul von 28 Litern mit ca 30cm Kantenlänge a.k.a. "Training Tile" a.k.a „organische Multi-Chip-Modul“, hat eine Kühlung die 25 × 400 Watt/ 15 KW abführen kann? Das Teil ist ja kleiner als die meisten Subwoofer und wäre der Oberhammer.
Da wird man oben eine Potente Wasserkühlung anschließen.

Nicht umsonst werden "nur" 2 Blades in einen 2m hohen Serverschrank geschraubt.
 
B.XP schrieb:
Die "Tele-Kamera" nach vorne hat meines Wissens nach eine verlässliche Reichweite von ~150m; meine Erfahrungen mit der Objekterkennung im NoA sind dass das Auto auf nichts reagiert was weiter weg als die Reichweite des Radars (150-160m) ist.

Schau, dieser eine Satz ist beispielhaft, warum ich auch den Rest nicht wirklich ernst nehmen kann.
Offensichtlich verwendest du NOA nicht oder hast nicht die gleiche Version wie ich verwendet.
Man erkennt nämlich erstens massiv den Unterschied wenn das Auto per Radar bremst oder wenn dies per Kamera passiert. Btw. habe ich hier auch nen Golf 8 GTE da, der genauso per Radar bremst. Es ist halt eine eine Systemschwäche von Radar in dieser relativ unangenehmen Weise zu bremsen. Oder ums anders auszudrücken: So würde kein Mensch bremsen.
Zweitens werden mir regelmäßig Spurwechselvorschläge in Entfernungen von ca. 250m (der Reichweite des Teleobjektivs, weit außerhalb der 160m des Radars) gemacht. Kann ja mal bei Gelegenheit ein Video machen lassen.

Nach vorne ist die Sicht mehr als ausreichend. Eher würde ich mir Gedanken bei der Sicht nach hinten machen. Ohne Speedlimit auf der AB wird das nämlich nichts mit einem nutzbringenden L3.

B.XP schrieb:
Es ist vielleicht eine idyllische Vorstellung des "alles selbst machen", in einer arbeitsteiligen, globalen Welt überlebt aber am Ende der, der Synergieeffekte, Kostenteilung und Individualisierung am Besten hinbekommt.

Ja, deswegen kauft man nicht kritische Komponenten am besten auch zu. Bestreitet auch niemand. Es würde wenig Sinn machen, wenn jeder anfängt seine eigenen Reifen oder Scheibenwischer zu designen (wobei es für Scheibenwischer doch noch einen Grund gäbe: die Aerodynamik).

Aber bei Kernkomponenten ist das anders. Da sieht man ja, wie Daimler auf Gedeih und Verderb am Nvidia Tropf hängt. Oder als 5. wichtigster Kunde Akkus bei CATL kaufen darf (wer wird bei einer Knappheit wohl als erstes nicht mehr beliefert?)

B.XP schrieb:
Der Ioniq hat funktionierende Automatiken und Assistenzsysteme. Auch die Ladeplanung funktioniert

Ich habe bisher kein Review gesehen, wo das der Fall war. Bei Nextmove war die Schilderkennung gar auf "Tesla Niveau", was lustig ist, denn Tesla hat keine aktive Schilderkennung auf deutschen Autobahnen. Kann auch das erste Video von Nico Pliquett zum "Parkassistenten" empfehlen.

Versteh mich nicht falsch, der Ioniq 5 ist ein geiles Auto mit ganz eigenen Features (Solardach, V2L etc.) und sicherlich eine Alternative zum Y (wenn man denn mit Ionity oder Ladekartenchaos klarkommt). Aber auch hier ist nicht alles so Grün wie man meint. Aber das Ding ist definitiv besser als das Zeug der VAG, das ist klar.

B.XP schrieb:
Dann fällt die Fähigkeit des Abstandstempomaten halt auf die des BMW-KAFAS (mit Mobileye-Kamera) von 2013 zurück...schwankendes Tempo, schwankender Abstand...man lässt sich für die "Innovation" feiern, wo andere schon vor 10 Jahren waren und den Ansatz danach verworfen haben.

Ja, wer kennt sie nicht, die Deep Learning Videopipeline von Mobileye von 2013 mit dem EyeQ2 und seinen ganzen 0,026 TOPS. Da hatten sie bestimmt auch schon die Tools am ein Video zu annotieren und labeln.
Warst du in den USA und bist so ein Vision only Fahrzeug gefahren? Oder ist das hier einfach nur wieder eine Vermutung deinerseits?

Btw. unterstellst du hier Tesla nach dem AI Day lowkey, dass sie wegen dem Wegfall des Radars auf dem Stand von Mobileye im Jahr 2013 sind? Das kannst du dann ja sicher auch irgendwie belegen oder?

Das war jetzt mein letzter OT Beitrag hier, versprochen.
 
xebone schrieb:
Der Einsatz ist jedesmal dein Leben das Du einer KI überlässt. Nein Danke, vielleicht mal in 50 Jahren...
Bei Waymo geht das schon heute. (ist halt super teuer)

Das siliziumbasierte neuronale Netz lässt sich dazu zwingen 100% beim Verkehr zu bleiben.
Bei organischen Neuralen Netzten ist dies zumindest Stand jetzt noch nicht möglich.

Ich weiß nicht, ob ich meiner NPU die ich Hirn nenne da mehr vertrauen würde.
Das Grundprinzip ist ja nicht groß anders. (Häufig wird bei adaptiven Systemen dann ja einfach auf sich selbst umschreibende FPGAs gesetzt)
 
#basTi schrieb:
Aber wie oben schon erwähnt, bringe ich dir gern nahe wieso ich glaube, dass Tesla führend ist.
  • Ich glaube unabhängiges Fahren geht nur wenn das Auto die Welt um sich erkennt. (ohne eine HD Map, welche Falsch sein könnte und ohne C2C Kommunikation, welche auch Probleme mit sich bringt wie Abhängigkeit etc)
  • Um die Welt um sich zu erkennen braucht es Bilderkennung
  • Bilderkennung geht nach aktuellem technischen Stand am Besten mit neuronalen Netzen
  • Um neuronale Netze zu trainieren Braucht es eine Masse an Daten, welche auch gelabelt sind.
  • Tesla sammelt seit Anbeginn diese Daten mit ihren Autos mit. Inklusive der Reaktion des Fahrers, welches implizites Labeling ist. Zudem beschäftigen sie ein riesen Team um Daten/Labels zum Training des Netzes zu erstellen.
  • Die Möglichkeit das Netz im Schattenmodus auf der gesamten Tesla Flotte mit 1Mio Autos zu testen, bzw sich Grenzfälle schicken zu lassen als neue Trainingsdaten.

All das hat meines Wissens nach kein anderer Hersteller. Selbst wenn alle dieselbe Methodik wie Tesla hätten, fehlt ihnen der Vorteil der Flotte (Schattenmodus, return Edge Cases, etc)
Sagt dir mobileye etwas?
 
Oneplusfan schrieb:
Schau, dieser eine Satz ist beispielhaft, warum ich auch den Rest nicht wirklich ernst nehmen kann.
Offensichtlich verwendest du NOA nicht oder hast nicht die gleiche Version wie ich verwendet.
Man erkennt nämlich erstens massiv den Unterschied wenn das Auto per Radar bremst oder wenn dies per Kamera passiert. [...] Es ist halt eine eine Systemschwäche von Radar in dieser relativ unangenehmen Weise zu bremsen. Oder ums anders auszudrücken: So würde kein Mensch bremsen.


Der erste Satz des Zitats passt auch wunderbar auf dich.

Die Art und weiße wie gebremst wird hat nichts primär mit dem Sensor, sondern lediglich wie die SW appliziert ist.
Sollte hier Tesla wirklich auf Radar Daten (Hohe longitudinale-Positionsgenauigkeit, Höhe Genauigkeit der Geschwindigkeit) als bei der Kamera (hohe Winkelauflösung) spricht das sehr stark dafür, dass die Objektqualität (also die Parameter des vorherfahrenden Fahrzeugs auf das geregelt werden soll) ziemlich schlecht ist und die darauf die Regelung angepasst haben, um diesen Makel zu vertuschen.
 
  • Gefällt mir
Reaktionen: B.XP
Autokiller677 schrieb:
Da wurde bei Einstellung 20° Vollgas gekühlt, und bei 20,5° ging die Heizung Vollgas los - obwohl eigentlich nur Temperatur halten angesagt war, war mitten während der Fahrt. Und einfach nur Lüftung ohne Temperaturregelung konnte man auch nicht haben (ich hab zumindest in dem Menü keinen Weg gefunden, um nur Gebläse ohne Regelung zu bekommen).
A/C: Off + Temp: Lo = nur Gebläse ohne Regelung. ;)
Prinzipiell kann ich aber ansonsten auch nur zustimmen. Über den Golf 8 und dessen Technik hört man echt wenig gutes. Da hat Tesla sicher die Nase vorne (und sich mit der ungeschickten Bezeichnung "Autopilot" ein Eigentor geschossen).
 
Ist halt nur eine ki, somit weit weg von der Leistungsfähigkeit eines menschlichen Gehirns. Vorallem, da solche kis nur spezielle wenige Aufgaben erledigen können, im Gegensatz zum menschlichen Gehirn...
 
feidl74 schrieb:
Ist halt nur eine ki, somit weit weg von der Leistungsfähigkeit eines menschlichen Gehirns. Vorallem, da solche kis nur spezielle wenige Aufgaben erledigen können, im Gegensatz zum menschlichen Gehirn...

Grundsächlich gibt es KIs die für ein super breites Feld trainiert werden können.

Ist ja funktionell nicht viel anders als beim Menschen (zumindest bei den guten KIs).

Das menschliche Gehirn hat erstaunlich wenig Rechenleistung. Die Algorithmik ist einfach enorm effizient.
Die Software für die besseren KIs entsteht entweder per Evolution oder wird vom menschlichen Gehirn übernommen.

Es gibt weltweit dutzende FPGA Array Hirne auf denen Gehirnmasse simuliert wird. (In DE zum Beispiel beim Frauenhofer, an der RWTH oder am KIT)
Da wird sehr dreist vom menschlichen KI design kopiert.

Temporales upscaling beherrscht das menschliche Gehirn übrigens auch super.
NVIDIA ist auf dem "KI Methodik vom Menschen kopieren" Feld ganz vorne mit dabei.
 
Aber nicht parallel in unterschiedlichsten "aufgaben/bereiche". Ich halte kis immer noch für primitiv, auch was die "Rechenleistung" angeht. Btw ein dämlicher und völlig irreführenden begriff
 
Innocience schrieb:
Ob das an den Features des Tesla liegt oder schlicht an der verantwortungsvolleren Käuferschaft (oder an einem der zahlreichen anderen plausiblem Gründen) vermag der Artikel allerdings nicht zu beantworten. Ohne die Daten und involvierten Variablen zu kennen, ist dieser Umstand - insbesondere mit Kontext eines bereits im Namen "tesla" beinhaltenden Onlinemagazins - mit Skepsis zu betrachten.
Jaja, Teslafahrer werden von Geburt an darauf konditioniert, die perfekten Verkehrsteilnehmer zu sein. Sie haben im Alter von 18 Jahren bereits 25 Jahre Erfahrung im Straßenverkehr. Nur so ist es zu erklären, dass Teslas deutlich seltener in Unfälle verwickelt sind.

Mit den Sicherheitssysteme die ältere Fahrzeuge und Fahrzeuge der Konkurrenz deutlich seltener in vergleichbarer Qualität haben, hat das natürlich rein gar nichts zu tun.
Nicht.

Die "Variablen" sind im Übrigen Unfälle pro zugelassene Fahrzeuge je Hersteller mal gefahrene Kilometer. Die Daten werden von der NHTSA ermittelt.

https://www.tesla.com/en_CA/VehicleSafetyReport
 
Zuletzt bearbeitet:
B.XP schrieb:
Was unter "HD-Map" genau zu verstehen ist daran scheiden sich ja die Geister. Dass man seitens Tesla die Verwendung von natürlichen oder künstlichen Landmarken schon im voraus verteufelt, auf der anderen Seite aber genau so eine Karte intern generiert lässt tief blicken.
Die intern berechnete ist aber Sekunden aktuell und nicht von vor einem Monat.
Keine Ahnung was hier dein Argument ist?

B.XP schrieb:
Die Verwendung von Kartenmaterial sorgt dafür, dass man eine höhere Vorausschau hat als man sensorisch erfassen kann. Stichwort Planung über die FoV-Grenze hinaus. Dass am Ende nur die reale Welt die echte Wahrheit darstellt bezweifelt ja niemand.
Und deshalb sollte man sich nicht auf das Kartenmaterial verlassen müssen.

B.XP schrieb:
Dass Tesla von Car2X nicht viel hält ist klar, dafür gibt es ja schon Standards und dann kann man keinen neuen proprietären Mist einführen.
Genau, das ist der einzige Grund.
B.XP schrieb:
Diese Annahme beruht darauf, dass die Bordcomputer/FSD-Computer genügend Rechenleistung besitzen, um zwei Softwareversionen unabhängig voneinander zu betreiben UND die Ergebnisse zu vergleichen. Nun ist es laut "@Greentheonly" aber so, dass Tesla wohl schon eine ganze Weile an der Grenze der Kapazitäten des FSD-Chips arbeitet. Ohne dass eine Produktivsoftware parallel läuft.
Der "FSD Computer" hat zwei volle FSD Chips. Wieso sollte es da ein Problem sein, parallel zu laufen?
Und den Vergleich der Ergebnisse stelle ich mir jetzt mal trivial vor.

sadburai schrieb:
Sagt dir mobileye etwas?
Ja, und? Haben die eine riesige weltweite Flotte, die sie nach Videos fragen können und Software Parallel laufen lassen können?
 
Zurück
Oben