Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Drive Thor: 2.000-TFLOPS-SoC ersetzt Atlan für autonomes Fahren
Die vor anderthalb Jahren vorgestellte Plattform Drive Atlan ist schon wieder Geschichte bei Nvidia und wird durch Drive Thor mit einer Leistung von 2.000 TFLOPS ersetzt. Sie soll mit 2025 aber im selben Jahr einsatzbereit sein. Thor ist ein Zentralcomputer mit Funktionen für autonomes Fahren, Monitoring, Infotainment und mehr.
Prinzipiell eine gute Idee Steuergeräte zu zentralisieren. Das birgt aber auch die Gefahr, dass das Fahrzeug gleich komplett ausfällt, obwohl theoretisch nur das Radio betroffen wäre. Aber Fahrzeuge mit immer mehr Steuergeräten können auf Dauer wohl auch nicht die Lösung sein.
Am Ende ist doch auch irgendwie der Kunde, ob er sich drauf einlässt oder nicht. Ich seh´s aber auch mit gemischten Gefühlen. Bin jetzt aber nicht so Firm, was die Thematik an sich angeht.
Leider nicht, NVIDIA ist inzwischen Defacto der Standart und wird von fast allen OEMs vorgeschriebenen.
Man hat eben nicht die Wahl, insbesondere fürs Autonome Fahren, da kein andere eine entsprechende Plattform und Chips anbietet.
Daimler teilt sicher nicht freiwillig jeden Euro den sie verdienen mit NVIDIA (im Sektor automotive driving)
Premium Modelle und LKW (Mercedes hat ja schon länger die Prototypen auf der Straße und hofft auf eine Zulassung)
@PusteBlume0815
Wobei es grundsätzlich mit einer Redundanz das bessere System ist. Es gibt viel Steuerungs ICs die fast nur Bussystem und Dummy Zelle sind (damit die groß genug fürs Packaging werden). Da entfallen viele Fehlerquellen, zumal ein Problem on die sehr sehr selten ist (meist ist es Packaging, Interposer, PCB, Bus, ...)
Zumindest werden die Hauptkosten von GeforceNow zukünftig von Firmen getragen. Langfristig werden die Preise für uns Endanwender deswegen niedrig bleiben (hoffentlich).
Das geht schnell. Zum Release kostet das Auto dann eben 8.000 Euro Aufpreis, drei Jahre später sind es dann nur noch 800 Euro. Die Entwicklung in dem Bereich ist so ultra-rasant, dass wir Autos in nur zehn Jahren kaum noch wiedererkennen werden (in ihren Funktionen; Design bleibt).
Edit: Antwort war bezogen auf @Daniel D., Zitat vergessen .
Ich hoffe du hast recht - glauben tue ich es aber nicht.
Anakin Solo schrieb:
Leider nicht, NVIDIA ist inzwischen Defacto der Standart und wird von fast allen OEMs vorgeschriebenen.
Man hat eben nicht die Wahl, insbesondere fürs Autonome Fahren, da kein andere eine entsprechende Plattform und Chips anbietet.
Wenn man sich auf das Thema autonomes fahren bezieht, ist nvidia mittlerweile wohl tatsächlich einer der führenden Unternehmen. Ich meinte aber eher, ob ich als Kunde bereit wäre autonom fahren zu wollen. Meiner Meinung nach, sind das viele nämlich nicht.
Das ist nicht richtig.
Das Fahrzeug muss im Fehlerfall vorhersehbar reagieren. Dass da mehrere kritische Systeme doppelt vorhanden wären, gibt es nicht in größerem Maßstab.
Aus der c't (10.09. Seite 44) Umsatz mit automotive:
Nvidia: 220 M$
NXP: 5,5 G$
Infineon: 4,5 G$
Intel: 1,4 G$
Wie automotive jeweils definiert ist ist natürlich unterschiedlich aber eine Monopolstellung hat Nvidia wenn überhaupt in Teilbereichen wie autonom fahren
In dem Artikel steht auch: "Sicherheitskritische Software läuft jeweils redundant auf mehreren Kernen" auch wenn es da um den Orin ging wird das hier nicht anders sein.
Ergänzung ()
Auf welche Plattform setzt den eigentlich der Mercedes? Wenn Nvidia dann hätten die doch damit geworben.
Steuercomputer, autonomes fahren und infotainment auf dem gleichen chip laufen zu lassen klingt für mich erstmal nach einer mäßig guten idee. warum sollten die keine exploits über threadgrenzen hinweg trotz schutzmaßnahmen haben?
die zukunftsvision einmal unauffällig leute per fernzugriffunfall verschwinden zu lassen wird ja wohl hoffentlich nicht der ausschlaggebende punkt sein. das war eigentlich als negativer aspekt einer dystopie gedacht, nicht als wunsch.
Laut Nvidia hätten Entwickler bislang Genauigkeit beim Wechsel von FP32 zu INT8 im neuronalen Netz verloren, mit FP8 sei dies nicht der Fall.
Da stehe ich total auf dem Schlauch. FP8 verliert gegenüber FP32 keine Genauigkeit? Selbst ohne Mathe studiert zu haben sehe ich da 8 bit gegen 32 und egal wie man die verteilt fehlt irgendwas.