News Autonomes Fahren: Nvidia Drive Atlan liefert doppelte Leistung pro Watt

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
10.316
Also die zwei in der Tabelle oben stehenden Atlan mit 50 und 100 Watt Verbrauch bei 400 bzw. 800 TOPS sind ein guter Schritt nach vorne. Vor allem bei reinen Elektroautos müssen die Stromverbräuche für alle Systeme außerhalb des Antriebes gesenkt werden, um die Reichweite hochzuhalten.

Das "Monster" mit 750 Watt Verbrauch bei 2.000 TOPS (vermutlich kommt die Wasserkühlung noch dazu) ist da einfach nicht mehr zeitgemäß, wenn man den normalen Verbrauch von 17 kWh/100 km eines kleineren E-Autos zugrunde legt. Da machen 0,75 kW gleich mal 4,4 Prozent Mehrverbrauch nur für den "Bordcomputer" aus.
 
  • Gefällt mir
Reaktionen: flo.murr
Ist die Frage wie viel TOPS benötigt man überhaupt? Tesla kommt ja anscheinend bisher mit 144 TOPS ganz gut klar.

400 TOPS bei 50 Watt ist da ein super Wert und dürfte ja (aktuell) für alles ausreichen. Was macht man mit den größeren Boliden?
 
Eine frage wer fährt hier alles Tesla?? wie Effizienz ist ihr Plattform??


PS: hieß es nicht das Tesla bald Pleite geht und Bauen in Berlin eine Autowerk wo Sie die Kohle verbudeln 🤒
 
flappes schrieb:
Ist die Frage wie viel TOPS benötigt man überhaupt? Tesla kommt ja anscheinend bisher mit 144 TOPS ganz gut klar.

400 TOPS bei 50 Watt ist da ein super Wert und dürfte ja (aktuell) für alles ausreichen. Was macht man mit den größeren Boliden?
Mehr ist immer besser, man darf nicht vergessen die die Hardware Jahre bevor die Software kommt bestellt wird und wenn das nicht zusammen passt werden Funktionen beschnitten. Dies ist bei Autonomen Fahren natürlich zu vermeiden.
 
  • Gefällt mir
Reaktionen: Ouzo und nlr
Tesla nutzt halt Kameras.
Da braucht man nicht für jedes dumme Lidar- und Radarproblem (aktive statt passive Systeme) verrückte technische Lösungen. Vermutlich braucht Tesla auch daher weniger Kapazitäten.

Lidar und Radar sind nur gut um Tesla in dem Themengebiet schnell einzuholen, zum überholen oder gar perfektes autonomes fahren werden reine Kameras vermutlich völlig ausreichen. Wir nutzen halt auch genau nur 2 Augen fürs fahren. Das "menschliche" Problem ist die unfassbar hohe Latenz und das wir eben den Status aller Autobauteile des Fahrzeuges nicht zu jeder Millisekunde kennen. Dazu kommt natürlich das Menschen allgemein Trantüten sind, müde werden, rumqängeln und sich ablenken lassen.
 
  • Gefällt mir
Reaktionen: Ouzo
flappes schrieb:
Ist die Frage wie viel TOPS benötigt man überhaupt? Tesla kommt ja anscheinend bisher mit 144 TOPS ganz gut klar.

Vorsicht, TOPS ist nicht gleich TOPS.
Tesla verwendet meines Wissens nach(nagelt mich nicht darauf fest) NPUs mit ausschließlich 96*96 Matrix Rechnern.

Alle neuronalen Netze von FSD sind auf genau diesen Wert ausgelegt, wodurch man eine "Effizienz" von fast 100% erreicht, d.h. die gesamte theoretische Leistung verwenden kann. Hinzu kommt eine völlig andere SRAM Speicherarchitektur. Der Speicher im Chip ist zwar wesentlich kleiner als VRAM, aber dafür viel schneller.
Außerdem hat die GPU lediglich 600 GFLOPS, da diese keine NNs handelt.

Der vorher verwendete Pascal GP106 hatte eine Effizienz von ca. 50%.

Für einen 14nm Prozess ist die Plattform sehr effizient. Meines Wissens nach kann man den FSD Chip nicht ausschalten, da dieser permanent bei 100% im Schattenmodus läuft und im Hintergrund quasi mitfährt. Aber bei nur 72W macht das wirklich keinen Unterschied.

Es soll ja noch ein Nachfolger in 7nm und 5nm kommen, die Frage ist dann halt, ob man mehr Leistung verbaut oder ob man nur die Energieeffizienz steigert.

Hinzu kommt natürlich, dass man sich Lidar (inkl. cm genauer Lokalisierung) komplett spart und man ab FSD Beta V9 auch komplett auf Radar verzichten will.

Auch interessant ist, dass Mobileye mit dem EyeQ 5 andere Wege geht. Das Ding hat nur 20 TOPS bei 10W.
Ist quasi das andere Extrem zu Nvidia, die alles mit Rechenleistung erschlagen wollen.
 
  • Gefällt mir
Reaktionen: Ouzo und flappes
Wie sind die auf den Namen Atlan gekommen.
War da vielleicht ein PR-Fan am Werk?
 
Draco Nobilis schrieb:
Tesla nutzt halt Kameras.
Da braucht man nicht für jedes dumme Lidar- und Radarproblem (aktive statt passive Systeme) verrückte technische Lösungen. Vermutlich braucht Tesla auch daher weniger Kapazitäten.
[...]
Objekterkennung auf Bildern ist in der Regel deutlich aufwendiger als die Auswertung der bereits aggregierten Daten der meisten, spezialisierten Sensorsysteme. Zudem sind optische Systeme recht anfällig gegenüber Sichteinschränkungen. Menschen kompensieren das damit, dass sie gern mal "auf Verdacht" fahren. Bei Fahrzeugen wird man dieses Verhalten auch nachstellen müssen, wenn man nicht will, dass die Kisten regelmäßig (not-)bremsen wenn mal etwas Gegenlicht auftritt. An der Stelle sind von Kamerasystemen unabhängige Systeme viel wert.
 
flappes schrieb:
Ist die Frage wie viel TOPS benötigt man überhaupt? Tesla kommt ja anscheinend bisher mit 144 TOPS ganz gut klar.

400 TOPS bei 50 Watt ist da ein super Wert und dürfte ja (aktuell) für alles ausreichen. Was macht man mit den größeren Boliden?
Tesla hat aber nur L2+-Systeme im Angebot, die großen NVidia-Platformen sind aber für L4-Systeme gedacht. Da sind deutlich mehr und redundante Sensoren notwendig. Der FSD von Tesla braucht immernoch einen Fahrer als Überwachungsinstanz, was erstmal gute 80% Komplexität aus dem System rausnimmt.

Das Problem ist eher, dass von "Nvidia kündigt an" mit den üblichen Produktentwicklungszyklen durchaus 3-4 Jahre ins Land gehen, bis industrialisierte Lösungen im Fahrzeug verbaut sind.
 
Piktogramm schrieb:
Objekterkennung auf Bildern ist in der Regel deutlich aufwendiger als die Auswertung der bereits aggregierten Daten der meisten, spezialisierten Sensorsysteme.

Eine Objekterkennung per Kamera muss in jedem System immer vorhanden sein, egal welche Sensoren sonst noch verbaut wurden. Kameras sind in fast allen Bereichen alternativlos, da alle Verkehrssysteme sichtbasiert sind.

Eine bildbasierte Tiefenerkennung wird ebenso implemmentiert (unabhängig von Lidar und Radar), da so eine automatische Verbesserung bei der Objekterkennung erreicht wird.
Dies ist auch der Grund, warum beispielsweise auch Waymo auf Pseudolidar der Kameras setzen, obwohl sie das theoretisch auch per Lidar umgehen könnten. Deren Lidar hat vor allem eine Lokalisierungsfunktion.

Piktogramm schrieb:
Zudem sind optische Systeme recht anfällig gegenüber Sichteinschränkungen. Menschen kompensieren das damit, dass sie gern mal "auf Verdacht" fahren.

Eine Kamera kann viele Dinge, die Menschen nicht können. U.a. die Belichtungszeit ändern und in Lichtspektren sehen, die für Menschen unsichtbar sind.
Von all den Problemen, die aktuell noch auftreten (und mit aktuell meine ich was manche Amis fahren dürfen, nicht was bei uns geliefert wird) ist Gegenlicht keins davon.
Dreck auf der Kameralinse ist da ein großeres Problem. Aber von allen Problemen, die noch zu lösen sind, wird das wohl das trivialste sein.

Sowohl der FSD Computer, als auch Drive Orin und EyeQ 5 sind auf L5 ausgelegt worden. Zumindest behaupten die Hersteller das.

Piktogramm schrieb:
Kisten regelmäßig (not-)bremsen wenn mal etwas Gegenlicht auftritt. An der Stelle sind von Kamerasystemen unabhängige Systeme viel wert.

Oh glaub mir, Radare sind ganz schlimm was Phantombremsungen angeht.
Mir wäre es aus eigener Erfahrung deutlich lieber, man würde komplett darauf verzichten.
 
@Oneplusfan
Kameras sind immer vorhanden, wenn aber Sichtsysteme die einzige Datenquelle ist, sind da deutlich höhere Anforderungen zu stellen als bei Systemen die mehrere Datenquellen nutzen. Das Kameras aber zwingend sind gehe ich mit, schon allein weil die menschliche Infrastruktur auf Sicht ausgelegt ist.

Das Kameras viel können was das menschliche Auge nicht kann stimmt, aber unfehlbar sind die Dinger nicht und vor allem sind die meisten Kamerasysteme auf Kosten und nicht auf Leistung optimiert. Entsprechend ist Gegenlicht ein Problem, Verschmutzung des Sichtfeldes etc. pp.
Gerade solche Fälle wo ein Tesla einen weißen LKW nicht vom bewölktem, dennoch hellem Wolkenhintergrund trennen konnte und so einen Unfall bedingte zeigen das eindrucksvoll. Wo kein Kontrast da ist, kann keine Kanten bzw. Objekterkennung erfolgen. Je geringer der Kontrast ist, desto mehr Rechenleistung muss man da auf jedes einzelne Bild werfen. Hat man an der Stelle unabhänige Sensoren macht es die ganze Sache leichter. Da kommt man tendenziell mit weniger Berechnungen aus um dennoch akzeptable Unsicherheiten zu erreichen.

Bei neueren Radarsystemen/Abstandsreglern habe ich Phantombremsungen nicht mehr erlebt. Wenn waren dass immer Dinge, wo der Fahrer bzw andere Verkehrsteilnehmer Situationen herbeigeführt haben, die Sicherheitsabstände massiv unterschritten haben.
Das wird dann sowieso das spannenste am (voll)autonomen Fahren, die Mischung aus suizidalen Arschgeigen mit autonomen Systemen, die sich mehr oder weniger strikt an Regeln halten müssen (aus Gründen der Zulassung und Haftung).
 
Piktogramm schrieb:
Gerade solche Fälle wo ein Tesla einen weißen LKW nicht vom bewölktem, dennoch hellem Wolkenhintergrund trennen konnte und so einen Unfall bedingte zeigen das eindrucksvoll

Das ist halt pure Spekulation.
Manche Experten im Feld der KI sahen in dem Fall eindeutig die Software als Schuldige an, da es einen gekippten LKW schlicht nicht in der Datenbank gab, bzw. die Netze diesen nicht ausreichend wahrscheinlich als Hindnerniss erkannten.
Leider gibt es kein öffentlich verfügbares Fahrtvideo, müsste ein Mensch aber an der Stelle mithilfe des Videofeeds das System steuern, bin ich mir sicher, dass man sowohl den LKW erkannt hätte und die Bremsung rechtzeitig erfolgt wäre. Bräuchte man neue Sensoren, wäre das eine sehr geringe Hürde, die Autos wurden extra so gebaut, dass diese kostengünstig ausgetauscht werden können.

Das Radar hat hier übrigens nicht zur Hilfe beigetragen. Ohnehin hat man bei vielen Sensoren auch wieder das Gewichtungsproblem, welchem Sensor glaube ich eher? Lidar und Radar sind bisher zumindest noch sehr störanfällig.

Ich denke im Endeffekt, dass die Software der limitierende Faktor ist. Sollte sich irgendwann herausstellen, dass man doch noch extra Sensoren benötigt (sei es zur Redundanz oder weil das System halt nur so funktioniert), kann man diese noch nachrüsten.
 
Das es kein Erkennungs- und Bewertungsmodell für "generisches Hindernis" gab würde ich als unwahrscheinlich abtun. Das ist normalerweise ja der Grundstein, dass eine generische Objekterkennung erfolgt, und erst danach eine genauere Spezifikation was für spezifische Objekte das sind. Wobei alle unspezifischen Objekte, die im Fahrweg liegen immer als Hindernis zählen (müssen). Das Erkennung nur anhand spezifischer Modelle erfolgen kann, wäre ein grundlegener und vor allem fataler Fehler (für so deppert halte ich Niemanden bei Tesla).
Wenn eine generische Objekterkennung fehlt schlägt, dann in der Regel, weil die Objekterkennung über das Erkennen (zusammenhängender) Kanten erfolgt und Kanten werden über Kontrastsprünge gefunden. Je schlechter eben jene Kontrastsprünge sind, desto mehr Rechenzeit braucht es, für eine zuverlässige Erkennung (bei akzeptabel kleinem false-negative & false-positive).

Das Gewichtungsproblem ist vergleichsweise klein. Eine Bewertung der Plausibilität der Sensordaten braucht es bei jedem System für sich. Da ändert sich nicht viel, erst bei Widersprüchen zwischen den Systemen. Da ist die Handlungsweise dann auch recht simpel, wenn ein Sensorsystem plausibel meldet, dass es ein Hindernis gibt, wird angemessen verzögert.
 
Zurück
Oben