News Dojo: Tesla zeigt eigenen D1-Chip und ExaFLOPS-Supercomputer

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
10.044
Für das Training künstlicher neuronaler Netze setzt Tesla derzeit noch auf Beschleuniger von Nvidia. Mit dem Dojo und den eigens entwickelten Prozessoren „D1“ baut sich Tesla derzeit aber einen eigenen Supercomputer auf, der mehr Leistung bei weniger Verbrauch und Platzbedarf liefern soll. Dojo soll über 1 ExaFLOPS erreichen.

Zur News: Dojo: Tesla zeigt eigenen D1-Chip und ExaFLOPS-Supercomputer
 
  • Gefällt mir
Reaktionen: N3utr4l1s4t0r, andi_sco, [wege]mini und 13 andere
die Formate FP32, BFP16, CFP8, CFP8, INT32, INT16 und INT8
Ich nehme an, das ist eine Dopplung.

Ansonsten ... Cool, baut Tesla jetzt auch eigene Chip Fabriken um seinen Bedarf zu decken?

Der Musk könnte ja GF von seinem Taschengeld kaufen.
 
  • Gefällt mir
Reaktionen: aid0nex, Mr Peanutbutter, Mcr-King und eine weitere Person
Beeindruckendes Design.
Das sind trotzdem ziemlich große Chips - wie hoch die Yields wohl sind?

Mich würden auch mehr Details bzgl. power delivery interessieren. 15kW sind eine Hausnummer und 18kA noch mehr. Die Chips laufen also mit ca. 830 mV? (2GHz bei 830mV ist... keine Ahnung? Gut?)

Damien White schrieb:
Der Musk könnte ja GF von seinem Taschengeld kaufen.

Hat GF mittlerweile auch einen 7nm Prozess?
 
  • Gefällt mir
Reaktionen: Hannibal Smith
Eigene Chips sind für Tesla nichts neues, das wurde schon Nvidia durch den eigenen Chip verdrängt. Spannend finde ich das sich in nächsterer Zukunft alle sehr Spezielle Chips für bestimmte Operationen selbst zusammen bauen. Sieht wohl so aus als würde da auch AMD und Intel machen. Bin echt gespannt.
 
Ich bin hin und hergerissen, wieviel ich bei diesem AI Day als reines IR (Investor Relations) betrachte, und wieviel als wirklich strategisch und langfristig wertvoll für die Firma beurteile.

Sicher ist nur, dass in Wolfsburg noch keiner drüber nachgedacht hat, ob man langfristig eigene Chips zum Training künstlicher neuronaler Netze benötigt. Bin nicht mal sicher ob die das Zeitalter der hartcodierten Objekterkennung und Regeln zugunsten intransparentem ML langsam hinter sich gelassen haben.
 
  • Gefällt mir
Reaktionen: andi_sco, flym und Land_Kind
so, wie man die "alteingesessenen Autobauer" vor sich hertreibt, scheint es auch mit Zulieferern zu gehen (in diesem Fall nVidia), wobei das hier ja Datacenter-Technik ist und keine "klassische" Automobiltechnik... wird aber für das vielbeschworene "autonome" Fahren sicherlich wichtig...
 
  • Gefällt mir
Reaktionen: TecTurtle, Crazy- Jak, KDKSenior und 3 andere
Und Tesla zeigt mMn wieder, dass sie die einzigen sind, die innovativ Denken in dem Bereich.
Die Simulation fürs Labeling alleine war schon echt gut. Kaum zu unterscheiden zur Realität.

Und die meisten denken weiterhin, dass Tesla ein reiner Autobauer ist.
 
  • Gefällt mir
Reaktionen: 5 weitere User, TecTurtle, ANSYSiC und 14 andere
Sehr beachtlich. Sicherlich wäre Tesla ein bessere Zulieferer (Dojo, Batterien, Ladeinfrastruktur, ...) als ein Autobauer (da ist einfach noch Luft nach oben...). ;)
 
  • Gefällt mir
Reaktionen: TecTurtle
Es scheint immer mehr in Mode zu kommen, dass Softwarehersteller eigene Hardware für ihre Software optimieren, dass die eigenen Software für die vorhandene Hardware ^^
 
  • Gefällt mir
Reaktionen: Shadow86, CMDCake, gartenriese und eine weitere Person
Danke Computerbase für diesen wirklich guten Artikel! Ich habe die Präsentation angeschaut, und ihr habt meinem Verständnis nach die relevanten Fakten rund um die Hardware hervorragend erfasst und hier präsentiert.

Gleichzeitig stürzen sich buchstäblich ALLE anderen Medien nur dümmlich auf den witzigen Bot, der ebenfalls präsentiert (bzw. bestenfalls "angeteasert") wurde, und lassen das eigentlich wichtige des Events völlig außen vor: Hardware, die weit über dem "State Of The Art" angesiedelt ist, und die sich als echter Game Changer im Training neuronaler Netze erweisen könnte. Die gezeigte Rechenleistung, die Skalierbarkeit und das Packaging sind echt der Hammer. Der Vorsprung, den Tesla auf dem Feld der KI-Forschung hat, dürfte nun endlich klarer werden.

Ich hatte ehrlich gesagt nicht damit gerechnet, dass sie hier dermaßen hoch entwickelte, spezialisierte Hardware präsentieren, welche sogar Nvidia weitgehend alt aussehen lässt... uff. Mal sehen, vielleicht wird die Hardware auch an Dritte verkauft. Man kann sich als Laie gar nicht ausdenken, was die besten und kreativsten Köpfe in der KI-Forschung mit solchen Werkzeugen alles erreichen könnten.
 
  • Gefällt mir
Reaktionen: N3utr4l1s4t0r, andi_sco, 5 weitere User und 27 andere
Bei den Zahlen wird mir schwindlig.
Da steckt definitiv was im Busch.
Ich halte Teslas Ansatz immer noch für am besten. Passive Kamera alleine reichen. Der Rest der Automobilbranche versucht möglichst schnell an Tesla heranzukommen, indeman alles mit störanfälligen aktiven Techniken zupflastert, welche sich gegenseitig stark stören und nicht massentauglich sind.

Hier sehe ich das Tesla das wirklich ernst nimmt.
 
Bei solchen Zahlen staune ich immer wieder wie gute Arbeit die Natur bzw. Evolution gemacht hat und wie weit wir weg sind mit unserer Technik die wir für High Tech halten.

Normalerweise bleiben die GFLOPs, TFLOPs... Angaben bei Supercomputer abstrakt weil man so nur Supercomputer mit Supercomputer vergleichen kann.

Beim Fahren und KI ist das anders. Ich las mal, um ein Auto zu fahren reiche ein Rattenhirn. So klein wie eine Erbse, läuft einen ganzen Tag wenn die Ratte ein, zwei Erdnüsse ergattert, alle paar Wochen kann ein Weibchen ein Duzend davon produzieren...
 
  • Gefällt mir
Reaktionen: MP X10L und [wege]mini
Meh.... Ein TPUv4 Pod bei Google kann das halt auch einfach heute schon, und nicht erst naechstes Jahr. Und mit dem Einkaufen von NVIDIA DGX Superpods kann man das fuer ca. 250m USD auch.

Was am Ende bleibt ist eine Spezialarchitektur, die speziell auf Tesla's Anwendungen ausgelegt ist und darauf auch gut performen wird. Bis halt wieder, wie im Machine Learning Bereich ueblich, die naechste grosse Architekturrevolution kommt und man diese Maschine dann ins Alteisen schicken kann.

@nlr Kleine Korrektur: LINPACK Benchmarks sind in FP64 gemessen.. I.e. Frontier, El Capitan & Aurora, die ersten US Exascalemaschinen, werden alle mehr als 4 Mal so schnell sein.
 
  • Gefällt mir
Reaktionen: B.XP
Odysseus277 schrieb:
Ich hatte ehrlich gesagt nicht damit gerechnet, dass sie hier dermaßen hoch entwickelte, spezialisierte Hardware präsentieren, welche sogar Nvidia weitgehend alt aussehen lässt... uff.
Am Ende ist es bei Nvidia halt doch "nur" eine GPU, die sich zufälliger Weise für Themen wie KI zweckentfremden lässt.
Tesla hat sich da einfach nen eigenen Chip gemacht und den GPU balast einfach weggelassen.
 
  • Gefällt mir
Reaktionen: CMDCake, konkretor und -Ps-Y-cO-
Odysseus277 schrieb:
Ich hatte ehrlich gesagt nicht damit gerechnet, dass sie hier dermaßen hoch entwickelte, spezialisierte Hardware präsentieren, welche sogar Nvidia weitgehend alt aussehen lässt... uff. Mal sehen, vielleicht wird die Hardware auch an Dritte verkauft. Man kann sich als Laie gar nicht ausdenken, was die besten und kreativsten Köpfe in der KI-Forschung mit solchen Werkzeugen alles erreichen könnten.

Aeeeeh, nein?!?! Eine A100 in der SXM-Version, welche die vergleichbare Option hier ist, hat >312 TFLOPS BFloat16 in der 400W Version. Hiervon gibt es auch eine nicht-gelistete 500W Version. Also ist die Performance effektiv ebenbuertig.

Aber es handelt sich hier um einen Chip, der erst naechstes Jahr in den Betrieb geht. Tesla vergleicht hier einen 2022er Chip mit einem Chip von 2020. Somit ist Tesla hier mindestens eine Generation hinter NVIDIA & Co. welche alle naechstes Jahr schon wieder neue Datencenterprodukte haben werden.

In Conclusio: Niemand Anderes wird diese Chips auch nur kaufen wollen, weil sie nicht kompetitiv auf dem freien Markt sind.
 
  • Gefällt mir
Reaktionen: tritratrullala, B.XP und v3locite
Draco Nobilis schrieb:
Bei den Zahlen wird mir schwindlig.
Da steckt definitiv was im Busch.
Ich halte Teslas Ansatz immer noch für am besten. Passive Kamera alleine reichen. Der Rest der Automobilbranche versucht möglichst schnell an Tesla heranzukommen, indeman alles mit störanfälligen aktiven Techniken zupflastert, welche sich gegenseitig stark stören und nicht massentauglich sind.

Hier sehe ich das Tesla das wirklich ernst nimmt.
Ein Lidar stört eine Kamera?
Zumindest fahren "die anderen" nicht gegen einen LKW weil die Tesla-Software den LKW für ein Hinweisschild hält.
 
  • Gefällt mir
Reaktionen: tnlive, tritratrullala, Crazy- Jak und 9 andere
Damien White schrieb:
Ich nehme an, das ist eine Dopplung.

Ansonsten ... Cool, baut Tesla jetzt auch eigene Chip Fabriken um seinen Bedarf zu decken?

Der Musk könnte ja GF von seinem Taschengeld kaufen.

Vielleicht wenn GF an die Börse geht. ;)
 
sikarr schrieb:
Und gegen Hinweisschilder fahren wäre in Ordnung? ;)
nein, aber die bleiben halt normalerweise stehen und fahren dann nicht plötzlich los. 😁
 
  • Gefällt mir
Reaktionen: nosound, Mcr-King, Der Puritaner und eine weitere Person
Ich frage mich nur wieso sollte ich unbedingt autonom fahren wollen? damit mir die werbeindustrie während dieser zeit noch mehr werbung von irgendeinem scheiß den ich nicht benötige eintrichtern kann? oder weil ich während dieser zeit noch irgendeinen anderen scheiß machen kann, der nicht mit autofahren zu tun hat, mit was bitte schön sollte ich mich auf einer langen fahrt beschäftigen als mit dem bedienen eines fahrzeugs.
Zumal ich sowieso Radfahrer bin, muss ich mich dann mit der KI von autos herumärgern weil sie zuvorsichtig oder nicht sind.
 
  • Gefällt mir
Reaktionen: cirrussc und tnlive
Zurück
Oben