News Nvidia Tegra „Parker“: Denver-2-ARM-Kerne treffen Pascal-Grafik in 16 nm

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.764
ich kann mir vorstellen dass es aktuell eine super günstige Zeit ist in diesem Bereich zu pushen. Neben Tesla ist so ziemlich jeder aktuelle große Hersteller am selbst-fahrenden Auto dran und hier fehlt es noch an der entsprechenden Hardware.

Neue Wagen haben alle ein hochauflösendes Cockpit mit an Bord, Tesla auch ein riesen Bildschirm und wer den schon bedient hat weiß dass es da noch ordentlich an Performance fehlt. Auch was die optische Auswertung von Stereo Kameras sowie die Vielzahl an Sensoren angeht ist eine Mischung aus verschiedenen CPU Kernen und einer GPU sicher von Vorteil. Je nach Parallelisierung kann man auf Denver bis runter auf die GPU zugreifen.

Im Prinzip gilt es auch über eine Vernetzung eine Art Schwarmintelligenz der selbst-fahrenden Autos zu schaffen. Das dürfte noch weit effizienter funktionieren als jedes System für sich. Sensordaten liegen dann redundant und in hoher Zahl vor, eine zentrale Intelligenz lernt dynamisch und weiß was sich auf den Streckenabschnitt vor dem Wagen tut, welche Sensordaten zu erwarten sind. Im Prinzip reicht es dann wenn wenige Wagen zb eine Baustelle manuell gestützt durchfahren und alle anderen Wagen lernen dynamisch hinzu und erfordern kein Eingreifen mehr.

Bin gespannt wo das hinführt.
 
Zuletzt bearbeitet:
@Krautmeister , sehe ich auch so. Es ist eine riesen Baustelle vor uns, das wird DAS nächst DING sein in unserer Zukunft. Das tolle ist ja, dass wir von Beginn an dabei sein dürfen :)
 
Was sagt eigentlich DC Comics dazu, dass NVIDIA mit ihrer Nomenklatur ihrer Chips/Socs ins Marvel Universum wechselte? :D
 
Mich wundert ja das Core-Design. Warum zu dem proprietären Denver noch ARM-SoCs dazu? Wenn es nach big.LITTLE-Prinzip gewesen wäre, hätte ich's ja noch verstanden, aber der A57 wird ja normalerweise selber gerne als "big"-Kern eingesetzt. Strom spart man so also nicht.

Auch warum man den TX1 nicht mit in den CPU-Vergleich packt, will sich mir nicht erschließen. Aber das hat ja bei nVIDIA Methode, Fakten wegzulassen.

PS: Schon witzig zu sehen, was Apple nichtsdestotrotz immer noch aus einem Dual-Core rausholt. Der A10 soll ja auch nochmal an die 20% schneller sein als der A9X (Kein Fanboy-Getue).
 
Zuletzt bearbeitet:
iophobia schrieb:
Mich wundert ja das Core-Design. [...]

Ja, daran muss ich auch denken. Der A57 wird als performancechip bezeichnet und sorgte beim Snapdragon 810 für ordentliche Hitze.

Die Entwicklung geht wohl schon etwas länger und die A53 chips sind wahrscheinlich zu schwach, sonst hätten die mit Sicherheit den A72 genommen...
 
Effizienz ist im Fahrzeugsektor nicht so übermässig wichtig.
Bin mal gespannt ob die Software diesen komplexen Aufbau überhaupt richtig ansprechen und nutzen kann.
 
@ Krautmaster
ich kann dir da nur zu stimmen
das tesla bedienfeld ist schon sehr grenzweritg
so langsam wie das reagiert

wobei das bei anderen herstellern nicht ansatzweise so krass schlecht funktioniert
klar haben mercedes und co etwas kleinere displays aber trotzdem frage ich mich was die für eien lösung verwenden
 
mickyb schrieb:
[...]Bin mal gespannt ob die Software diesen komplexen Aufbau überhaupt richtig ansprechen und nutzen kann.

Die haben ja Erfahrung mit den Vorgänger-Chips und sind ja mit den Jetson-Boards auch im Robotik-Sektor mit ROS ganz gut dabei. Sollte man sich also keine Sorgen machen.
 
Dann nutzt du deinen 3D-Chip-Drucker und druckst dir was neues ;-)

Oder die gesamte Platine wird durch ein neues Kit ersetzt, der Ersatzteilmarkt ist ja nicht gerade klein und Anbieter gibts da auch genug.

In 8-10 Jahren machst du nichts anderes als heute auch. Wo Geld zu verdienen ist, da wirds auch Anbieter geben.
 
iophobia schrieb:
Mich wundert ja das Core-Design. Warum zu dem proprietären Denver noch ARM-SoCs dazu? Wenn es nach big.LITTLE-Prinzip gewesen wäre, hätte ich's ja noch verstanden, aber der A57 wird ja normalerweise selber gerne als "big"-Kern eingesetzt. Strom spart man so also nicht.

Auch warum man den TX1 nicht mit in den CPU-Vergleich packt, will sich mir nicht erschließen. Aber das hat ja bei nVIDIA Methode, Fakten wegzulassen.

PS: Schon witzig zu sehen, was Apple nichtsdestotrotz immer noch aus einem Dual-Core rausholt. Der A10 soll ja auch nochmal an die 20% schneller sein als der A9X (Kein Fanboy-Getue).

Bin mir nicht mehr ganz sicher aber soweit mir bekannt hat Denver in einem der Bereiche, Integer oder Float bin mir wie gesagt nicht sicher, Vorteile zu den Standard ARM SoCs. Irgendwann gab es dazu mal was bei Denver 1. Ich glaube Nvidia verbaut den Denver für ganz bestimmte Anforderungen und die ARM Standard Kerne für den Rest.

Leider ist nicht so richtig ersichtlich, was Denver 2 von der ersten Version unterscheidet.
 
Zuletzt bearbeitet:
Hm aber warum denn keine A72 Kerne?
Sind den A57ern doch in allen Belangen überlegen.

Konische wahl, selbst wenn die Entwicklung länger dauert, die A72er kamen ja nicht von heute auf morgen. Und der Aufwand diese zu tauschen sollte relativ gering sein.
 
@Marcel55

Der Aufwand auf Basis der div. ARM Generationen eine eigene CPU zu stricken ist hoch. Zudem werden in der KFZ Industrie alle Komponenten intensiv getestet und zertifiziert, ist dieser Prozess einmal begonnen wird nichts mehr am Produkt geändert, da man mit dem ganzen (teuren) Tests von vorn beginnen müsste. Typischerweise hängen daher die SoCs in neuen KFZ Generationen auch etwa 2Jahren dem hinterher was es zB bei Smartphones gibt und werden danach höchstens mal zum Facelift der Baureihe geändert.
Wenn also Nvidia das Produkt jetzt offiziell vorstellt kann man davon ausgehen, dass die ersten Partner bereits im Boot sitzen und an realer Hardware arbeiten.
 
Marcel55 schrieb:
Hm aber warum denn keine A72 Kerne?
Sind den A57ern doch in allen Belangen überlegen.

Naja, dafür werden die Denver herhalten. Die A57 werdne kleiner sein als A72. Im Prinzip bietet Nvidia hier ein mehrstufiges Konzept an.

Von 2 Kernen mit hoher IPC über 4 mit mittlerer zu 256 Kernen mit geringer IPC. Kann man hoch parallelisiert arbeiten nimmt man die GPU, für Hintergrund Tasks zb die 4x A57 und für laufzeitkritische Dinge die starken Denver Kerne.
 
Klingt soweit logisch.
Hoffentlich haben die da ne aktive Kühlung drauf, dann sollte es auch keine Probleme geben.
 
Nehmen wir mal an das der Chip in etwas abgewandelter Verson in der NX drinne sein wird . wie leistungstechnisch wirds im vergleich zur ps4 sein ?
 
Zurück
Oben