News Nvidia Tegra X1 bringt Maxwell in einen Mobil-SoC

Shoryuken94 schrieb:
Irgentwie sehe ich den Sinn nicht so ganz bei diesem SoC...

Wie nun bekannt ist, soll dieser SoC vermehrt in Autos eingesetzt werden, aber wozu brauch ich da so eine GPU? Um das Navi Bild anzuzeigen? Oder setzt sich wirklich jemand mit Bluetooth Controller ins Auto und spielt da?

Autos tun heutzutage etwas mehr als nur auf Pedaldruck und Lenkbewegung hin von A nach B zu kommen.

Sie parken selbstständig ein, halten automatisiert die Spur bzw. fahren sogar gleich vollständig autonom.
Der SoC soll weniger genutzt werden um ein Bild anzuzeigen sondern viel eher um die GPU per CUDA (hey, das ist NVIDIA) zu nutzen um die Berechnungen für (teil-)autonomes Fahren zu übernehmen.

Haldi schrieb:
Ich frag mich ob Nvidia ne eigene Spielkonsole erstellen will. So im Prinzip von Raspberry Pi und Ouya.
kleine Box so 8x8x4cm mit kleinem leisem Lüfter.
Via LAN im netz, 5ghz WiFi Hotspot, HDMI direkt zum TV und dann kann man via Shield, oder Tablet oder Smartphone oder Bluetooth Controler zocken und zum Akku sparen auch gleich auf das Handheld streamen.

würde ich ihnen glatt zutrauen.



Don't mind the Details!
Aber schon vorher waren die Smartphone Tests von wem anderem oder?

Sie haben doch mit der Shield schon eine eigene Konsole und bezahlen schon seit Ewigkeiten Entwickler für exklusive Titel für die Tegrazone - aktuell gibt es da beispielsweise auf der Shield Half-Life 2 und Portal, sogar auf der alten Shield die nur den Tegra 4 nutzt.


Das Review des iPhone 5s war von Anand Lal Shimpi höchstpersönlich und auch bei den tiefgehenden Analysten der SoCs habe ich immer seinen Namen gelesen. Auch beim BenchmarkBoosterGate (um auch mal so eine Bezeichnung zu verwenden^^) war er neben Brian Klug Co-Autor des Artikels.
 
shield is ein spitzen tablet und auch der controller is klasse, hab es täglich im gebrauch und alles läuft top

aber doppelt so viel energiebedarf beim x1 da wird das shield 2 mal garantiert schwerer da auch mehr akku nötig wird

bin mal gespannt was da noch kommt
 
Ein SoC wie die des Tegra wäre also für die Autoindustrie durchaus interessant und somit GPU Performance auch für Straßenerkennung interessant.

Geht es nur mir so oder ist anderen bei dem Gedanken, dass ein Tegra Wald und Wiesen SoC der offensiv mit FP16 (halbe Präzision) Leistung beworben wird, nach nVidias Vorstellungen für lebenswichtige autonome Systeme verwendet werden soll? Irgendwie wäre mir das mit F64 und ECC RAM lieber. Wenn ein PC ungenau rechnet oder im RAM ein Schreibfehler auftritt, ist das ärgerlich aber im selbst fahrenden Auto ist das potentiell tödlich.

Ich frag mich ob Nvidia ne eigene Spielkonsole erstellen will. So im Prinzip von Raspberry Pi und Ouya.
kleine Box so 8x8x4cm mit kleinem leisem Lüfter.
Via LAN im netz, 5ghz WiFi Hotspot, HDMI direkt zum TV und dann kann man via Shield, oder Tablet oder Smartphone oder Bluetooth Controler zocken und zum Akku sparen auch gleich auf das Handheld streamen.

würde ich ihnen glatt zutrauen.

Den SoC kann man sogar sicher noch auf 1,2Ghz übertakten und sicher die CPU auf über 2. Dann braucht das Ding zwar sicher 20W aber das wäre stationär nun auch nicht das Problem.

Das echte Problem:
Was zur Hölle sollte man darauf spielen?! Angry Birds, Infinity Blade und The Room? Die laufen auch auf allen anderen Geräten. Das höchste der Gefühle wäre es noch, wenn nVidia einen Treiber bastelt, der Anti Aliasing und Downsampling erzwingt.
Davon werden die zu 95% erbärmlichen über miesen bis lächerlichen Spiele für Android auch nicht besser.
 
Zitat:
...zudem die Möglichkeit, den H.265-Codec in Hardware zu en- und zu decodieren ...

Kann das der GTX980/970 auch ?
 
Warum bauen die keine CPUs mit dem Denver-Core oder entwickeln den nicht weiter?
Der war viel besser als diese Cortex-Suppe...

Die GPU-Leistung nützt gar nichts bei so einer für Desktop oder Konsolenverhältnisse, kleinen CPU...
 
ProfessX schrieb:
ms und sony beißen sich grad in den arsch dass sie amd gewählt haben ^.^

Völliger Unsinn. Die Konsolen kamen im Herbst 2013. Nvidia hätte damals nicht ansatzweise ein Gesamtpaket liefern können, das auch nur ansatzweise vergleichbar ist. Übrigens auch heute nicht
 
Ich kann garnicht glauben wie hier alle an dem Chip rummaulen!
Klar müssen Spiele, die die Leistung voll ausnutzen, erst noch entwickelt werden und klar ist auch, dass das vorgestellte 10w Modell nicht in Tablets und schon garnicht in Smartphones gehört.
In Auto's mit Head-up Display Einblendungen in die Windschutzscheibe, Navi und Multi-Monitor Entertainment-System, da kann man schon einiges mit der Leistung anfangen! In Wohnmobilen ebenfalls!

In Tablets kann ich ihn mir mit optimiertem Kernel ebenfalls gut vorstellen, da taktet er dann halt entsprechend niedriger!
Auch die sog. Android Mini-PC's wären 'ne gute Option, da hier Platz für nen kleinen Passiv-Kühler ist.
Ich hab aktuell eine Android-Box mit Cortex A17/A7 Octa der 'ne Mali624(Rockchip 3288) verbaut hat und damit sieht RealRacing3 oder Asphalt8 auf'm TV schon deutlich besser aus als mit meiner alten mit Dualcore & Mali400.

Ich denke Nvidia wird als Entwickler für GPU's immer weiter versuchen die Grafikleistung zu verbessern, alles andere wäre ja auch Humbug!
Die entsprechenden Anwendungen für so starke SoC fehlen zwar noch, aber sie werden kommen!
Und mal ehrlich, Leistung im Überfluss zu haben ist doch generell nichts schlechtes, zumal sich die Effizienz ebenfalls verdoppelt. Der Chip braucht dadurch für die gleichen Berechnungen deutlich weniger Zeit, was widerum die Akku-Laufzeit verlängert.
Vor einem Jahr war der S800 das Maß aller Dinge und seine GPU Power hat kaum eine Anwendung/Spiel benötigt. In einem Jahr wird so gut wie jedes Smartphone über entsprechende GPU Power verfügen und die Spiele-Entwickler werden sich dem anpassen.
Ich brauche nur zu versuchen RealRacing3 auf meiner alten Acer Iconia Möhre zu spielen, wo ein Tegra2 drin steckt, für den wurden auch schon Spiele optimiert, trotzdem läuft das Game auf dem alten SoC nicht.
Leistung ist durch nichts zu ersetzen, ausser durch noch mehr Leistung und ehrlich gesagt, ich wäre froh, wenn es einige Tablets/Mini-PC's mit diesem SoC geben würde, denn ich zocke gern mit dem Tablet und wäre damit auch für zukünftige Spiele gerüstet.
 
Verstehe auch nicht das Geheule über die TDP.
Als ob pro SoC nur eine feste TDP möglich wäre. Da kommen dann eben mehrere SKUs mit unterschiedlichen TDPs für die einzelnen Einsatzszenarien.
Was soll denn der Grund dafür sein, die TDP nicht tablettauglich hinzubekommen?
CPU? Verbauen andere in SoCs die auch in Smartphones verbaut werden. Alles ne Frage des Taktes.
GPU? Ist über den Takt massiv variabel. Durch das sehr breite Design muss der nicht extrem hoch takten um ausreichend schnell zu sein.

Und vor allem im vergleich zum K1: Die Effizienz wird seitens der GPU dank Maxwell-technik zunehmen und die bessere Fertigung wird auch helfen. Es gibt rein gar keinen Grund warum kein Modell für lüfterlose Tablets möglich sein sollte.
 
Allgemein ziemlich sinnlos den soc nicht für mehr mobile geräte anzubieten, wenn 2 denver cores mit kepler gpu in 28nm passt werden wohl auch 4 denver cores mit maxwell gpu in 20nm passen (was ja auch so geplant war). Und so hungrig können sie nicht sein wenn hier alle darüber reden, dass sich die effiziens dauernd erhöht, einfach niedriger takten und gut ist. (Der k1 ist schließlich in nem 8 zoll tablet, wieso nicht niedriger getaktet in nem 6 zoll smartphone?)

Also nochmal geschaut, die gpu des x1 verbraucht laut anandtech nur 1,5w, die des a8x verbraucht 2,5w. Ich denke 1,5w für die gpu sind durchaus machbar in smartphones bzw. evtl. mit minimalem untertakten 1,2w.
Das denver angeblich soviel verbraucht glaub ich nicht wenn das nexus 9 gute akkulaufzeiten hat und auch nicht überhitzt bei längeren emulationen, das in 28nm.

Ebenfalls sollen die kerne aufgrund diverser optimierungen bis zu 2x effizienter arbeiten verglichen mit dem exynos 7 octa der ja bekanntlich auch seinen platz in smartphones findet.

Die 10w waren nur ne marketing aussage die eigentlich unter 10w hieß.

Ich für meinen teil wäre gerne bereit 100€ mehr für quad denver mit maxwell in nem smartphone auszugeben.

Dann kann halt maximal ein kern die volle taktrate zur selben zeit erreichen, für emulation wird sowieso nur 1 kern genutzt (hauptsächlich) und genau für das mangelt es an cpu leistung.
Nvidias android treiber sind auch top im vergleich zu den anderen herstellern.
Und wenn die gpu auch nur 5% schneller als die konkurenz wäre, ein grund zum kauf ist es für mich trotzdem - keine grafik bugs mehr oder inkompatible apps + die tegra games die selbst mit workarounds nur selten auf anderen geräten funktionieren.

Btw. Der s800 ist bei weitem nicht das maß aller dinge gewesen, emulation läuft selbst heute noch bescheiden (zum teil schlechter als der exynos des galaxy s3!), grafisch aufwendige spiele wie real racing 3 und asphalt 8 laufen selbst übertaktet und undervolted nur knapp über 30fps.

Selbst der s810 ist finde ich keine wirkliche verbesserung, treiber wahrscheinlich trotzdem scheiße bei qualcomm (was machen die eigentlich mit ihrem geld?) cpu evtl. bisschen besser, gpu ja wahrscheinlich viel besser aber wenn die treiber dafür weiter leiden (die adreno 2xx treiber waren besser!) nützt einem das auch nichts.

Im cpu bereich hab ich mit denver mal endlich verbesserung für emulation gesehen nachdem intel ja bereits nicht mehr in smartphones kommt. Bei 28nm evtl. verständlich dass es nicht in smartphones kommt aber bei 20nm für mich nicht mehr.
 
Zuletzt bearbeitet:
Naja die 1,5W waren bei Taktraten um die Performance des A8X zu erreichen. Das ist ein Benchmark den Nvidia ausgesucht hat (wird also nicht gerade worst-case sein ;)). Der reale Verbrauch ist da sicher nicht ohne. Der Rest des SoCs will auch noch was von der TDP abhaben.
Bedenke, auch der A8X ist ein Tablet-SoC. Im Smartphone hat auch Apple was deutlich kleineres verbaut.

Auch viele im Vergleich zum Tegra K1 deutlich langsamere SoCs throtteln in Smartphones ohne Ende. Es ist ja nicht so als ob da irgendwo noch TDP-Reserven wären. Auch die Snapdragons sind hart am Limit gebaut.

Im Smartphone macht der Tegra wenig Sinn. Bei den Taktraten ist man der Konkurrenz nicht vorraus. Wie soll Nvidia dann dort was an den Mann bringen? Der Tabletmarkt ist das für Nvidia deutlich interessanter.
 
[F]L4SH schrieb:
Geht es nur mir so oder ist anderen bei dem Gedanken, dass ein Tegra Wald und Wiesen SoC der offensiv mit FP16 (halbe Präzision) Leistung beworben wird, nach nVidias Vorstellungen für lebenswichtige autonome Systeme verwendet werden soll? Irgendwie wäre mir das mit F64 und ECC RAM lieber. Wenn ein PC ungenau rechnet oder im RAM ein Schreibfehler auftritt, ist das ärgerlich aber im selbst fahrenden Auto ist das potentiell tödlich.
Ich glaube nur du hast so weitreichende Phantasie.
 
Du vertraust potentiell Echtzeit Bildverarbeitung für Assistenzsysteme bei 200kmh auf einer vollen Autobahn also billiger Consumerhardware an?
Na schönen Dank auch!
 
Na welche Fehlerquote würde den Fahrer denn potentiell in Gefahr bringen?
Der Hersteller wird vielleicht, dass ist nur eine Spekulation von mir, SoCs verbauen und so einsetzen, damit das Risiko auf einem Minimum bleibt.
Das ist aber Tegra unabhängig und darauf bin ich aufgesprungen.
 
Zuletzt bearbeitet:
Also tegra 4 hatte insgesamt einen Verbrauch von ca. 3.75 Watt und wurde teilweise in Smartphones benutzt.
Der K1 hatte nen Verbrauch von ca. 7.5 Watt.
Der X1 sollte also bei gleicher Leistung nur halb so viel verbrauchen (schätzungsweise sogar weniger) womit er durchaus für smartphones geeignet wäre.
Und ja ich bin der Meinung selbst bis zum Ende dieses Jahres werden keine Socs kommen die den K1 schlagen ausser evtl. der des Iphone 6s/7.

Allgemein ist wohl eher der Grund für den Verzicht auf Nvidias Tegra das fehlen eines integrierten Modems soweit ich mich in die Materie eingelesen habe.
Mal sehen vielleicht bringen sie ja noch nen Denver X1 sowie bei beim K1 und vielleicht traut sich jemand auch ihn in einem Smartphone zu verbauen. Würde ich dann gerne kaufen, andererseits warte ich noch Jahre auf die Single-Core Leistung eines Denver im Smartphone Bereich.

Wieso gibt es eigentlich Leute die behaupten Nvidia spielt das Netburst Spiel? Dir ganzen Arm Stock Designs sind im Grunde Netburst, hohe Frequenzen aber kaum IPC - Denver hat zwar auch hohe Frequenzen aber ne moderate IPC, nur Apple leistet es sich niedrige Frequenzen mit einer hohen IPC aufzufahren.
Ein 1.5ghz Denver würde ja schon ausreichen um 2.7ghz Krait450 zu schlagen.

Zu der Die Size würde ich sagen, dass evtl. wirklich keine 4 Denver Cores draufpassen könnten (zu einem angemessenem Preis) - allerdings wären 3 durchaus machbar.
 
Man kann das nicht als Netburst bezeichnen, die Cortex-Cores haben hohe IPCs und die Leistung ist hoch.

Der Denver Core hat die IPC eines Sandybridge Cores, vll. etwas darunter.
Ich verstehe nicht warum man die Standard-Cortex-Cores nutzt obwohl man ein Custom-Design hat.
Jeder Hersteller wird bei ARMv8 den gleichen CPU Part haben, das ist doch ein Witz.

Verstehe auch nicht warum Nvidia so eine Grafikleistung in ein Smartphone drücken will.
Denke das wird wie letztes Jahr.

Nvidia entwickelt die GPU als Maß aller Dinge.
Der Denver wird immer weiter entwickelt, als effiziente Architektur für die Zukunft und ab und zu gibt es ein Häppchen.
Zur CES wird als Demonstration der tolle GPU-Part mit den aktuellsten CPU-Cores zusammengeflanscht um Modellpflege zu betreiben und zu zeigen werd dank der Grafik die prallsten Nüsse hat.


Wenn man den Denver sparsamer bekommt, vll. noch die Fertigung 1.. 2 mal verbessert hat könnte man den Takt erhöhen und nen Quad machen, die GPU muss ja nicht sooo übertrieben sein, halt auf Niveau der Konkurrenz... schon hätte man die beste CPU am Markt.


Das Modem und der Preis werden übrigens die abschreckensten Punkte für die Vendors sein eine Nvidia SOC zu nutzen.
 
Zurück
Oben