News Folie verrät Details zu Nvidias Tegra 4

Captain_Awesome schrieb:
Appel SOC ist der selbe beide kommen von ARM.!
oder irre ich mich da etwa.?
Der Befehlssatz ist ARM-Kompatibel und vermutlich basiert der SoC von Apple auch auf einem bestimmten Basis-Design von ARM. Aber er ist sehr stark verändert, sodass er nach einhelliger Meinung keinem bestimmten ARM-Design (wie z.B. A15) zu geordnet werden kann. Apple hält sich da aber sehr bedeckt. Genaues weiß man also nicht.
 
Captain_Awesome schrieb:
Appel SOC ist der selbe beide kommen von ARM.!
oder irre ich mich da etwa.?

Es ist nicht so als würde Apple die von ARM kaufen und einbauen oder so... Sie haben die Lizenz und die "Baupläne" von ARM... Sie kürzen da ein bisschen was, bohren das ein bisschen auf usw. verwenden die Speicherregister vom A15 Design aber die ALUs von A8 (soll nur ein Beispiel sein, es ist sicher nicht so einfach) und basteln sich damit einen eigenen Chip... Den nennen sie chronologisch A1, A2, A3 und jetzt ist man eben bei A6 angelangt... Die Tabletchips sind (bis auf den iPad Mini) immer ein bisschen Aufgebohrt und heißen dementsprechend A5X und A6X...
 
paul1508 schrieb:
Ich würde ehrlich gesagt einen S4 Dualcore immer einem Tegra3 vor ziehen... Die Szenarios, in denen ein Tegra3 schneller ist, sind entweder irgendwelche Spiele bei denen sowieso beide schnell genug sind oder so Sachen wie Entpackleistung.. Der S4 ist da das viel bessere Package und braucht um einiges weniger Strom...
Ja ich würde auch einen i3 einem Q6600 vorziehen... wie gesagt, der Tegra 3 ist schon um einiges älter (November 2011) und im 40nm Strukturbereich, während ein S4 (Qualcomm Krait) relativ sehr jung ist und im 28nm Strukturbereich hergestellt wird. Das ist schon ein riesen Unterschied, der Tegra 4 der jetzt rauskommt wird auch in 28nm verbaut werden, was ihn auch viel weniger Leistung fressen lässt, sowie die Temperatur dementsprechend sinken wird.
 
Palomino schrieb:
Das klingt nach einem starken Stück Hardware. Ich frage mich nur, wieso man von Quad Core auf Single Core wechselt wenn es wenig zu tun gibt. Könnte man nicht auch Dual Core verwenden? Ich wüsste jetzt nicht viele Anwendungen im Smartphone / Tablet Bereich, die die Leistung von 4 Kernen benötigen.

Das wäre aber auch mal ein gutes Upgrade für die Ouya Konsole. :D

Warum sollte man im Energiesparmodus auf 2 cores setzten? Mein One X (Tegra 3) läuft quasi permanent mit dem companion core ohne wahrnehmbare Ruckler. Wenn ich mir die Stats anschau dann habe ich 81% der Zeit (seit letzem Ausschalten vor ~ 3 Wochen) mit 1 core @ 500mhz verbracht. Also wozu dual core und mehr strom verbrauch? Wenn mehr Leistung gebraucht wird wird sie ja auch geliefert.

xpxsascha schrieb:
Hmm Nvidias Tegra sollte dann doch wohl auch langsam mehr Power haben als die PS3, XBOX & Wii U oder ? ^^

Ist das dein Ernst?

RattenLord schrieb:
Naja mein Nexus 4 wird die nächsten 1,5 Jahre jedes Game für Android einwandfrei zum laufen bringen...
Trotzdem finde ich die Entwicklung mehr als erfreulich ;)

Das wage ich stark zu bezweifeln, die GPU ist in 2 Jahren sicherlich nimmer state of the art.

paul1508 schrieb:
...
Das ganze Konzept des "Companion Cores" geht dir am besten auf wenn du zwischen Mega-Leistung und Standby-Prozi wechselt.. Es gibt jedoch auch noch bessere Konzepte wie die asynchronen Kerne des S4... Da kann anscheinend jeder Kern takten wie er denkt.. Wenn nu einer gebraucht wird ist nur einer an und der dann herunter getaktet..

Das ist ja auch das konzept vom Tegra.

paul1508 schrieb:
Ich finde den Tegra 3 auch bei weitem nicht Ideal... Sie haben beim Tegra 3 ja an Speicherbandbreite gespart und dafür massig CPU und GPU Leistung eingebaut. Jetzt starten Apps auf anderen CPUs die schnelleren Speicher/mehr Fokus auf Speicher gelegt haben schneller und das System fühlt sich insgesamt "flüssiger", schneller an, während man beim Tegra 3 dafür massive 3D Leistung hat (welche man kaum braucht), zumindest am Handy.

Mir wäre (zumindest für Handys) eine Entwicklung Richtung schneller A7 Dualcore mit sehr schneller Speicheranbindung lieber... Ein Core i3 mit SSD fühlt sicher immerhin auch um einiges schneller an, als ein i7 mit HDD...

Das Problem ist nur wenn man nicht wie z.b. Qualcomm eine "privilegierte" Lizenzvereinbarung hat diese Dinge nicht verändern darf. Warum denkst du denn das der Snapdragon auf einmal so stark ist? Weil die Architektur so toll ist?
Er ist so stark weil er als einziger A9 am Markt über ausreichend Speicheranbindung verfügt und das darf Nvidia oder Samsung nicht.
 
@terraconz
Der Krait ist kein A9.

BTT:
Der Energiehunger der SoCs wird nicht zuletzt durch die verbauten Modems entschieden.
Sollte da NVidia schon wieder solche Komponenten verbaut haben wie im Tegra 2, wird auch ein Companion core und 28nm wenig bringen, denn bei schlechter Netzverfügbarkeit oder beim Funkzellenhangeln auf einer Autofahrt/Bahnfahrt wird dann wieder enorm viel Energie in Wärme gewandelt. Das macht Qualcomm unter anderem bisher besser als NVidia.
 
terraconz schrieb:
Das Problem ist nur wenn man nicht wie z.b. Qualcomm eine "privilegierte" Lizenzvereinbarung hat diese Dinge nicht verändern darf. Warum denkst du denn das der Snapdragon auf einmal so stark ist? Weil die Architektur so toll ist?
Er ist so stark weil er als einziger A9 am Markt über ausreichend Speicheranbindung verfügt und das darf Nvidia oder Samsung nicht.

Samsung darf das mit Sicherheit, die haben eine passende Lizenz gekauft. Das hat auch nichts mit Privilegien zu tun, wenn Nvidia zahlt, dann gibts mit Sicherheit auch eine Lizenz (falls sie nicht längst eine haben).

Edit: Nvidia hat eine passende Lizenz seit 2011

http://www.linuxfordevices.com/c/a/News/Nvidia-Project-Denver/
 
terraconz schrieb:
Warum sollte man im Energiesparmodus auf 2 cores setzten? Mein One X (Tegra 3) läuft quasi permanent mit dem companion core ohne wahrnehmbare Ruckler. Wenn ich mir die Stats anschau dann habe ich 81% der Zeit (seit letzem Ausschalten vor ~ 3 Wochen) mit 1 core @ 500mhz verbracht. Also wozu dual core und mehr strom verbrauch? Wenn mehr Leistung gebraucht wird wird sie ja auch geliefert.

Wie kann man das nachsehen? Ein Freund von mit hat auch ein One X und er ist die einzige Person die ich kenne, die abends einfach nicht erreichbar ist weil der Akku am Heimweg leer ist...

terraconz schrieb:
Ist das dein Ernst?

Wieso nicht? Die XBOX360 hat die stärkste CPU, schon klar, die PS3 hat die stärkste CPU (theoretisch zumindest), die Wii U ist doch ein leistungstechnischer Witz... Vielleicht wird der Tegra4 in seiner Handyausführung nicht dagegen ankommen, aber in der hochgetakteten Tablet Version hoffentlich doch!

terraconz schrieb:
Das wage ich stark zu bezweifeln, die GPU ist in 2 Jahren sicherlich nimmer state of the art.

"State of the Art" muss es auch nicht sein um alles spielen zu können... Mir persönlich ist 3D ala Firstperson oder Thirdperson zu aufwendig für zwischendurch und mehr als zwischendurch spiele ich nicht am Handy/Tablet.. Dafür gibts den PC bzw. die Konsole.

terraconz schrieb:
Das ist ja auch das konzept vom Tegra.

Nein, der Tegra (3) unterscheidet (soweit ich weiß) zwischen Power und Efficiency... Wenn mal Power gebraucht wird schmeißt der die ganze Hütte an... Der S4 soll anscheinend besser skalieren... Aber das zu konfigurieren, da tun sich auch die x86 Cpu Hersteller noch schwer. Da kommt es schon mal vor, das ein AMD Quadcore alle vier Kerne übertaktet bei einer Einzellast statt einen mehr zu übertakten usw.

terraconz schrieb:
Das Problem ist nur wenn man nicht wie z.b. Qualcomm eine "privilegierte" Lizenzvereinbarung hat diese Dinge nicht verändern darf. Warum denkst du denn das der Snapdragon auf einmal so stark ist? Weil die Architektur so toll ist?
Er ist so stark weil er als einziger A9 am Markt über ausreichend Speicheranbindung verfügt und das darf Nvidia oder Samsung nicht.

Warum dürfen Nvidia und Samsung das nicht?
 
Das hast du nicht vollständig korrekt verstanden paul1508.
Tegra 3 kann einzelne Cores deaktivieren, wenn es nicht genug unabhängige Threads gibt. Sollte aber der Sheduler erkennen, dass er Threads auf freie, deaktivierte Cores packen kann, dann laufen diese immer mit der selben Taktfrequenz.
 
Gordon-1979 schrieb:
In 2-4 Jahren hat man dann sein Laptop in der Hosentasche.

Diese Aussage habe ich schon vor 15 Jahren in der Schule gehört, von Lehrkräften. Fakt ist, dass CPU und GPU Kühler immer monströser werden, von kleiner werden ist hier nicht die Rede. Vor 20-25 Jahren hatten manche CPUs nicht mal einen passiven Kühlkörper. Heute undenkbar.

Klar, im Jahr 2012 kann man die Leistung eines raumfüllenden Supercomputers von 1990 in der Hosentasche halten, aber diese Leistung ist nicht mehr gefragt. Der Leistungsbedarf steigt mindestens so schnell wie der Grad der Kompaktisierung die aufgrund der fortschreitenden Technik möglich wird. Unterm Strich wird ein Desktop PC nicht kleiner. Die zur Verfügung stehende Leistung wird niemals genug sein, hier hat sich Bill Gates auch schon mal getäuscht.

Kompakter werden die PCs wohl erst durch eine revolutionäre neue Technologie, diese Halbleiter-Transistor-Technik wird das nicht bieten können. Selbst bei einer neuen Technologie würde aber ebenfalls unweigerlich gelten: größeres Volumen = mehr Leistung.
 
Ich sitze hier mit meinem Nexus 7... und weine.

Ne im Ernst: schöne Sache, dass es voran geht, 4 A15-Kerne mit 2GHz könnten sicher ne Menge Leistung bringen, wenn denn der Akku stimmt. Und dann dazu die sechsfache Grafikleistung, die Frage: wozu? Da muss NVidia dann noch mehr "mit Entwicklern zusammen arbeiten" (aka schwarze Köfferchen) um passende Spiele zu kriegen. Zumal meiner Erfahrung nach die ganzen Grafikbomben fast durchgehend weniger Spaß machen als einige simple, "hässliche" Spiele.
 
Klasse USB 3.0 Unterstützung, irgendwas von 4K schimmert Durch auf der Folie (leider verdeckt hier die Schrift die Folie sehr) und breites Spektrum von Anwendung gibt sich hier vor.
 
@paul1508:
Qualcomm ist ARM premium Partner und nvidia nicht. Nvidia oder auch samsung dürfen nur bestimmte Bereiche ändern aber der Grundstock muss erhalten bleiben. Nur glaub Qualcomm, Intel und einige andere haben die Lizenz dazu.

Und was ich noch anmerken will ist das der krait kein A15 ist wie oben behauptet würde.
 
Aber Krait ist auch kein A9, er ist ein Zwischending zwischen A9 und A15.

-3 Facher Decoder wie A15
-Out of Order Design
-Unterstützung der NEON Befehlssätze mit 128 Bit Registern wie A15
-Und eine starke VFPv3 (Pipelined) FPU wie A15

Das macht Krait aus.

Das 2x32 Bit LPDDR2 Interface, wie Krait es hat, hatte schon Exynos 4210 (SGS II) und Exynos 4212 (SGS III). Sowie auch TI OMAP 4460 (Galaxy Nexus). Also das Speicherinterface ist es nicht das Krait
besonders macht.

Das war bei Tegra 2 und Tegra 3 einfach nicht besonders breit.

Auch die GPU von Tegra 3 ist nicht der Kracher. Aber das wird sich wohl jetzt alles ändern.
 
Zuletzt bearbeitet:
modena.ch schrieb:
Auch die GPU von Tegra 3 ist nicht der Kracher. Aber das wird sich wohl jetzt alles ändern.

Im Vergleich ist die Adreno 220 vom S4 aber auch nicht viel besser.
Die 320 macht n bisl Dampf aber die PowerVR im A5x, A6 und A6x steckt die auch in die Tasche.
Darüber hinaus hat die GPU im Tegra schon ziemlich wumms. Der Flaschenhals ist das Speicherinterface, welches ziemlich schnell wegkrüppelt. Darüber hinaus ist der Sheduler von nVidia fürn Mülleimer.
Bleibt dann zu hoffen, dass die 2 Kanäle im Tegra 4 es anders machen, denn die 72 Grafikkerne wollen versorgt werden, aber ich denke das ist zu erwarten.
 
Zuletzt bearbeitet:
Nunja also rein von der Rechenleistung ist die Tegra 3 GPU relativ schwach.
Die muss es aus dem Takt hohlen, dazu kommt das beschränkte Speicherinterface.

Wenn ich mir ankuck in vielen Tests (nicht in allen) ist Mali 400MP4@266 Mhz
wie im SGS II der Tegra 3 GPU dicht auf den Fersen.
Und ich mein der Chipsatz stammt von ende 2010.



http://www.anandtech.com/show/6330/the-iphone-5-review/11

So wie im SIII vorhanden (Mali 400 MP4@400 Mhz) wischt die GPU fast immer den Boden
mit dem von Tegra 3. Was sicher auch teilweise am Speicherinterface liegt.

Man sieht es ja am ONE X+ bei welchem die Tegra 3 GPU schneller getaktet ist und auch
einen schnelleren Speicher (DDR3 1600er) zur Seite gestellt bekommt. Da ginge noch einiges....
 
Zuletzt bearbeitet:
terraconz schrieb:
Das Problem ist nur wenn man nicht wie z.b. Qualcomm eine "privilegierte" Lizenzvereinbarung hat diese Dinge nicht verändern darf. Warum denkst du denn das der Snapdragon auf einmal so stark ist? Weil die Architektur so toll ist?
Er ist so stark weil er als einziger A9 am Markt über ausreichend Speicheranbindung verfügt und das darf Nvidia oder Samsung nicht.
Was ist daran privilegiert? Es ist einfach nen anderes Lizenzmodell. Kann jeder andere auch haben. Siehe Apple, Marvell, oder wer sonst noch. Es ist eben auch einfach eine Frage des Aufwandes. Es kostet eine riesen Menge an Entwicklungsarbeit eigene CPUs auf der Architektur zu entwickeln. Da ists einfacher gleich ganze Kerne zu übernehmen.

Und ja der Krait ist wegen der Architektur so toll. Was kann denn die Speicheranbindung besonderes? Bei mir fällt da eher beim Anblick der Speicherbandbreite eines A5X/A6X die Kinnlade runter.
nen Exynos oder TI OMAP hat die gleiche Anbindung (2x 32bit) wie nen Qualcomm. Nur beim Tegra haben sie gespart.
 
terraconz schrieb:
@paul1508:
Qualcomm ist ARM premium Partner und nvidia nicht. Nvidia oder auch samsung dürfen nur bestimmte Bereiche ändern aber der Grundstock muss erhalten bleiben. Nur glaub Qualcomm, Intel und einige andere haben die Lizenz dazu.

Und was ich noch anmerken will ist das der krait kein A15 ist wie oben behauptet würde.

Wie oben schon gesagt, sowohl Samsung als auch Nvidia besitzen die passende Lizenz und dürften ihre eigene CPU bauen.
 
Zurück
Oben