Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Auf so etwas warte ich schon Lange! Nur in genau entegengerichtete Weise: sehr viele "kleine" Kerne fuer hochparallelisierbare Aufgaben und einen extrem schnell getakteten Single-Core (evtl. auch 2 davon) fuer sequentielle/nicht-parallelisierbare Arbeiten.
Auf jeden Fall clever. Mit GPUs gibt es das Prinzip ja schon laenger, warum nicht auch fuer CPUs nutzen?
Nein pipip,
das stimmt so nicht. Jeder heutige ARM SoC hat unterschiedliche Taktfrequenzen, die je nach Auslastung vom System genommen werden.
Das wird auch bei Tegra 3 so sein. Was nVidia hier mit dem 5. A9 Kern implementiert, ist im Grunde Hybrid Power / Optimus, wie man es vom Desktop/Notebook kennt. Solange die Last nur auf diesen 5. Kern Low Power Kern laufen kann, wird er ausgewählt. Dabei taktet sich wohl dieser Kern ebenfalls zwischen 216Mhz -> 500Mhz, je nach Auslastung.
Sollte nun eine Anwendung entsprechend eine höhrere Auslastung durch einen Thread erzwingen, wechselt innerhalb von 2ms die Verarbeitung von Kern 5 auf einen der 4 High Performance A9 Kerne. Die Taktung selbst ist dann zwischen 500->(spekulierte) 1500Mhz.
Laut nVidia's Whiterpaper wird Tegra 3 in der Lage sein, jeden Kern einzeln nach Auslastung zu takten und mit einer individuellen Spannung zu versorgen.
Sontin
Ja aber ich verstehe nicht, wieso hat man das nicht in einem Kern unterbringen können, oder ist der 5 te kern hardwarebasierend nicht so komplex und verbraucht allg wegen seiner Architektur weniger ?( vergleich 500hz 5. kern und einer der 4 High Performance A9 Kerne )
Könnte man nicht eigentlich dann Prozessoren (dank Win8 die ja dann auch ARM unterstützen) entwickeln, die für leichte Sachen einen ARM(coprozessor) machen lässt, so wie eben email checken surfen und dann jeweils nach Last 86x cores zuschaltet o0 vllt sieht man das bald o0 (aber eher von AMD vermute ich)
NVIDIA also provides perf/Watt comparisons with other high-profile chips that are on the market such as the OMAP4 and the Qualcomm QC8660. Note that NVIDIA is using Coremark, a well-known benchmark that is very multi-core friendly (performance is more or less expected to scale with the number of cores). A quad-core Tegra 3 chip won’t have any difficulties winning the absolute score, but I find it very interesting to see that at comparable performance, Tegra 3 can consume only 1/3 of the electric power.
Unter Last erreicht Nvidia's "KAL-EL" satte 11667 im "Coremark" bei nur 1,261W
Die Konkurenz TI OMAP4 / Qualcomm QC8660 erreicht nur ca. 5690 im "Coremark" bei 1,5W
für diesen Score braucht Nvidia nur 0,58W unter halber Auslastung !!!
Sontin
Ja aber ich verstehe nicht, wieso hat man das nicht in einem Kern unterbringen können, oder ist der 5 te kern hardwarebasierend nicht so komplex und verbraucht allg wegen seiner Architektur weniger ?( vergleich 500hz 5. kern und einer der 4 High Performance A9 Kerne )
Der 5. Kern ist ein normaler A9, genauso wie die anderen. Aber er wird mit Low-Power Transistoren gefertigt. Diese weisen deutlich geringere Leckströme auf, benötigen aber deutlich mehr Spannung, um hohe Taktraten zu erreichen.
Die anderen 4 A9 Kerne werden mit Transistoren gefertigt, die darauf ausgelegt sind, mit möglichst niedriger Spannung hohe Taktraten zu erreichen. Problem dabei ist, dass diese wiederrum hohe Leckströme besitzen, wodurch unnötig Strom beim IDLEN verbraucht wird.
Da nVidia in Tegra 3 eine komplett neues Power-Management entwickelt hat, sind sie nun in der Lage bei geringer Last alle High-Performance Kerne komplett vom Stromkreis zu trennen, wodurch der IDLE-Verbrauch und der geringere Last-Verbrauch erheblich gesenkt werden kann. Das klingt in der Theorie sehr genial. Warten wir also ab, wie es wirklich aussieht.
Ja aber ich verstehe nicht, wieso hat man das nicht in einem Kern unterbringen können, oder ist der 5 te kern hardwarebasierend nicht so komplex und verbraucht allg wegen seiner Architektur weniger?
Ja. Der "Companien" A9 ist in einem auf möglichst niedrigen Verbrauch getrimmten Design implementiert (ohne NEON SIMD Erweiterung), die anderen vier A9 sind in einem auf hohe Leistung getrimmten Design implementiert (mit NEON Erweiterung). Beide Designs stammen - fix und fertig vorgegeben - von ARM. Sowohl der Companion, als auch die Viererbande bilden jeweils ein CPU-Cluster, zwischen denen der Tegra3 hin- und herschaltet, weshalb der Companien nie mit einem der anderen A9 zusammen läuft.
ARM bietet verschiedene Ausprägungen für den A9-Core an, niedriger Verbrauch, hohe Leistung, kleiner Platzverbrauch auf dem Die, man wählt das, was man braucht. Den eierlegenden Wollmilchsau-A9 gibt es aber nicht....
Ich sehe es auch so, dass bei aktuellen Smartphones in erster Linie die Akkuleistung verbessert gehört. Die CPUs sind jetzt schon alle sehr schnell.
Mein SGS2 habe ich auf jeden Fall noch nie auch nur ansatzweise ausgelastet. Gibt ja leider eh kaum gescheite Games mit guter Grafik für Android. Mehr Laufzeit würde mich am meisten freuen. Ich will mein smartphone irgendwann ganz gerne zumindest 4 Tage verwenden können.
Das Transformer 2 von Asus wird das erste Tablet sein, dass auf Tegra 3 setzt. Es soll zusammen mit Android 4.0 ende Oktober - Anfang November erhältlich sein.
@topic
ich hatte mich schon gefragt wie Nvidia es bewerkstelligen will, dass Tegra 3 bei 4 kernen eine längere Akkulaufzeit hat. Mit so etwas hatte ich irgendwie gerechnet.
Grundlegend find ich die Idee auch nicht verkehrt... ein 5. Chip der sich noch weiter runtertakten läßt und im Standby-Betrieb rudimentäre Aufgaben erfüllt und dabei keine immensen Leistungen aus dem Akku zieht.
Warum jetzt auf 4 kerne gegangen wird ist aber auch mehr als verständlich. Grad der Hang zu 3D bei aktuellen Tabletanwendungen und der immer höheren Auflösung der Displays erfordern halt mehr Leistung. Sicherlich sind die Geräte vorrangig zum Surfen gedacht aber ein Tegra 2 mit 2x1Ghz stößt bei der 3D gebäudeansicht von Google Maps in Hamburg schon an seine Grenzen. Die Aufarbeitung der Informationen wird halt immer aufwendiger (heißt nicht dass es sperrig wird) und die möglichkeiten die damit einher gehen werden auch immer rechenlastiger (siehe die übersetzungssoftware die im kamerabild einen Text übersetzt und über das Bild legt klick mich
Ich würde mal sagen dass die Möglichkeiten unbegrenzt sind...
Ich persönlich habe das Transformer 2 auf der Kaufliste für den Jahresausklang.
Die Idee ansich ist sicherlich nicht neu und auf dem Papier ließt sich alles wieder so schön. Ich persönlich würde erst abwarten wie das ganze dann in der Realität aussieht, Softwareunterstützung etc.
Bin gespannt, wie sie gegen die neuen OMAPs abschneiden. Die setzen auf ein ähnliches Konzept. Generell werde ich aber noch auf die 28nm-Generation warten. Die sollten den maximalen Energieverbrauch noch einmal einen Schluck eindämmen. Hoffentlich werden dann die Geräte bei starker Auslastung nicht mehr so heiß.
nvidia hat ja schon einige Erfahrung Chips aufzupumpen zu gigantischen Konstruken (siehe aktuelle Grafikkarten), die Leistung wird stimmen, aber ich bin wirklich mal auf den Verbrauch gespannt.
Was nützt mir das schnellste Smartphone der Welt, wenn ich es nach 2 Stunden schon wieder laden muss.
Sehr schöne Entwicklung, besonders mehr Kerne aber weniger MHz somit weniger Spannugn und Verbrauch das klingt sehr toll
Bin mal auf beide Produkte gespannt und CB ich würde mich freuen über eine Test zwischen paar CPUs von Smartphones und ein Atom, und ein Desktop CPU wie AMD Phneom2 X4 955 oder ähnliches.
Gutes Konzept, warum da nicht früher drauf gekommen ist? Das wäre doch auch was für den Desktop und Notebook Sektor. Einfach alle kerne abschalten und die normales Arbeiten mit einem einzelnen kleineren Sparsameren als die anderen Kerne erledigen. Für Office und Surfen sollte es langen.
Beim Desktpo kommts auf ein paar Watt nicht an.
Und beim Laptop wäre der Gewinn sehr niedrig. Ne aktuelle mobile CPU im Idle verbrät dank Powergating fast nichts. Und da dürfte dann der Großteil im Uncore-Bereich liegen, der ja im Vergleich zu nem ARM-SoC erheblich größer ist. Daran würde dann auch nen LP-Kern nichts ändern. Die Frage ist dann auch bei welcher gelegenheit so eine LP-Kern zum Einsatz käme. Der Rechenaufwand an nem Windows-PC ist deutlich größer als bei nem Android-Phone.
Immer diese weniger Verbrauch Gerüchte : ). Ich will endlich sehen das ein Smartphone im Durchschnittlichen Gebrauch mal länger hält ohne das man 9999 Roms draufgeflasht haben muss. Hardwareseitig muss sich was tun! Leistung haben wir genug.