Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Tegra 4i wird auch LTE Advanced und VoLTE unterstützen
Was ist das denn für ein Quatsch?
Tegra 4i peilt zwar sicherlich den Mainstream an, aber warum soll der Mainstream mit veralteten Funkstandards bedient werden?
Das Problem ist, dass bisher der neue schnellere Funkstandard immer einen höheren Stromverbrauch bedeutete, weshalb man ja nur kontenuierlich 3,6 / 7,2 / 14,4 / 28,8 / 42Mbit & Co einführte.
Cortex A9 R4 hat eine deutlich gesteigerte IPC und rennt zudem bis 2,3GHz.
Es würde mich nicht wundern, wenn ein aktueller Krait vom S600 hier langsamer ist.
Uns selbst wenn Tegra 4i schneller als S600 ist, war das Problem bei Nvidia immer schon der erhöhte Stromverbrauch, weshalb sie immer nur in Superphones eingebaut wurden. Selbst bei Tegra 2, weil damals die Smarpthones noch kleiner waren.
Und ob ein freiprogrammierbares Modem jetzt mehr verbraucht als fixed function, muss sich erstnoch zeigen.
Nvidia hat mit den ex-Transmeta und ex-Icera Leuten genug Erfahrung in der Sache um hier keine Nachteile entsehen zulassen.
- http://de.wikipedia.org/wiki/Transmeta_Crusoe
Da muss ich mal einen Lob aussprechen. Denn selten argumentiert jemand anders mit neuen & interessanten & Sehenswerten Infos.
Trotzdem bleiben folgende Probleme.
a) Tegra 4i soll ziemlich genauso 6 Monate nach S600 kommen.
b) Wissen wir selbst noch nicht den Stromverbrauch von Tegra 4i. Da ist ja
b1) ein A9, der mit 2,3 Ghz wesentlich mehr Taktet als die 1,4 Ghz vom Tegra 3
b2) eine gesteigerte IPC hat bisher immer erhöhten Stromverbrauch bei selber Spannung & Takt bedeutet
b3) eine iGPU, die mit 60 Core wesentlich größe rist als die 12 vom Tegra 3
b4) dazu noch einen LTE-Funk hat, wäherend Tegra 3 keinen hatte.
Zwar kommt Tegra 4i in 28nm statt 40nm vom Tegra 3, aber man sollte auch bedenken, dass Tegra 3 selbst ziemlich (= im vergleich zur Konkurrenz) viel Strom benötigte. Transmeta wurde schon vor 5 Jahren gekauft und damit hat zwar Nvidia einiges an Erfahrung gekauft, aber bisher eigentlich noch kein Funk-Produkt für den Markt entwickelt & am Markt gebracht.
Icera wurde erst vor 2 Jahren gekauft, aber die müssen sich auch erst einmal beweisen. Wobei ich Qualcomm & Samsung da erheblich mehr Erfahrung zutraue, weil Qualcomm aus der Funkt-Ausrüstung-Ecke kommt und Smasung seit 1 Jahrzehnt sich am Handy & Smartphone-Markt etabliert haben bzw. sich zum Platzhirsch gekämpft haben.
Na ja, wenn ich es mir recht überlege, ist Tegra 4i eher ein Top-Modell und weniger ein Massen-Modell, wie es Nivida propagierte. Und genau da liegt das nächste Modell. Neue Top-Modelle, die Ende des Jahres bzw. Anfang nächsten Jahren kommen, werden schon auf 20nm schielen.
Und wo ist der Markt dafür?
Samung und Apple teilen sich den High-End Bereich und haben eigene Designs,
wenn gleich Samsung aktuell nicht genug Kapazitäten hat um, Apple und sich selbst zubeliefern,
so das Qualcomm (@ TSMC) herhalten muss als 2. SoC Lieferant.
Sobald Apple auch bei TSMC ist, braucht Samsung Qualcomm nicht mehr.
Zwar kommt Tegra 4i in 28nm statt 40nm vom Tegra 3, aber man sollte auch bedenken, dass Tegra 3 selbst ziemlich (= im vergleich zur Konkurrenz) viel Strom benötigte.
Das schöne an diesem Nichtnachvollziehbaren Test ist, dass es eben nicht erklärt, warum
a) alle Hersteller doch lieber Qualcomm als bessere Lösung sah und
b) warum Krait laut diesem Test doppelt so eine schlechte Effizienz haben soll und das mit fast doppelt effizientere Fertigung.
Wenn der Akku-Zeittest zufällig bei jenen Game-Test getestet wurde, wo der Nexus (23 fps) etwas mehr als doppelt so schnell ist wie der HTC One+ (11 fps), dann würde es mich nicht wundern, wenn da die Akku-Zeit halb so niedrig wäre.
Also, versuch doch lieber zu erklären, warum Qualcomm mit ihre SoC wesentlich erfolgreicher ist als Nivida, anstatt mir irgendwelche Mythen anzudichten, nur weil ich jetzt prommt nicht an eine 4 mal effizientere Tegra-SoC gegenüber Qualcomm mit selber/ähnlicher ARM-Technik glaube.
Irgendwie muss der Verkaufserfolg, die Technische Logik und Benchmark-Test schon irgendwie halbwegs zusammenpassen.
VoLTE is doch tendenziell quark, warum bleibt man da nicht bei EDGE, was eh die beste Netzabdeckung bietet (zumindest bei uns).. ich fänds schade wenn der Speed unter Telefonaten leidet... Ist der gleiche schmarn wie VoIP im DSL Netz...
VoLTE wird allerhöchste zeit.
LTE hat mit 800 mhz die gleiche oder bessere reichweite wie edge. Edge ist jedoch veraltet und man hat sowieso in fast jeder ecke heutzutage UMTS verfügbar (zumindest in österreich). Zudem bietet edge kein HD-Voice, was man sofort merkt beim telefonieren.
Das schöne an diesem Nichtnachvollziehbaren Test ist, dass es eben nicht erklärt, warum
a) alle Hersteller doch lieber Qualcomm als bessere Lösung sah und
Primär weil Qualcomm schon ein Modem im SoC hat, bei Tegra 3 musste man es noch dazu kaufen => höherer Aufwand fürs Platienenlayout, eventuell Kühlung und Treiber/Firmwarepflege.
Und insgesamt ist das S4pro einfach moderner, aber das macht Tegra 3 nicht zu einem Stromfresser, sowas ist schlicht Unsinn, ein Mythos.
aylano schrieb:
b) warum Krait laut diesem Test doppelt so eine schlechte Effizienz haben soll und das mit fast doppelt effizientere Fertigung.
Wenn der Akku-Zeittest zufällig bei jenen Game-Test getestet wurde, wo der Nexus (23 fps) etwas mehr als doppelt so schnell ist wie der HTC One+ (11 fps), dann würde es mich nicht wundern, wenn da die Akku-Zeit halb so niedrig wäre.
Die größten Verbraucher in einem Handy sind Display, gefolgt von der Kamera, WLAN und Bluetooth.
Die SoCs aller Hersteller werden heute im Mittel nicht mehr als 5W verbrauchen wenn man sie in ein Handy verbauen will, eher weniger, weswegen die Handyversionen des selben SoCs ja auch mit niedrigeren Frequenzen kommen, als die Versionen die man inm Tablets oder Netbooks findet.
Natürlich ist die Grafik des S4pro schneller & modernerer als die des Tegra 3, aber dafür kam das S4pro ja auch schon in 28nm und man sieht bspw. bei den aktuellen 28nm Grafikkarten, dass eine ~ Verdoppelung der Leistung bei gleicher Leistungsaufnahme möglich ist (zb. GTX 670 vs. GTX 560Ti), wenn man von 40nm auf 28nm schrumpft.
Primär weil Qualcomm schon ein Modem im SoC hat, bei Tegra 3 musste man es noch dazu kaufen => höherer Aufwand fürs Platienenlayout, eventuell Kühlung und Treiber/Firmwarepflege.
Schön gesagt, aber du tust so, wie wenn sonst keine Chips dazugekauft werden.
http://de.wikipedia.org/wiki/System-on-a-Chip System-on-Chip oder System on a Chip, versteht man die Integration aller oder eines großen Teils der Funktionen eines Systems auf einem Chip (Die)
SoC bedeute nicht, dass sonst keine Chips dazugekauft werden.
Allein Samsung Galaxy hat neben dem SoC noch zusätzlich 5-6 Chips und du tust, wie wenn jetzt noch ein zusätzlicher Chip eine 3-4 fachen Effizienz-Unterschied zu nichte macht.
Und insgesamt ist das S4pro einfach moderner, aber das macht Tegra 3 nicht zu einem Stromfresser, sowas ist schlicht Unsinn, ein Mythos.
Wenn der Nvidia-CEO selbst spricht, dass Tegra 3 nicht für das normale Smarpthoen sondern für Superphones geeinget ist, dann kann ich es ja genauso behaupten. Tegra 3 ist für Mainstream ein Stromfresser, für die jetzigen Top-Modelle nicht.
Aber weil das Thema ja Tegra 4i ist, mit welchen Nvidia erstmals in Mainstream gelangen will, war ja auch immer der Massen-Smartphone-Markt gemeint.
Die größten Verbraucher in einem Handy sind Display, gefolgt von der Kamera, WLAN und Bluetooth. Die SoCs aller Hersteller werden heute im Mittel nicht mehr als 5W verbrauchen wenn man sie in ein Handy verbauen will, eher weniger, weswegen die Handyversionen des selben SoCs ja auch mit niedrigeren Frequenzen kommen, als die Versionen die man inm Tablets oder Netbooks findet.
Tut mir leid, aber mit dieser Aussage zeigts du deutlich, dass dir keine genauen Werte bekannt sind und du dir was zusammenreihmst.
Das 5W-Limit ist gerade mal die Grenze um so 10"-Tablet und Netbooks überhaupt mal mit passiven statt aktiven Lüfter auszustatten.
SoC für Smartphone sind nicht eher weniger, sie sind massiv weniger.
Wenn du mir Benchmarks zeigts, die man übrigends immer noch nicht sinnvoll nachvollziehen kann was du mit deinem Schweigen schön bestätigts, wo ein HTC ONE X+ mit Spiele-Last oder CPU-Voll-Last eben 8 Stunden halten soll und dabei einen 8 Wh-Akku hat, dann ergibt das eben einen Stromverbrauch von so 1W.
Und was eine Kamera & Bluetooth & W-Lan für einen Stromverbrauch im Lastbereich haben, ist mir immer noch ein Rätsel.
Natürlich ist die Grafik des S4pro schneller & modernerer als die des Tegra 3, ...
So wie du es aber geschrieben hast, war es nicht natürlich, weil du die Fertigung-Technik a) extra unterstrichen fettgestrichen hast und b) zufällig die Performance weggelassen hast.
Und ich kann es dir nochmal sage.
Es richt nicht mit möglichen Stromverbräuchen (Display, W-Lan, W-Modem, Blutooth) irgendwelche Stromverbräuche aufzuzählen, um damit dir einen 3-4fachen (öh mittlerweile hatte ich schon einen Fehler gefunden und es ist nur ein +100%-Effizienz-Unterschied übriggeblieben.) locker flockig erklären zu können.
Der Witz daran ist, du behautpest ja, dass Nvidias Tegra, die den ARM-A9 nur Lizienzisiert haben, wesentlich effizienter (du meinst ja einen +100%igen Mega-Effizienz-Unterschied) arbeiten, als Samsung bzw. Qualcomm, die mit Krait noch viel Geld weiterentwickelten und nebenbei den Markt beherschen. Das ergibt vorne und hinten keinen Sinn und außer konkreten Fakten kann jeder sagen was er will.
Mir ist es ja im Grunde wurscht, wenn du meinst, dass ich einen Mythos sehe und die Sache komplett falsch sehen.
Aber nur jeder Hersteller sieht es wohl genauso und vorallem Samsung & Qualcomm genauso, die neben Apple nicht nur beinahe den gesamten Restlichen Markt beherschen, sondern gerade mit dieser Technik ganz groß geworden ist.
Was viele Leute hier nicht verstehen wollen, dass Nvidia versucht hat mit Mehr CPU-Performance & mehr GPU-Performance einen Schritt der Konkurrenz vorauszu sein um damit Design-Wins zu gewinnen. Nur sollte man wissen, dass die Konkurrenz ihre SoC eben von Low-End bis High-End nur so viel CPU & GPU-Performance einsetzte, wie es sinnvoll möglich war.
Deshalb war der Tegra 2 und Tegra 3 lange die Benchmark-Test Sieger, aber das wurde vom Markt nie gefragt, weshalb wennschon immer nur Außenseiter mal eine Tegra-Smartphone probierten. Bei Tegra 2 gab es eben auch keine Software dafür und Qualcomm & Co wussten das vorher genauso und entwickelten eben kein Chip, wenn sie eh wissen, dass sie viele Quartale damit kein fehlerfrei funktionierendes Produkt am Markt brignen könnne.
Dein Fehler in deinen Aussagen erkennt man auch daran, dass gerade im Tablet-Markt der angebliche Modem-integriert-in-SoC-Vorteil eben nicht mehr zu tragen kommt, weil das Display & Co wesentlich mehr Strom verbrauchen.
Also, bevor du jetzt Tegra als absolust effizienteste Chip siehst, die übrigends lange während der Tegra 2-Entwicklung & Vekauf selber nicht mitbekommen haben, dass ihre Phones durch non-integrierten-Funkt total uneffizient wird, und anderen eine doppelt so schlechte Effizienz vorwirfst, solltest du mal mit konkreten quantitativen Infos & Fakten daherkommen.
PS: Und nur weil auf irgendweinen Test auch "Leistungsaufnahme" steht, heißt es noch lange nicht, dass dieser Test sinnvoll und brauchbar ist. In diesem Steht extra im Test noch Spiele-Last und in der Tabelle Video dabei, was a) sich schonmal widerspricht und b) beides kein Voll-Last-CPU-Scenario ist, falls eine CPU-Core überhaupt voll ausgelastet wird a la GPU-Limit.
Ergänzung ()
Amok-Sepp schrieb:
Das mit dem Stromverbrauch ist doch auch wieder so ein Mythos.
Sieht man auch schön am Nexus 4 mit Quadcore von Qualcomm.
Wenn Firmen flöten gehen, ist das normalerweise ein Zeichen, dass man entweder schlechte Produkte oder mit schlechten Komponenten falsche Produkte macht.
Wenn Firmen flöten gehen, ist das normalerweise ein Zeichen, dass man entweder schlechte Produkte oder mit schlechten Komponenten falsche Produkte macht.