News Nvidia kündigt Tegra K1 mit „192 Kernen“ an

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.786
Nvidia-CEO Jen-Hsun Huang hat zur Pressekonferenz im Rahmen der CES 2014 den Tegra K1 angekündigt. Die Besonderheit sind laut neuer Marketing-Schiene die „192 Kerne“, die sich jedoch nur auf die Grafikeinheit beziehen. Wird der Vorgänger Tegra 4 mit gleicher Masche betrachtet, bot dieser nicht 4 sondern auch über „70 Kerne“.

Zur News: Nvidia kündigt Tegra K1 mit „192 Kernen“ an
 
ich bin ja der meinung, das wir langsam genug power in unseren smartphones haben und man sich langsam mal der akkulaufzeit widmen sollte.

wobei man dazu sagen muss, das der größte teil immernoch beim display verbraten wird.

mfg
 
Naja die Displayforschung ist ein ganz anderes Paar Schuhe, da kannst du die GPU-Entwickler nicht für ankreiden.

Ansonsten ist die Präsentation wie immer beim Tegra, es wird die Performance echt in den Himmel gelobt und es kam bisher immer etwas nach dieser Messlatte entäuschendes auf den Markt, immerhin könnte aufgrund des Architekturwechsels hier mal was dran sein^^
Ändert nichts daran dass ich die Aussagen zur Konsolenperformance nicht ernst nehmen kann, und Epic's Untermauerungen hören sich wie nachgeplappert an...Immerhin arbeiten die beiden Firmen zusammen. Trotzdem kein Grund einen Chip auf etwaiger Performance zwischen 8600 und 9600 gt so schönzureden find ich.
Aber so sind Präsentationen halt^^

P.S.: Wie ich auf die Performance komme? Ganz einfach ne kleine Milchmädchenrechnung, die GTX 680 is meist ziemlich genau 5x 8800 gts 512 schnell (habs mal früher nachgeguckt). die ist selber fast doppelt so schnell als die 9600. Nun ist der Tegra 4 nur mit einem 8tel der Cores der 680 gesegnet und eig. auch weniger Takt. Landet in der Performance also bei der HD 4000 von Intel.
Nicht schockend, aber für 5 Watt inkl. dem Rest des Chips nicht zu verachten (:
 
@die.foenfrisur:

Ich denke einige Entwickler haben schon ihre Prioritäten angepasst. Während für LG und Samsung Batterielaufzeit häufig ein sekundäres Ziel ist, "wir brauchen mindestens einen Tag Laufzeit", und Performance das primäre Ziel ist, so hat Motorola schon umgedacht.
Dort ist Performance das sekundäre Ziel und Akkulaufzeit das Maximierungsziel. DualCores statt QuadCores, 720p statt 1080p etc., alles Entscheidungen zugunsten der Akkulaufzeit... Moto X hat dadurch sehr hohe Laufzeit, während ein Nexus 5 gerade durch den Tag kommt, aber mehr auch nicht.

Was Displays anbelangt, ist Sharp ja schon auf dem Weg IGZO groß herauszubringen. Ursprünglich gab es das Gerücht, dass Apple hier schon seit einem Jahr versucht sich alle Produktionskapazitäten unter den Nagel zu reißen. Ähnlich wie bei eReadern wird hier quasi nur noch Strom bei Veränderungen verbraucht, wodurch speukulative Zahlen wie 50% Energieeinsparung beim Display gerne in den Raum geworfen werden. Aber wenngleich Sharp schon im Q412 Produktion im großen Stil starten wollte, finden sich fast keine Geräte im Markt....zur Zeit ;) Auf jeden Fall aber eine sehr spannende Technologie für mobile.
 
Was meinen die den mit CPU/GPU Horsepower? Seit wann wird dir Leistung in PS angegeben?
"Der neue Supercomputer hat 350000000PS. Zum Vergleich: das grösste Containerschiff der welt hat nur 360000PS"....?
 
Zuletzt bearbeitet:
GPU = GFLOPS, CPU = SpecInt Punkte, steht doch drunter. Soll wahrscheinlich 'hip' sein das so zu verwursten...
 
Sehr schöner Artikel :daumen:

Insbesondere der Punkt mit den 192 "Cores" ist wirklich gut rausgearbeitet :daumen: das ist mir nämlich auch direkt ziemlich sauer aufgestoßen, weil die Leute hier einfach mal wieder derbst vereppelt werden...
 
@Skysnake
Immerhin ist es in Anführungszeichen geschrieben. :rolleyes:

Mal schauen, wie viel Leistung am Ende wirklich dabei raus kommt. Schwer vorstellbar, dass die Leistung der älteren Konsolengeneration erreicht werden soll.
 
Wieso schwer vorstellbar? Die alten Konsolen sind von 2005. 9 Jahre später hat man nicht nur kleinere Fertigungsprozesse sondern auch erheblich effizientere Architekturen.

Viel lustiger ist, dass nächtes Jahr mit 16nm und FinFets man dann schon die Xbox One angreifen wird. :evillol:

Skysnake schrieb:
Sehr schöner Artikel :daumen:

Insbesondere der Punkt mit den 192 "Cores" ist wirklich gut rausgearbeitet :daumen: das ist mir nämlich auch direkt ziemlich sauer aufgestoßen, weil die Leute hier einfach mal wieder derbst vereppelt werden...

Es sind 192 Cores. Wo werden denn Leute hier veräppelt?
Veräppelt werden sie bei AMD, wo ein 2 Kerner schön als 4 Kerner angepriesen wird.
 
Weil es ALUs sind und keine Cores.... Das läuft nach dem SIMD prinzip ab....

Ansonsten müsstest du die Superskalaren Ausführungseinheiten bei heutigen x86 CPUs auch alle als Core zählen... Und dann wäre son oller Quad schon nen 16Core+....

@Sontin:
Computerbase hat die "" gemacht. nVidia nicht... Huang vergleicht CPU-Cores mit GPU-ALUs... das kann man schon fast nicht mehr als Apfel-Birnen-Vergleich bezeichnen, so weit ist das auseinander.
 
Sontin schrieb:
Viel lustiger ist, dass nächtes Jahr mit 16nm und FinFets man dann schon die Xbox One angreifen wird.

Viel Lustiger ist doch die Frage wann der K1 tatsächlich im Markt verfügbar sein wird. 2015? Oder gar 2016?? :evillol:
 
Artikel-Update: Nach der Pressekonferenz konnte mit den 7-Zoll-Tablets auf Basis des neuen Tegra K1 ein erster Eindruck gewonnen werden. Die Demos liefen dabei erwartungsgemäß relativ gut, auch der parallele Betrieb eines normalen sowie parallel angeschlossenen 4K-Displays machte keine Probleme.

In lockerer Atmosphäre gab es auch einen ersten Termin für den Neuling. Die Variante mit altbekanntem 4+1-Kern aber den zusätzlichen GPU-Kernen soll im zweiten Quartal erscheinen – Lenovo gab mit dem Termin „Juli dieses Jahres“ für den 4K-Monitor mit „Next Generation Nvidia Tegra“ einen ähnlich gelagerten Hinweis. Von der 64-Bit-Version mit Denver-Kernen soll im zweiten Halbjahr etwas zu sehen sein – weiter wollte Nvidia am Abend den Start nicht eingrenzen.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
die.foenfrisur schrieb:
ich bin ja der meinung, das wir langsam genug power in unseren smartphones haben und man sich langsam mal der akkulaufzeit widmen sollte.

wobei man dazu sagen muss, das der größte teil immernoch beim display verbraten wird.

mfg

Diese Postings werd ich nie verstehen ;) Natürlich ist mehr Akkulaufzeit wünschenswert, aber die Akkuentwicklung hat doch nichts den GPUs zu tun. Oder hat Nvidia Forschugnszentren für Akkutechnologie? Darum kümmern sich andere....
 
Kann ich auch nicht verstehen, solange die GPU's Effizienter werden und dabei noch mehr Leistung rausholen, ist doch alles Gut. Was hat das mit dem AKKU zu tun? Desweitern wollen viele nicht begreifen das man mit Li-ion Akkus an der Grenze angekommen ist. Man kann mehr Leistung (mAh) rausholen, doch das wirkt sich auf die Stabilität aus(Bei gleicher Größe). Dann währen wir wieder in den anfängen von den Lipo Zeiten und glaubt mal das will man nicht!
 
@digitalangel18: Er wollte damit sagen, dass die Leistung irgendwann ausreicht und man lieber bei gleicher Leistung die Effizienz erhöhen sollte. Wenn man ein Smartphone (mit Internet an) mit einem der alten Handys vergleicht, dann ist die STandbyzeit ja schon ziemlich grottig. Es gibt kein Smartphone, welches man nur ein mal die Woche, wenn überhaupt, aufladen muss.
Wenn man ein Smartphone nur zum telefonieren nutzt, dann stimme ich dem auch zu. Das potential, welches Smartphones und Tablets bieten ist aber so viel höher, dass die Leistung noch lange nicht ausreicht. Die ist meines Erachtens erst gegeben, wenn man das Smartphone ähnlich wie beim Ubuntu Edge vorgesehen war, an einen Monitor andocken kann und da dann alle Desktopanwendungen mit der Rechenleistung des Smartphones schnell laufen (auch parallel). Dafür wird noch eniges mehr an Leistung benötigt.

@Topic: Die werden doch eh wieder nicht ihren Zeitplan einhalten und wenn es dann so weit ist gibt es bereits bessere Konkurenzprodukte. Schade, dass Nvidia immer einen Schritt hinterher ist.
 
Na, dann hoffen wir mal das der schöne Chip auch mit einem passiven Kühler ausgeliefert wird. Die aktuellen SoCs werden ja teilweise so heiß, dass die Chips sich selber throttlen und gar nicht ihre komplette Leistung entfalten können. Beste Beispiel ist wohl hierbei das Nexus 5 und Excite Pro von Toshiba.
 
Ich verstehe nicht wirklich was man damit will. Oder spielt jmd. Ernsthaft auf seinem tablet games ala gta? Ich habs mal spasseshalber gemacht, keine frage es ist beeindruckend was die dinger können aber ernsthaft spielen würde ich damit nicht wollen. Und für Videos sollte die Leistung bereits reichen. Das ist wie in einem Passat statt 180ps 250ps einzubauen. Meist fährt man doch nur 160 auf der Piste.
 
Zuletzt bearbeitet:
Sontin schrieb:
Veräppelt werden sie bei AMD, wo ein 2 Kerner schön als 4 Kerner angepriesen wird.

Wann kapieren es endlich die Leute, dass es ECHTE Kerne sind?
Liegt wahrscheinlich an solchen wie dir, die immer und immer wieder den selben Müll verbreiten, und von der Materie keine Ahnung haben.
Und bevor du jetzt weiter flamest, leg ich dir ans Herz, Wikipedia zu besuchen, und dich in die Modulbauweise einzulesen!
 
TrueDespair schrieb:
Na, dann hoffen wir mal das der schöne Chip auch mit einem passiven Kühler ausgeliefert wird. Die aktuellen SoCs werden ja teilweise so heiß, dass die Chips sich selber throttlen und gar nicht ihre komplette Leistung entfalten können. Beste Beispiel ist wohl hierbei das Nexus 5 und Excite Pro von Toshiba.

Ich denke dass das in der Tat fürs Gaming ein Problem darstellt, wo hohe Belastung über einen langen Zeitraum anfällt. Prinzipiell ist throttling aber eine gute Sache. In einem Szenario, wo Last nur sehr Spitzenbelastet, also in Form von kurzen "spikes", auftritt kann eine Mehrwert erzielt werden. In allen anderen Szenarien kann es die Komponente vor Überhitzung schützen ohne das System komplett auszuschalten. Einziges Risiko ist eine Blendung des Kunden, der z.B. ein Gerät kauft in dem die beworbenen high-performance Komponenten ihre Leistung auf Grund eines eingeschränkten Kühlkonzeptes nicht optimal nutzen kann.
 
Wird auch langsam mal Zeit, war ja schon fast peinlich wie sich nvidia die letzten Jahre im Smartphone-GPU-Bereich hat vorführen lassen.
 
Zurück
Oben