News Nvidia lizenziert GPU-Technologie für Drittanbieter

nille02 schrieb:
Das ist Nvidias Aussage, die auch noch Falsch ist. Die Anderen haben schon länger Unified Shader in ihren SoC GPUs.
Es gibt aber einen Unterschied zwischen "Unified Shadern" und "Unified Shadern". Man überlege mal das AMD/ATI früher mit 24 Shadern die gleiche Leistung erzielen konnte wie Nvidia mit 96. Da kann PowerVR machen was sie wollen, deren Shader unterstützen rein theoretisch OGL 4.0 / DX 10, aber der Atom Z2760 ist das Beste Beispiel, dass es halt nur theoretisch ist.

Fraglich ist doch, warum gibt es denn keine PowerVR mehr im Desktop Segment, wenn es sie auch nur ansatzweise eine konkurrenzfähige Architektur haben? Also ich glaube sehr wohl, dass die Shader von Nvidia nicht einfach in ein mobiles Design passen. Und das, unabhängig von der Energieeffizienz, die Leistung der Kepler Architektur nicht nur in einer anderen Liga sondern in einem ganz anderen Universum spielt.

Ich bin auf jeden Fall gespannt. Das Ganze könnte echt Wind in den mobile Markt bringen und ist vielleicht eine der ersten Breitseiten gegen die neuen Next-Gen Konsolen.
 
nille02 schrieb:
Das ist Nvidias Aussage, die auch noch Falsch ist. Die Anderen haben schon länger Unified Shader in ihren SoC GPUs.

Und sind alle auch wesentlich größer für die selbe Leistung. Das macht nVidia's Aussage also richtig...

Und wie man bei PowerVR sieht, muss man massiv viel Die-Fläche aufbringen, um überhaupt mithalten zu können. Der OctaCore von Samsung ist 30% langsamer als Tegra 4. Und der A6X im Ipad4 ist sogar 50% größer mit 32nm. Selbst mit 28nm wird der Flächenbedarf für die GPU annährend doppelt so groß sein...
 
Sontin schrieb:
Und sind alle auch wesentlich größer für die selbe Leistung. Das macht nVidia's Aussage also richtig...

Und wie man bei PowerVR sieht, muss man massiv viel Die-Fläche aufbringen, um überhaupt mithalten zu können. Der OctaCore von Samsung ist 30% langsamer als Tegra 4. Und der A6X im Ipad4 ist sogar 50% größer mit 32nm. Selbst mit 28nm wird der Flächenbedarf für die GPU annährend doppelt so groß sein...


S800 inkl. Baseband und Adreno 330 liegt grob bei 120mm². Sind gegenüber T4 also um die 50% mehr Fläche bei 40% höherer GPU Performance (GL 2.7 T-Rex Offscreen 1080p).

Kommt natürlich auch daher das TSMCs 28nm HPm wohl deutlich besser für die heute bei SoCs recht hohen Frequenzen geeignet ist als 28nm HPL (-> die Verlustleistung steigt mit zunehmender Frequenz weniger steil an).

Das komplexere Designs (höhere IPC, größeres Feature Set etc.) unter identischen Rahmenbedingungen mehr Fläche benötigen ist zwangsläufig. Allerdings dürfte die Differenz weniger groß sein als es sich durch die bei Samsung gefertigten SoCs darstellt denn die (offiziellen) Angaben zu Strukturgrößen sind heute nicht mehr wirklich aussagekräftig und die Packdichte spielt auch noch eine Rolle.
 
Zuletzt bearbeitet:
Naesh schrieb:
Die ganzen AMD Fanboys die mich hier flamen :D.

Klar, jeder der was gegen die Negativwirkung von PhysX (und jeden anderen propritären Mist) für alle hat, ist ein Fanboy.
Dass ich eine Nvidiakarte habe und es trotzdem negativ bewerte ist egal...

Nur weil man etwas objektiv betrachtet, ist man kein Fanboy. Ein Fanboy ist man mMn., wenn man es subjektiv betrachtet, und darstellt als wäre es die Wahrheit. Ein paar Sachen dazu dichten macht es nicht besser.
Genau das machst du.

Z.B. gibt es keine 45 Spiele, sondern 20, von denen min. die hälfte entweder auf CPU völlig normal läuft, oder so Schrott wie "Dancing Party" ist.
Und CUDA als Pluspunkt?? Schau mal was CUDA ist, und dann überleg nochmal, ob man das überhaupt braucht. Das ist das gleiche Spiel wie mit PhysX, nur dass ich bis jetzt nichts gefunden habe, wo es mir keine Nachteile bringt, da meistens OpenCL auf AMD für die jeweiligen Programme besser funktioniert, was ich leider schon oft enttäuscht feststellen musste.
 
GrooveXT schrieb:
Der Grund warum Kepler noch nicht im Tegra steckt ist schlicht die Größe des Chips, nicht die Effizienz. Unified Shader sind in heutigen Herstellungsverfahren zu groß und nehmen deswegen zuviel DIE-Fläche ein. Und da so ein Tegra SoC dank 5 Cores schon gut Platz einnimmt, konnte man dort keinen Kepler unterbringen. Mit künftigen Fertigungstechnologien wird es aber gehen und dann liegt Nvidia vorne.
http://www.zdnet.de/wp-content/uploads/2013/01/nvidia-tegra-4.jpg
Wie kommt man eigentlich darauf.
Ein SMX mit 192 Shader hat nur 16mm² @ 28nm. Wenn man so Tegra 4 betrachtet, dann nehmen die 72-Core schon mehr Fläche ein als so ein SMX @ 28nm.
Genauso wie AMD den Vorteil von sehr kompakten Shaders hat, hat Nvidia sie auch. Aber so eine SMX, die beim GTX 680 25 Watt verbrauchen, kann man wohl schwer auf 1-2,5 Watt runterbringen. Selbst Titan mit 14-15W pro SMX 192 müsste (obwohl Titan schon mit 1,025Volt betrieben wird) noch aufs 10-Fache Runter auf 1,5W.

Okay, da habe ich den Verbrauch von Arbeitsspeicher & Co auch mitberechnet. Auch wenn der Stromverbrauch ums 5-Fache vom Titan gesenkt werden muss, geht das kaum mehr mit der Spannung sondenr nur mehr beim Takt. Und dann wäre so ein 100-150 Mhz-Kepler @ Tegra auch nicht gerade schnell, falls der Stromverbrauch überhaupt so extrem gesenkt werden kann.

Ich sehe weniger die Die-Fläche bei Kepler das Problem, sondern eben der Verbrauch. Hauptproblem ist aber, dass man nicht einfach 48 (1/4) oder 72 (1/3) oder 96 (1/2) Shaders nehmen kann.

GrooveXT schrieb:
Also ich glaube sehr wohl, dass die Shader von Nvidia nicht einfach in ein mobiles Design passen. Und das, unabhängig von der Energieeffizienz, die Leistung der Kepler Architektur nicht nur in einer anderen Liga sondern in einem ganz anderen Universum spielt.
Genau das ist ja der totale Widerspruch zum ersten Zitat. Eine Architektur kann nicht x-fach überlegen ein, wenn man sie über Jahre extra (= also mit kleinerer Fertigung) herstellen muss. PowerVR arbeitet genauso weiter und bis Kepler @ 20nm dahertanzt, dann sieht es auch bei denen viel besser aus.
Nicht zu vergessen, dass auch die anderen bei jeder kleinerer Struktur-Verbesserung die iGPU-Performance ums 3-5 Fachge gesteigert hat.
 
Zuletzt bearbeitet:
Titan läuft mit bis zu 1,162V. Und ich weiß nicht, ob man so rechnen kann mit den SMX, schließlich steckt da sicherlich viel Kram drin, den man in einer kleinen iGPU nicht braucht. Dazu kommen noch groß ausgelegte Spannungsversorgung (im Verhältnis zu einem SoC), das PCB, der große Speicher usw. Da gibt es einige Stellen, wo man sparen kann, denke ich.

Anpassungen wird man so oder so vornehmen müssen, Skalierbarkeit hin oder her. Es erwartet denke ich keiner, dass man so einen SMX 1:1 einfach in Tegra verbauen wird.
 
GPU-Joe schrieb:
Titan läuft mit bis zu 1,162V. Und ich weiß nicht, ob man so rechnen kann mit den SMX, ...
Wenn du es nicht weißt, dann behalte es für dich.
Klar läuft er bis zuu 1,164V. Aber in welche Boost-Situation das passiert, hast jetzt nicht gesagt. Dabei hatte ich mit Titan ja eh die Best-Case-Situation genommen. Wie ich schon sagte, wenn man es mit GK107 oder GK104 vergleicht, dann kommt man inkl. Arbeitsspeicher & Platine eben auf 25W-pro-SMX. Meintewegen kannst du die hälfte Abziehen. Dann muss Nvidia tortzdem von 12,5W-pro-SMX auf 1,25 bzw. 2,5W-TDP mit 10 bzw. 5-fachen Stromverbrauch runter gehen.

Und das ist viel. Denn 1,25W-TDP ist da schon mehr Massen-Tauglich, denn bei 2,5W-TDP für iGPU wäre man schon bei der Hälfte von 5W-TDP, die als kritische Grenze für passives Kühlen für Tablets gilt. Wahrscheinlich sind die, 1,25W-TDP schon recht viel für High-End-Smartphone-SoC. Und genau ist das Prolblem. Denn durch die Lizenz-Freigabe will man die Kepler-Architektur für Cuda so schnell wie möglich breit über den ganzen Smartphone & Table-Markt verbreitern lassen, was aber nicht geht, wenn sie mit dem Stromverbrauch schon im High-End-SoC landen. Nochmals paar Jahre warten ist in der momentanen Zeit viel zu lange.

Da gibt es einige Stellen, wo man sparen kann, denke ich.
Da ist es leichter, sich diese Architektur zu sparen. Bisher scheint das jeder gemacht zu haben, weil sie ja keine Desgin-Wins präsentierte, was ja Nvidai sonst ziemlich zelebriert.

Anpassungen wird man so oder so vornehmen müssen, Skalierbarkeit hin oder her. Es erwartet denke ich keiner, dass man so einen SMX 1:1 einfach in Tegra verbauen wird.
Was stellst du dir vor?
Dass Nvidia oder gar andere jetzt noch paar Jahre herumbasteln um die SMX für Smartphones zu verwenden?
Die Architektur bzw. SMX muss AFAIK ja 1:1 übernommen werden, weil man eine 5 Jahres Architektur-Entwicklung nicht mit paar Änderungen anpassen kann.

Ich habe schon seit paar Jahren die Vermutung, dass Nivdias große Architektur-Schwäche die Inflexiblität ist, weil Nvidia immer bei Probleme sehr statisch reagierten bzw. mit großen Verspätungen kamen. Bei Desktops & Notebooks war es bisher nicht so gravierend, aber bei Konsolen könnte das jetzt schon eine bedeutende Auswirkungen (sonst hätte man mit Intel ja zusammentun können). Bei Tegra könnte sich das Problem jetzt noch deutlicher zeigen.

PS: Ich habe es schon erwähnt, aber ich betone es nochmal.
Bisher ist noch von keinem Lizenz-Vereinbarung bekannt. D.h. diese Nvidia-Entscheidung könnte sehr jung/kurzfristig sein und zeigt wie eigentlich Verzweifelt diese Aktion durchgeführt wurde. Denn sonst Celebrierte Nvidia sonst Nvidia seine Aktionen und meist mit ersten Ergebnissen.

Fazit: (im Bezug zu meinen Ersten Posting)
Von Überlegender Kepler-Technik ist vorne und hinten nichts zu sehen.
Wir müssen erst einmal 1-2 Jahren warten, bis wir überhaupt Kepler @ Smartphone & Tablet sehen werden. Und das ist verdammt lange gegen iGPUs der Konkurrenten, die genauso weiterentwickeln, weil jetzt gerade der Wandel bzw. Fortschritt da sehr groß ist.

Und selbst wenn Tegra 5-20nm dann kommt, dann hat Nvidia eben zusätzlich das Problem, dass Kabini-20nm schon auf viele iGPU-Erfahrungen @ Tabelts wegen Kabini-28nm zurückgreifen können, die sie dann in den Kabini-20nm reinstecken können. Abgesehen von Semi-Customers, aber Kepler ist sicher keine iGPU-Technologie, wo die Welt lange drauf wartet, weil das vorhandene schon intressant bzw. fortschrittlich genug ist.
 
Zuletzt bearbeitet:
Zurück
Oben