marco_f schrieb:
HSA ist wirklich interessant. Das ist seit langer Zeit wieder die erste große Weiterentwicklung bei den GPUs, denn Shaderzahlen rauf + Shrink + Takt rauf ist ja wohl keine großartige Leistung.
Das Know-How einer Grafikkarte ich ja die Shader-Scalierung.
Mah erinnere sich an HD 4870 der +75% schneller war bei +150% mehr Einheiten gegenüber dem Vorgänger.
Grafikkarten von heute benötigten auch ein immer besseres Front-End.
Seit GCN 1.0 wird auch das ganze CPU-Front-End-Know-How von AMD von Grund auf verwendet.
Wobei bei GCN 1.0 pirmär das HSA-Tauglichkeit höchste Priorität hatte, weshalb die CU mit 64 Shader auf der selben SIMD-Größe Belassen wurde, wie es 5 Jahre davor mit 16-VILW-5 oder 16-VILW-4 war. Wenn man es genau nimmt, wird das Front-End der CU mit 64 Shader sogar weniger ausgelastet als Früher, wo das viel simplere Front-End sogar 80 Shader auslasten musste.
In den nächsten Stufen, werden in Zukunft wohl alle Front-End-Verbesserungen @ Computing Unit in Bezug auf Effizienz-Steigerungen gemacht.
AMD/Nvidia müssen sich von Intel abgrenzen die mit ihrer Phi einen wirklich interessanten Chip haben. Wenn sie den Richtung GPU entwickeln - gute Nacht.
Larrabee hätte ja eine Grafikkarte werden sollen und hat in dieser Hinsicht völlig versagt.
Danach ist Intel doppelgleisig gefahren, indem Sie Nvidia-Patente kauften und es ab Ive-Bridge verwendeten, während Larrabee stetig weiterentwickelt wird, welches massiv vom Fertigungs-Vorteil profitiert.
Natürlich könnte Larrabee 2.0 dann das sein, was sich Intel zuerst erhofft hat und dann ab 2015 die Nvidia-Patente nicht mehr in neuen Produkten braucht (wobei für die gesammte Produktionsumstellung Intel eben 2 Jahre benötigt wird und es ja auch kein Zufall ist, dass der Pantent-Vertrag mit Nvidia Anfang 2017 ausläuft.)
Aber momentan finde ich AMD technisch viel interessanter, weil sie in Kürze die CU-Technik sowohl dezentiert & GPU-Only nutzen können, als auch parallel im APU-Die. Mich würde es nicht wundern, wenn die CU-Einheit bald sogar in den iCPU-Architektur innerhalb eines CPU-Front-Ends wandert. Das wäre dann der Riesen Vorteil, wenn mein eben jede neue CU-Einheit einer neuen GPU-Architektur jedes Jahr in dGPUs & APU & Bulldozer-Architektur verpflanzt werden kann. Bulldozer ist ja nicht umsonst Modul-Weise aufgebaut sowie bei Steamroller hat nicht umsonst jeder Integer wieder einen eigenen Sheduler.
Der Vorteil gegenüber Nvidia ist halt, dass AMD mit x86 eben mit aktueller Software kompatibel ist, während Nvidia mit ARM & Denver-Projekt nicht nur wieder auf neue Software angewiesen ist, sondern die ARM-Konkurrenz sitzt mit HSA-ARM genauso im selben CPU-Technik-Boot wie Nvidia, während sich Intel & AMD mit ihreren eigenen CPU-Techniken da deutlich gegenseitig absetzen können.
Aza* schrieb:
Im Moment sehen die Zahlen und Prognosen für NV tatsächlich nicht gerade rosig aus:
- Verlust des Konsolengeschäfts.
- Konkurrenz im Profi-Markt durch Xeon Phi.
- Einbrechender PC-Markt im Allgemeinen.
- Ablösung der GPU durch iGPU/APU im Besonderen.
- Tegra stark rückläufig.
- Shield schlägt nicht richtig ein.
- Gewinn bricht ein trotz Rekord-Gewinnmarge.
...
Was man sieht, ist dass NV nicht nur Konkurrenz von AMD bekommt sondern auch von Intel und ARM.
Es sieht düster aus, aber ARM war für Nvidia bisher auch ein Segen, was zu Hoffnung blaste, weil ARM-CPUs ja quasi verschenkt werden, während AMD & Intel für ihre CPUs Mrd $ für Entwicklungen ausgaben.
Nvidia hatte halt 2010 das riesen Glück gehabt, dass ihr Tegra 2 gerade zufällig zu jener Zeit fertig wurde, als Apple mit iPad eine neue Tablet-Ära einleitete und Nvidia als einziger so eine Plattform gerade am neusten Stand fertig hatte. Sowie hatten sie das Glück, dass Google Mrd. $ für Android ausgab und somit Tegra 2 dann noch gratis eine Software dazubekam.
Aber in den letten Jahren hat die Konkurrenz nicht nur aufgeholt, sondern mit itegrierten Funkt & Co sind sie Technisch an Nvidia vorbeigezogen.
Damit konnte Nvidia nicht mehr Expantieren und es ist dann klar, dass der Kern-Markt früher oder später schrumpft.
Ohne ARM hätte Nvidia die Düsteren Aussichten von damals schon vor 2-3 Jahren gehabt, so wie es manche damals predigten.
AMD hat eben seit 2006 auf diesen Kaveri-HSA hingearbeitet, wo Bulldozer & GCN extra von Grund auf dafür ausgelegt wurde.
D.h. nicht nur, dass die Konkurrenz in der Hinsicht da nicht so schnell nachziehen kann, sondern wegen den R&D-Aufwendungen der HSA-Kompatiblität musste man auch R&D-Aufwendugnen für CPU-Performance/Effizienz & GPU-Performance/Effizienz etwas nachlassen.
Aber für erste ist HSA-Kaveri für Nvidia auch wegen den 512-Shadern eine Harte Konkurrenz. Denn damit wird auch wieder Intel unter Druck gesetzt immer größere iGPUs zu bauen, die dann low-End & mainstream dGPUs @ Notebooks immer irrelevanter macht.