News AMD und Intel bauen Marktanteil bei PC-Grafikchips aus

ja ich denke auch, dass die Gefahr eher von Intel ausgeht als von AMD. Eventuell geht es Nvidia "bald" wie AMD die letzten Jahre....

Man stelle sich vor Nvidia hätte sich ausschließlich auf Desktop GPU gestützt da sähe es nicht besser aus. Man muss sich fragen welche Optionen Nvidia denn noch hat... man hat sich schon deutlich breiter aufgestellt als noch vor einigen Jahren. Im Prinzip ist das nicht viel anders als bei AMD - deren Vorteil schlicht auf X86 beruht und der Tatsache, dass Intel X86 in andere Bereiche drängt.

Es war absehbar das zukünftige Konsolen vermutlich auf X86 setzen werden, das macht es den Publishern weit einfacher für MultiPlattform zu entwickeln. Und da spielt Nvidia nicht mit. Und GPU allein bringt heute immer weniger etwas also ging man Richtung ARM.

Bald heißt es wohl "X86 everywhere" und bei den Daten die Intel bei BayTrail-T vorlegt - sofern se sich bestätigen, wirds selbst für aktuelle Top-End ARMs eng.
 
Zuletzt bearbeitet:
marco_f schrieb:
HSA ist wirklich interessant. Das ist seit langer Zeit wieder die erste große Weiterentwicklung bei den GPUs, denn Shaderzahlen rauf + Shrink + Takt rauf ist ja wohl keine großartige Leistung.
Das Know-How einer Grafikkarte ich ja die Shader-Scalierung.
Mah erinnere sich an HD 4870 der +75% schneller war bei +150% mehr Einheiten gegenüber dem Vorgänger.
Grafikkarten von heute benötigten auch ein immer besseres Front-End.
Seit GCN 1.0 wird auch das ganze CPU-Front-End-Know-How von AMD von Grund auf verwendet.
Wobei bei GCN 1.0 pirmär das HSA-Tauglichkeit höchste Priorität hatte, weshalb die CU mit 64 Shader auf der selben SIMD-Größe Belassen wurde, wie es 5 Jahre davor mit 16-VILW-5 oder 16-VILW-4 war. Wenn man es genau nimmt, wird das Front-End der CU mit 64 Shader sogar weniger ausgelastet als Früher, wo das viel simplere Front-End sogar 80 Shader auslasten musste.

In den nächsten Stufen, werden in Zukunft wohl alle Front-End-Verbesserungen @ Computing Unit in Bezug auf Effizienz-Steigerungen gemacht.

AMD/Nvidia müssen sich von Intel abgrenzen die mit ihrer Phi einen wirklich interessanten Chip haben. Wenn sie den Richtung GPU entwickeln - gute Nacht.
Larrabee hätte ja eine Grafikkarte werden sollen und hat in dieser Hinsicht völlig versagt.
Danach ist Intel doppelgleisig gefahren, indem Sie Nvidia-Patente kauften und es ab Ive-Bridge verwendeten, während Larrabee stetig weiterentwickelt wird, welches massiv vom Fertigungs-Vorteil profitiert.

Natürlich könnte Larrabee 2.0 dann das sein, was sich Intel zuerst erhofft hat und dann ab 2015 die Nvidia-Patente nicht mehr in neuen Produkten braucht (wobei für die gesammte Produktionsumstellung Intel eben 2 Jahre benötigt wird und es ja auch kein Zufall ist, dass der Pantent-Vertrag mit Nvidia Anfang 2017 ausläuft.)

Aber momentan finde ich AMD technisch viel interessanter, weil sie in Kürze die CU-Technik sowohl dezentiert & GPU-Only nutzen können, als auch parallel im APU-Die. Mich würde es nicht wundern, wenn die CU-Einheit bald sogar in den iCPU-Architektur innerhalb eines CPU-Front-Ends wandert. Das wäre dann der Riesen Vorteil, wenn mein eben jede neue CU-Einheit einer neuen GPU-Architektur jedes Jahr in dGPUs & APU & Bulldozer-Architektur verpflanzt werden kann. Bulldozer ist ja nicht umsonst Modul-Weise aufgebaut sowie bei Steamroller hat nicht umsonst jeder Integer wieder einen eigenen Sheduler.

Der Vorteil gegenüber Nvidia ist halt, dass AMD mit x86 eben mit aktueller Software kompatibel ist, während Nvidia mit ARM & Denver-Projekt nicht nur wieder auf neue Software angewiesen ist, sondern die ARM-Konkurrenz sitzt mit HSA-ARM genauso im selben CPU-Technik-Boot wie Nvidia, während sich Intel & AMD mit ihreren eigenen CPU-Techniken da deutlich gegenseitig absetzen können.

Aza* schrieb:
Im Moment sehen die Zahlen und Prognosen für NV tatsächlich nicht gerade rosig aus:

- Verlust des Konsolengeschäfts.
- Konkurrenz im Profi-Markt durch Xeon Phi.
- Einbrechender PC-Markt im Allgemeinen.
- Ablösung der GPU durch iGPU/APU im Besonderen.
- Tegra stark rückläufig.
- Shield schlägt nicht richtig ein.
- Gewinn bricht ein trotz Rekord-Gewinnmarge.
...

Was man sieht, ist dass NV nicht nur Konkurrenz von AMD bekommt sondern auch von Intel und ARM.
Es sieht düster aus, aber ARM war für Nvidia bisher auch ein Segen, was zu Hoffnung blaste, weil ARM-CPUs ja quasi verschenkt werden, während AMD & Intel für ihre CPUs Mrd $ für Entwicklungen ausgaben.

Nvidia hatte halt 2010 das riesen Glück gehabt, dass ihr Tegra 2 gerade zufällig zu jener Zeit fertig wurde, als Apple mit iPad eine neue Tablet-Ära einleitete und Nvidia als einziger so eine Plattform gerade am neusten Stand fertig hatte. Sowie hatten sie das Glück, dass Google Mrd. $ für Android ausgab und somit Tegra 2 dann noch gratis eine Software dazubekam.
Aber in den letten Jahren hat die Konkurrenz nicht nur aufgeholt, sondern mit itegrierten Funkt & Co sind sie Technisch an Nvidia vorbeigezogen.

Damit konnte Nvidia nicht mehr Expantieren und es ist dann klar, dass der Kern-Markt früher oder später schrumpft.

Ohne ARM hätte Nvidia die Düsteren Aussichten von damals schon vor 2-3 Jahren gehabt, so wie es manche damals predigten.

AMD hat eben seit 2006 auf diesen Kaveri-HSA hingearbeitet, wo Bulldozer & GCN extra von Grund auf dafür ausgelegt wurde.
D.h. nicht nur, dass die Konkurrenz in der Hinsicht da nicht so schnell nachziehen kann, sondern wegen den R&D-Aufwendungen der HSA-Kompatiblität musste man auch R&D-Aufwendugnen für CPU-Performance/Effizienz & GPU-Performance/Effizienz etwas nachlassen.

Aber für erste ist HSA-Kaveri für Nvidia auch wegen den 512-Shadern eine Harte Konkurrenz. Denn damit wird auch wieder Intel unter Druck gesetzt immer größere iGPUs zu bauen, die dann low-End & mainstream dGPUs @ Notebooks immer irrelevanter macht.
 
Aza* schrieb:
Im Moment sehen die Zahlen und Prognosen für NV tatsächlich nicht gerade rosig aus:

- Verlust des Konsolengeschäfts.

Halt ich für unkritisch. Bis auf XBOX1 hat Nvidia hier kaum noch Geld verdient.

- Konkurrenz im Profi-Markt durch Xeon Phi.

Hat offensichtlich nicht verhindert, dass mehr Teslas abgesetzt wurden

- Einbrechender PC-Markt im Allgemeinen.
Der wird sich auch wieder erholen, vor allem im dem Bereich der für Nvidia relevant ist -> Gamer. Nur weil plötzlich auch Tablets und andere Geräte gekauft werden und bei einer Vermischung der Wachstumsraten darauf verwiesen wird, dass PCs im Verhältnis verlieren heißt das nicht das der Markt dauerhaft zurückgeht. Es wird immer PCs benötigen. Bei den für Nvidia relevanten Zielgruppen sowieso.

- Ablösung der GPU durch iGPU/APU im Besonderen.
Wird seit Jahren behauptet und ist bis heute nicht eingetreten. Solange dedizidierte GPUs schneller sind als APUs wird sich das auch nicht einstellen. Vielmehr werden APUs ziemlich bald an die Grenzen was DIE Kosten und Leistungsaufnahme angeht kommen. Diese Grenzen werden ganz einfach das Thema Performance begrenzen. Die physikalischen Gesetze kann man da nicht so einfach aushebeln.

- Tegra stark rückläufig.
Kann sich auch genauso schnell mit dem richtigen Produkt wieder umkehren. Nvidia ist ein kleines Unternehmen. Sie brauchen nicht so viel Marktanteil in dem Segment um für sich eine erfolgreiche Sparte zu haben. Sprich mit dem richtigen Produkt wird der Bereich auch wieder schnell wachsen. Das geht gerade in diesem Geschäft sehr sehr schnell. Lass die mal mit ein paar ordentlichen Low-End Designs für Tablets und SmartPhones in Zukunft rauskommen. Dann wird die Sparte einen guten Boos binnen kurzer Zeit bekommen. Bisher fehlen halt leider die SpartPhone Designs. Mit Tablets alleine wird man hier nicht viel reißen.

- Shield schlägt nicht richtig ein.
Das zu beurteilen ist doch ein bisschen früh oder? Mal ganz abgesehen davon, dass Shiel ein reiner Gehversuch ist mehr nicht. Das ist ein reines Testprojekt und heißt im übrigen auch so. Zudem hat es auch nicht viel gekostet dieses Testprojekt umzusetzen.

- Gewinn bricht ein trotz Rekord-Gewinnmarge.
Bitte genau hinschauen wo mehr Geld ausgegeben wurde bevor man so etwas einfach in die Luft setzt. Nvidia fährt im übrigen nach wie vor ein Aktienrückkaufprogramm. Grundsätzlich kann man sagen, dass Unternehmen die sich das leisten können gesund sind.

Was man sieht, ist dass NV nicht nur Konkurrenz von AMD bekommt sondern auch von Intel und ARM. Wäre es nur AMD, dann sähe es wahrscheinlich nicht so düster aus. Aber wenn man sich die Entwicklung in den iGPUs von Intel ansieht, dann kann man abschätzen, dass in ein paar Jahren selbst das mittlere Marktsegment in Bedrängnis geraten könnte.
Zu ARM steht Nvidia nicht in Konkurenz, da sie hier selber mitmischen. Zu Qualcomm, Mediatek & Co schon eher. Ich sehe ARM aber eher als Potential, da Nvidia hier vorher gar nicht aktiv war.

Bezüglich Intel wäre ich vorsichtig. Intel hat mit Nvidia ein Patentaustauschabkommen. In 4 Jahren läuft das aus. Danach muss sich Intel mit Nvidia erneut einigen oder läuft Gefahr keine GPUs mehr verkaufen zu dürfen. Im Grunde hat Intel hier anders als bei x86 das Problem, dass nennenswerte Patente durch AMD (ex ATI) und Nvidia besetzt sind. Ohne die geht da so gut wie nichts und das ist für den Konsumenten extrem gut. Intel kann hier nicht einfach dominieren. Sie sind abhängig! Ansonsten gilt für den Teil das gleiche was ich in Bezug auf APUs weiter oben schon gesagt habe. Die Physik wird die Grenzen vorgeben. Eine APU wird niemals die Performance einer separaten GPU erreichen können.
 
Richthofen schrieb:
Zu ARM steht Nvidia nicht in Konkurenz, da sie hier selber mitmischen. Zu Qualcomm, Mediatek & Co schon eher. Ich sehe ARM aber eher als Potential, da Nvidia hier vorher gar nicht aktiv war.
Wenn alle mit den selben Waffen spielen, dann ist das Potential auch sehr eingeschränkt. U.a. wird auch AMD ARM verwenden.
DIe Konkurrenz zu Nvidia wird völlig unterschätzt, weil gerade ich letztes Jahre ständig auf HUWEI & MediaTEK & Allwinner & Rockchip hingewiesen habe, die sich gerade im Viel Größeren China schon 2011 deutlich aufstiegen/durchsetzten.

2013 ist das Jahr, wo sie mit Temash & 22nm neue Konkurrenten bekommen haben. Aber weil Tegra schon im 1 & 2Q 2013 massiv einbrauchen, sieht man, dass sie mit der alten Qualcomm & MediaTEK konkurrenz fertig werden.

Bezüglich Intel wäre ich vorsichtig. Intel hat mit Nvidia ein Patentaustauschabkommen. In 4 Jahren läuft das aus. Danach muss sich Intel mit Nvidia erneut einigen oder läuft Gefahr keine GPUs mehr verkaufen zu dürfen.
Ich hatte gehofft, dass Intel nicht Nvidia kauft, weil dann der alte AMD vs Intel vs Nvidia dann beendet wäre, der gerade ab 2014 im 3 Fronten-Krieg besonderst spannend wird.

Man braucht 4-5 Jahren um eine Neue GPU-Architektur zu entwickeln und mit Larrabee & dem alten GPU-Know-How wäre es nicht überraschend, wenn sie mit einigen alten AMD-GPU-Entwicklung-Ingenieuren (die ja 2010/11 angeheuert wurden) dann ihre eigene GPU-Entwicklen. Schlielich kann man nur mit seiner eigenen Technik große Gewinne erzielen, außer man ist so ein platzhirsch wie Qualcomm der den Markt völlig beherscht.

Die Physik wird die Grenzen vorgeben. Eine APU wird niemals die Performance einer separaten GPU erreichen können.
Tablets brauchen auch keine dezentrierte GPU.
Es wäre nicht überraschend, wenn die GPU-Performance in Zukunft wesentlich stärker wächst als die CPU-Performance.
Schließlich stagniert der Ultrabook-Markt schon seit 2011 mit nur 2 CPU-Cores. Bzw. der Notebook-Markt ist generell bei 2-Cores stehengeblieben, während Quad-Modelle noch immer im Notebook-Markt selten sind.

Bei Ontario & Kabini sieht man schon jetzt, dass der iGPU-Bereich wesentlich größer ist als der CPU-Bereich und mit 4-Kernen ist Kabini in Sachen CPUs-Kernen & CPU-Fläche jetzt schon gesättigt.
 
aylano schrieb:
Tablets brauchen auch keine dezentrierte GPU.
Es wäre nicht überraschend, wenn die GPU-Performance in Zukunft wesentlich stärker wächst als die CPU-Performance.
Schließlich stagniert der Ultrabook-Markt schon seit 2011 mit nur 2 CPU-Cores. Bzw. der Notebook-Markt ist generell bei 2-Cores stehengeblieben, während Quad-Modelle noch immer im Notebook-Markt selten sind.

Bei Ontario & Kabini sieht man schon jetzt, dass der iGPU-Bereich wesentlich größer ist als der CPU-Bereich und mit 4-Kernen ist Kabini in Sachen CPUs-Kernen & CPU-Fläche jetzt schon gesättigt.

das ist auch logisch. CPU Leistung steigert sich auch weit schwerer als GPU Leistung da diese quasi linear mit Shadern etc skaliert. Bei CPUs ist das weit komplexer.

Ist auch eine Frage der Anwendung und Software. Ich denke CPU Leistung steht bei heutigen Tablets auf Android Basis schon meist mehr als genug zur Verfügung. Mehr als Quad wird man so schnell nicht sehen, eher werden die Kerne aufgebohrt. Irgendwann werden die sich wohl bezüglich IPC an Desktop x86 annähern, aber unendlich lässt sich die CPU Power pro Kern kaum steigern. Da ist nicht mehr viel zu holen bei IPC / Kern.

Bei Windows - also zb X86 oder Geräten die zb an Display Port oder Thunderbolt angeschlossen eine komplette Workstation ersetzen, sieht es anders aus. Schau dir zb Ubuntu an, welches am HDMI ein vollwertigen PC darstellt. Da fehlt noch ein gutes Stück CPU Rohleistung, genauso Windows 8 auf heutigen ATOM oder kleinen 1 Ghz AMD APUs. Da darf es noch etwas mehr CPU Leistung sein.

Sowohl bei Intel, als auch AMD, als auch ARM wird wohl der GPU Part dominieren, was aber schon seit langem so ist - nur dass es heute meist ne bis zu 550mm² DIE in Form einer dez. GPU ist... so gesehen ist die GPU oft schon größer als die CPU, auch heute und gestern schon (da eben deutlich besser skalierend).

Auf CPU Seite ist ein Turbo wichtig, der einzelne Aufgaben beschleunigt und hier den Takt kurzzeitig boostet. Dadurch gewinnt man bei diesen ganz kleinen TDPs viel Spielraum und kann die Performance vervielfachen (gerade auch wenn zb die GPU unausgelastet ist dabei aber 75% der Gesamt-TDP für sich beansprucht - wäre eine statische Taktung schlecht).

Es gilt das vorhandene TDP Budget so dynamisch wie möglich auslasten zu können.
 
@ richthofen
Verluste sind erst einmal Verluste. Aktienruckkauf schön und gut, aber das waren eher kleine Pakete.
Ob ne neue tegra-architektur einschlägt steht in den Sternen. Auch die diskreten GPUs stoßen an physikalische Grenzen. AMD könnte ne mords neue Reihe raushauen. Qualcomm nen saustarken SoC kreieren... Alles Spekulation.
Fakt ist, die nackten Zahlen sehen im Moment nicht so gut aus. Und ich gehe davon aus, dass das in Zukunft eher schlechter als besser wird.
 
Richthofen schrieb:
Bitte genau hinschauen wo mehr Geld ausgegeben wurde bevor man so etwas einfach in die Luft setzt. Nvidia fährt im übrigen nach wie vor ein Aktienrückkaufprogramm. Grundsätzlich kann man sagen, dass Unternehmen die sich das leisten können gesund sind.
Wo soll man genau hinschauen?
Aktien-Rückkäufe fallen ja nicht in den Gewinn/Verlust, außer man verkaufts sie wieder und die Differenz fällt als Gewinn oder Verlust ab.

Nichts anderes waren die vielen Verluste von AMDs Geschäftsberichten der letzten Jahren. Denn die Fabriks-Neubauten & Ausbauten wurden primär mitte den 00er-Jahren gemacht und wenn durch den Fabriks-Verkauf dann der Anteil geringer verkuaft wurde, als es in den Bilanzbücher stand, so erschien die Differenz im Netto-Verlust.
 
Zurück
Oben