News Grafikmarkt: Intel gewinnt massiv von Nvidia

na langsam sollte mal nvidia aufhören eingebildet zu sein, die 8800er zeiten sind vorbei, der größte witz zur zeit ist ja wohl die gtx590 mit 3GB speicher und ein SLI system aus GTX580 1,5 GB ist ja wohl genauso komisch
 
Nutzt wirklich jemand die intel iGPU ? Wirklich ? Ernsthaft ?

Warten wir die Statistik mal ab wenn nvidia mit seinem Multi-ARM-Chip auf dem Markt ist.
 
Ich nutze sie, gezwungenermaßen. Ich habe im Laptop ne Grafikeinheit und die ist der größte Müll. Wenn ich zocken kann dann auf niedrigen Details. Warhammer geht gar nicht -.-

Also auch wenn die so viele % zugelegt haben, ich glaube die wenigsten sind begeistert.
 
bei intel ist das kein wunder.. jeder Intel Prozessor der verkauft wird hat eine GPU dabei ... ob die nun genutzt wird oder nicht
 
Es ist für die Marktanteile doch vollkommen unerheblich was wirklich genutzt wird, hier geht es rein um die verkauften Chips.

Interessiert es irgendjemanden wieviele Leute ein Produkt tatsächlich nutzen, wenn du 500 Millionen davon verkauft hast?
 
smalM schrieb:
Zu den genutzten oder ungenutzten iGP: Die Masse sind in Fertigrechnern eingebaut, vor allem in Laptops. Und da sind sie dann auch die einzige GPU. Die Größenordnung des Selbstbaumarktes ist dagegen völlig irrelevant.
Na dann schau dir mal die ganzen Laptops an. Sehr viele haben noch ne zusätzliche IGP. Am lustigsten sind dann die Llano-Notebooks wo dann noch ne GPU dazu geklatscht wird die kaum schneller ist.
 
Naja, so passiert es halt vielleicht wieder. Das was mit 3dfx passiert ist, passiert jetzt langsam mit Nvida. Die werden halt dann von Intel oder AMD geschluckt. Die Zukunft sehe ich auch in APUs. Vielleicht wird Nvida von Arm aufgekauft. Fände ich zumindest eine Interessante zusammen Stellung wen man 3 potenzielle APU Hersteller geben würde. Schlimm wäre es wohl wen Intel Nvidia aufkaufen würde. Dann hätte Intel die absolute Marktmacht.

Oder Nvidia findet ein neues Kerngeschäft. CUDA zb... aber das sie jetzt vollkommen aus den Konsolenbereich geflogen sind ist für sie schon extrem Bitter.

Aber genug Glaskugelrhetorik, allerdings ist diese Entwicklung bedenklich.
 
Zuletzt bearbeitet:
Wegen den Aussagen hier, dass die Intel IGPs nicht genutzt werden bzw. kaum... also selbst unter der unrealistischen Annahme, dass die gemeinsamen Marktanteile von AMD und Nvidia sich auf dedizierte Grafikkarten beziehen und jede davon mit einer IGP von Intel in einem System landet... kommt man nach der Verteilung der Marktanteile nicht einmal auf 70% an IGPs von Intel, die möglicherweise nicht genutzt werden.

Oder sehe ich das falsch?

Ich finde es schade, das Nvidia keine x86 Lizenz hat.
 
Zuletzt bearbeitet:
blitzkid138 schrieb:
bei intel ist das kein wunder.. jeder Intel Prozessor der verkauft wird hat eine GPU dabei ... ob die nun genutzt wird oder nicht

Das kann man auch von der anderen Seite sehen. Auch wenn ne ATI oder nVidia vllt verbaut ist, nutzt der ein oder andere nur die Intel (so wie ich)....
 
Die Onboardgrafikkarte tuts doch auch für einfache Programme wie Word. Da braucht man nicht extra ne externe Grafikkarte kaufen und somit braucht man diese iGPU auch nicht. Die CPU ohne GPU ist bestimmt auch etwas günstiger und für die Ersparnis, kann man dann in die Onboardgrafikkarte oder ne kleine externe Grafikkarte investieren. Somit hat man nix gewonnen.

Also ich find das auch unsinn ne GPU in eine CPU zu strecken...na mal schauen was AMD so macht - dann steig ich um.
 
Wenn man sich Heuzutage in den Betrieben umschaut sieht man fast nur noch Thin Clients.
Für die Brezelkisten ist auch schon die billigste I3 oder Llano Cpu schon High End.
Bei uns stehen von den kleinen Dingern ein paar hundert rum.
Das ist ein sehr großer Markt ,wo man eine Menge Geld verdienen kann.
Hauptsache die Server haben genug Leistung.
Nur für Grafik,Konstruktion und Disign brauche ich etwas mehr Grafik Leistung.
In den Kisten werkelt dann aber eine Fire GL oder eine Matrox Grafikkarte.
 
flappes schrieb:
Nutzt wirklich jemand die intel iGPU ? Wirklich ? Ernsthaft ?

Warten wir die Statistik mal ab wenn nvidia mit seinem Multi-ARM-Chip auf dem Markt ist.

Ja natürlich. Ich nutze täglich die Intel HD3000 in meinen Laptop. Stromsparender als jede andere zusätzliche GPU. HD-Filme werden ohne Probleme abgespielt und der 2D-Betrieb überzeugt genauso. Wozu sollte man in einem Laptop eine andere Grafiklösung brauchen? Gaming gehört mMn in den Tower, aber das ist eine andere Baustelle ;-)
 
dMopp schrieb:
WoW, welch gewinn, ne zu 90% zwangsvorhandene aber deaktivierte GPU legt zu .. O_O
Tja hab ich auch gedacht, mein neues Notebook das in diesen Zeitraum fällt hat einen Core i5 mit HD3000 welche ich nicht nutzen kann. Daneben hat es eine AMD Karte aus der HD6000m Reihe. Ich würde gerne zwischen beiden umschalten aber da hakts ja bei den meisten Herstellern. Das Bild ist also grob verzehrt, ich nehme trotzdem an dass Liano und SandyBridge den Office Grafikchips den Markt abgrasen werden.
 
Nunja, brauchbar(er) sind die iGPUs ja geworden. Wenn das so weiter geht freu ich mich. ;)
 
Absolut verständlich, keiner der normale PC Nutzung hat braucht heuzutage noch ne Grafikkarte.
Ich spiel Warcraft und damit bin ich mit der HD3000 perfekt zufrieden.
Ansonsten spar ich gern Strom - die Intel On Board ist perfekt.

Mein gesamtes Umfeld sieht es genauso, die wollen sicher nicht nochmal 50-100€ für ne Grafikkarte ausgeben, wo die nur für Hardcorezocker was bringt. Für ab und zu, einfache Spiele reicht die HD3000 völlig und ruckelfrei.

Und bitte: die die hier anfangen "reicht für Word" das haben die letzten 10 IGP Generationen auch schon!
Die Prozessorgrafik ist für wesentlich mehr zu gebrauchen.
 
Hm, am effektivsten sind die iGPUs imo in Notebooks. Sämtliche Office-Notebooks, für sowas ist sie prädestiniert. ;)
 
xebone schrieb:
Absolut verständlich, keiner der normale PC Nutzung hat braucht heuzutage noch ne Grafikkarte.
Ich spiel Warcraft und damit bin ich mit der HD3000 perfekt zufrieden.
Ansonsten spar ich gern Strom - die Intel On Board ist perfekt.

Mein gesamtes Umfeld sieht es genauso, die wollen sicher nicht nochmal 50-100€ für ne Grafikkarte ausgeben, wo die nur für Hardcorezocker was bringt. Für ab und zu, einfache Spiele reicht die HD3000 völlig und ruckelfrei.

Und bitte: die die hier anfangen "reicht für Word" das haben die letzten 10 IGP Generationen auch schon!
Die Prozessorgrafik ist für wesentlich mehr zu gebrauchen.

https://www.computerbase.de/2011-06/amd-a8-3850-im-test/

Also wenn man sich da die Tests anguckt dann sieht das ganze doch eindeutig anders aus. Guck mal bei den Tests wie da die Intel GPUs teilweise abkacken oder die Spiele erst gar nicht starten. Da sind die APUs von AMD doch nen Tacken besser. Und wenn du bei den aktuellen Games 23,7 fps spielbar nennst dann kann ich dir auch nicht helfen.
Ja klar, bei den älteren Spielen mögen die was bringen (Wenn das Spiel überhaupt startet), aber bei den neueren sind die eindeutig nicht der burner.
 
Zuletzt bearbeitet:
Imbissbronko schrieb:
Die sollten sich schnell was für den Consumer-Markt ausdenken, um die IGPs auszustechen. Denn das Geld wird weder in Workstations noch in Gamer-PCs gemacht.

Ah ja? Dafür verdient NV aber noch ganz gut. Und denk mal an SOCs, oder an GPGPU. NVidia hat sich da schon bestens Gedanken gemacht und ihr Geschäft frühzeitig diversifiziert. x86 CPUs können sie nunmal nicht bauen und mit Chipsatzgrafik wäre es seit den APUs sowieso vorbei. Abgesehen von dedizierten Lösungen kann NV im x86 Markt nichts anbieten. Das ihr Umsatz und Gewinn nicht darunter leidet, ist unternehmerisches Können.

Rage-Guy schrieb:
Das richtig große Volumen landet in den großen Unternehmen und die sind heilfroh, dass sie endlich auf eine dedizierte Grafik verzichten können.

Die können aber nicht erst seit den APUs auf dedizierte Grafik verzichten. Chipsatzgrafik in Bürorechnern ist seit vielen vielen Jahren Standard. Und diese Chipsatzgrafik stammte in Unternehmen auch vor 5 Jahren eher selten von NV. Für NV ändert sich bei x86 also nicht allzu viel und erst recht kommen diese Änderungen nicht überraschend.
Ergänzung ()

TheRaven666 schrieb:
Es ist für die Marktanteile doch vollkommen unerheblich was wirklich genutzt wird, hier geht es rein um die verkauften Chips.
Interessiert es irgendjemanden wieviele Leute ein Produkt tatsächlich nutzen, wenn du 500 Millionen davon verkauft hast?

"Verkaufen" ist so eine Sache. Die Grafiklösungen in APUs kann man auch als Geschenk ansehen.

lynx007 schrieb:
Naja, so passiert es halt vielleicht wieder. Das was mit 3dfx passiert ist, passiert jetzt langsam mit Nvida. Die werden halt dann von Intel oder AMD geschluckt. Die Zukunft sehe ich auch in APUs. Vielleicht wird Nvida von Arm aufgekauft. Fände ich zumindest eine Interessante zusammen Stellung wen man 3 potenzielle APU Hersteller geben würde. Schlimm wäre es wohl wen Intel Nvidia aufkaufen würde. Dann hätte Intel die absolute Marktmacht.

Oha, soviel Käse. Welcher Zusammenhang besteht zwischen 3dfx und NV? Hab ich irgendwas verpasst? Wieviel Aussagekraft der hier präsentierte Marktanteil (im x86 Bereich?) hat, sieht man ja am Umsatz/Gewinn von NV. Da spiegelt sich der fallende Anteil überhaupt nicht wieder.
Insofern vergiss mal die Übernahmephatasien. Zumal AMD und ARM rein von ihrem Unternehmenswert keine Chance hätten, NV zu schlucken. ARM hat kaum mehr Börsenwert als NV und AMD ist nichtmal die Hälfte von NV wert. Bliebe noch Intel. Allerdings könnte die Marktaufsicht da was gegen haben.

lynx007 schrieb:
Oder Nvidia findet ein neues Kerngeschäft. CUDA zb... aber das sie jetzt vollkommen aus den Konsolenbereich geflogen sind ist für sie schon extrem Bitter.

NVidias Strategie ist nicht das bearbeiten eines Kernmarktes, sondern das Bauen auf verschiedene Standbeine. Dazu gehören dedizierte Lösungen, GPGPU und mobile Lösungen in Form von SOCs.

lynx007 schrieb:
Aber genug Glaskugelrhetorik

Besser so.
 
Zuletzt bearbeitet:
AffenJack schrieb:
Joa, nur leider ist im Iconia son gammelakku drin, wodurch der gute Verbrauch umsonst ist und es ist halt Videowiedergabe, da zeigt vor allem der UVD von Bobcat, dass er gut ist und die CPU idlen kann. Normales Inetsurfen dürfte deutlich besser für ARM ausgehen.

Hallo,
ich weiß ja nicht, welchen Browser du verwendest, aber da können auch 1-2 durchaus was mit der GPU anfangen...;) Zumindest mit bestimmten GPUs/IGPs. Im ARM Bereich sticht da aber nicht NVidia hervor, sondern Imagination Technologies, die seit der PowerVR SGX 543 OpenCL unterstützen, was bei NVidia noch aussteht und auch noch etwas länger dauert.
Das ist immer stärker im Kommen, daher hat ARM in dem Bereich nicht zwingend einen Vorteil. Auch bei Video Wiedergabe ist die CPU nicht generell im Idle, weil ja evtl. auch der Kopierschutz dekodiert werden muss und eventuelle Nacharbeiten auf der CPU gemacht werden. Außerdem können aktuelle ARM IGPs auch Videobeschleunigung, daher herrscht da Chancengleichheit und die Niederlage ist durchaus nachvollziehbar, wenn auch für viele überraschend.
Selbst in der Fertigung ist ARM ja nicht mehr hinten dran (was früher immer der Fall war), entsprechend herrscht da auch kein Einsparpotential mehr. Und gleichzeitig gilt natürlich auch, dass ein x86 Windows "etwas" mehr CPU Leistung frisst, als Android 3 und Co. Ob Win8 für ARM so ein Leichtgewicht OS sein wird, kann man ja aktuell noch schwer sagen. Daher würde ich jetzt nicht generell im Vorhinein sagen, dass ARM den x86er im Einsteigerbereich sofort gnadenlos verdrängen wird. Ich denken eher, dass der Unterschied zwischen ARM und x86 nicht groß sein wird. Und warum sollte man dann auf ARM umsteigen, wenn die alten Anwendungen nicht drauf laufen? Da muss ARM klar über den Preis arbeiten, ob das klappt kann man aber nur schwer sagen.
Daher lieber mal abwarten und nicht jetzt schon den Siegeszug von ARM feiern...
M.f.G.
 
Zurück
Oben