News AMD gewinnt Marktanteile im schrumpfenden Grafik-Geschäft

Wenn die Qualität bzw. die Anforderungen zukünftiger Spiele nicht vollkommen stagnieren, dann werden die integrierten GPUs den dedizierten Karten auch dauerhaft keine allzu großen Anteile abnehmen.

So richtig anfangen Spaß zu machen (also die Qualitätseinstellungen und Auflösungen in aktuellen Spielen auch mal etwas hochdrehen zu können), tut es doch auch erst ab ca. 75-100W-Grafikkarten und darüber. Sowas kann man aber nicht mal so eben mit in eine CPU packen.
Die integrierten GPUs werden immer nur mit den absoluten Low-End-Grafikkarten vergleichbar bleiben, die sich vorher auch kaum ein Spieler angeschafft hat.

Klar. Wer gar nicht spielt, der braucht auch keine bessere Grafikkarte, aber für die haben dann auch schon die alten Intel-GMA-IGPs und die Chipsatzgrafiken von AMD und Nvidia ausgereicht. Die zusätzliche Leistungsfähigkeit aktueller integrierter GPUs liegt doch bei allen Nichtspielern fast immer nur ungenutzt brach. Das Höchste der Gefühle ist da gelegentlich mal ein FullHD-Video abzuspielen.

Deshalb glaube ich wie gesagt nicht, dass die integrierten GPUs die dedizierten Karten wirklich in ein Nischendasein drängen können. Es sei denn, man kann sich als Spieler mit 300W-TDP-CPUs/APUs anfreunden. ;)

So richtig Sinn ergeben Ivy Bridge, Trinity oder zukünftige noch stärkere integrierte GPUs nur da, wo wo man um jedes bisschen mehr integrierte GPU-Leistung froh ist, weil eine dedizierte Grafikkarte oder GPU einfach nicht möglich ist, z.B. in ultraflachen Notebooks, bei denen aber trotzdem möglichst viel Spieletauglichkeit gewünscht wird.
 
TheManneken schrieb:
Ach wie kommst du darauf, dass für Nvidia plötzlich zum Problem werden sollte, was für AMD bisher kein nennenswertes Problem war? Das hört sich ja so an, als hätte man sämtliche Spiele, die mit dem schönen "Meant to be played" begonnen haben, mit einer AMD-GPU nicht oder nur schwer hätte spielen können. Kann man eigentlich die GPUs der Konsolen so sehr mit den Desktop-Lösungen vergleichen? :)

Naja ich sagte das zuerst auf NVIDIA optimiert wird bzw. überhaupt mit NVIDIA Karten programmiert wird. Vor allem bei "Meant to be played" Titeln. Natürlich wird danach noch für AMD hin optimiert. Aber nicht unbedingt immer im gleichem Maße, sondern im notwendigen Maße, was auch sonst^^
Das mag aber andersherum durchaus auch mal passieren. Beides fällt in den Benchmarks dann öfter mal deutlich auf.

Die bisherigen Konsolen wurden von AMD(XBOX360) und NVIDIA(PS 3) gleichermaßen bestückt. Nintendo wurde auch von AMD bestückt, fällt aber etwas aus der Betrachtung heraus, da Nintendo eher wenige Multiplattform-Spiele hat. Wenn jetzt Microsoft und Sony jedoch AMD GPUs und vlt. sogar CPUs nehmen wird man da garantiert versuchen im Rahmen der Portierbarkeit und Geschwindigkeit die eh identische Hardware auch hardwarenah anzusprechen bzw. darauf zu optimieren.

Was Optimierung bedeutet haben wir spätestens seit Skyrim begriffen:D
Nur weil einer zu bequem war einen Compiler zu nutzen der SSE Befehlssätze bei Desktop CPUs korrekt und ausführlich verwendet war die Leistung bei schwächeren CPUs unterirdisch. Selbst schnelle CPUS konnten da immer den Flaschenhals darstellen. Konsolen können ja kein SSE bzw verwenden andere/ältere Befehlssätze^^
Als das dann nachgeholt wurde stieg die Leistung durchschnittlich um bis zu 50% bei allen CPUs.
 
Zuletzt bearbeitet:
Kampfwichtel schrieb:
Wenn ich auf die downloadseite von Nvidia gehe finde ich z.b. treiberversion 175.4... BF3 brauch aber mindestens v285,... soviel zum thema wir haben die besseren treiber.

Wenn man versucht seine Marke zu verteidigen, dann aber auch bitte mit "echten" Informationen. Ja im Treiberarchiv finde ich den 175ger auch, aber mittlerweile ist man bei Nvidia auch bei 300 angekommen ;)

Ich bin auch der Meinung, dass Nvidia hauptsächlich im oberen Mittelklassesegment schläft, aber noch wichtiger als der High-End Desktopmarkt sind nunmal Notebooks und Home-Office-Multimedia Rechner, wo meist keine Oberklasse-Grafikkarten werkeln. Ihr müsst bedenken, dass der High-End PC Markt nur ein kleiner Bruchteil des Gesamtmarktes ist, weshalb ich die schrumpfenden Anteile nicht an diesem Markt festmachen würde. Eher bleiben die Werte konstant, was darauf hindeutet, dass sich am Markt nur relativ wenig verändert.
 
Nun es ist bekannt das AMD/ATI treiber vieles Schlunzen bei der Bildqualität um mehr FPS zu zaubern. Auch dann wenn man im treiber vermeintlich alle optimierungen abschaltet, wirklich aus sind die optimierungen nicht.
Zudem basiert der AMD treiber auf net frameworks wohl dem der sein windows ohne Frameworks Fehler hat.
Beiseite das, und mal ein Bsp
Du hast eine HD5770 und willst Mass effect 3 Spielen und hast den Catalyst 10,1 noch drauf, wird es laufen? Du musst den neueren catalyst 12,4 installieren.
Nun zu Nvidia
Du hast eine GTS250 (9800gtx+) und willst ME3 Spielen und hast noch den gforce 25x,xx Drauf. Und es läuft.
Man kann den Grafiktreiber updaten aber man muss nicht.

Man sollte aber generell den Grafiktreiber aktuell haben. Allein wegen der Performancesteigerungen.
egal ob Nvidia oder amd.

nun zum topic
Nun das intel mit ihren onboard GPU vorne liegt ist nicht verwunderlich.in jeden neuen Intel PC ist ein intel chipsatz drin.
und bei der masse an Büro knechten ist die Intel Onboard dominant. Keine frage andere Grafiklösungen sind nur im consumer Markt vorhanden.
 
Wofür braucht man noch dedizierte Grafikkarten außer zum Spielen?
Beispielsweise für die aktuellste Spieleperle aus dem Hause Blizzard reicht ja bekanntlich für max Details eine GTS 450.
Laut aktuellen Verkaufszahlen sind das wohl über 6 Millionen, die sich keinen Kopf machen brauchen, ob sie nicht vielleicht mal wieder in bessere Grafik investieren sollten.
Dagegen kann man das mit Intelgrafik nach wie vor nicht vernünftig spielen. Für den Anspruch integrierter Grafiknutzer könnte es aber auf low/mid Details reichen und daran werden Intel/AMD sicher noch etwas arbeiten in den nächsten Jahren.
Dann ist für NVidia da endgültig Feierabend.

Ich weiß jedenfalls, warum AMD oder Nvidia auf absehbare Zeit auf meinen Beitrag zum Umsatz verzichten müssen.
Und um das wettzumachen, müssen erst mal paar Leute low/midrange kaufen. Die sind aber sowieso keine max. Details gewöhnt und deshalb reicht für die auch in Zukunft Intelgrafik. ;)
Und für die ganze Online-Crap Schwemme derzeit braucht eh keiner mehr irgend 'ne neue Karte.

Ich denk mal, der Absatz wird noch viel mehr einbrechen, denn Konsolen werden ewig der aktuellen Technik Jahre hinterherhinken und Nvidia wird mangels regelmäßigen Erscheinens technisch innovativer Blockbuster für PC und statt dessen fortschreitender Online-Casualisierung auf Konsolenniveau irgendwann in nicht allzu ferner Zukunft das Schicksal von 3dfx teilen oder mit etwas Geschick als Konsolenzulieferer sein Dasein fristen. :D
 
Zuletzt bearbeitet von einem Moderator:
syfsyn schrieb:
N.
Zudem basiert der AMD treiber auf net frameworks wohl dem der sein windows ohne Frameworks Fehler hat.

Hä? Das ist doch nur das Control Center? Du kannst den Treiber auch ohne Controlcenter installieren. Oder habe ich was verpasst?
 
uwei schrieb:
...
Beispielsweise für die aktuellste Spieleperle aus dem Hause Blizzard reicht ja bekanntlich für max Details eine GTS 450. ...

Und eine besagte GTS 450 hat schon über 100W TDP. Eine GPU dieser Größenordnung/Leistungsklasse wird man deshalb nicht so bald integriert in einer CPU oder APU finden.

Die GTS 450 ist dementsprechend auch doppelt so schnell wie eine Llano-APU und fast 5x so schnell wie die in HD4000 in Ivy-Bridge. Von kleineren/älteren integrierten GPUs ganz zu schweigen.

Wenn man bedenkt, dass Diablo 3 noch ein vergleichsweise genügsames Spiel mit altmodischer DX9-Engine ist, kann man sich leicht ausrechnen, dass für die meisten aktuellen und zukünftigen Spiele eher noch etwas mehr nötig ist, um sie in höheren Qualitätseinstellungen und Auflösungen zu spielen.

Spieler werden also bis auf weiteres bei dedizierten Grafikkarten bleiben und wie oben schon ausgeführt, sind die neueren integrierten für die allermeisten Nicht-Spieler eigentlich schon wieder totaler Overkill. Wer wirklich nicht spielt, der war schon vorher mit den alten Chipsatz-GPUs zufrieden. Nicht umsonst war Intel schon immer der größte GPU-Hersteller, auch schon zu GMA-Zeiten.

Ich denke deshalb, allzuviel mehr wird Nvidia und AMD bei den dedizierten Grafikkarten nicht mehr wegbrechen. Die integrierten GPUs haben die HDx450er und GTx20er kassiert, die selbst nie wirklich für Spiele taugten, aber zu viel mehr reicht es nicht.
 
Und mit 28nm steht die nächste Generation an diskreten Grafikkarten an. Bei nVidia bekommt man im selben Stromverbrauchsbereich die doppelte Leistung bzw. die gleiche Leistung mit halbem Verbrauch.

Dazu kommen viele neue Spiele in diesem Jahr. Max Payne 3 wird DX11 unterstützen. Borderlands 2 unterstützt GPU-PhysX. Die Leute werden also durch Top-Games mit Top-Grafik und Gimmicks wiederrum nicht an einer dGPU vorbeikommen.
 
Sollte Nvidia nicht langsam in die Pötte kommen, sehe ich ganz düster für sie. Im entscheidenden Segment bieten sie immer noch keine Konkurrenzprodukte an und bis diese kommen, reden alle schon über die HD 8xxx, die diese Produkte wiederum in den Schatten stellen sollte. So fährt man eine Firma gegen die Wand. Denn selbst im High- End Bereich sind sie nur mit AMD gleichauf (nur bei Multigpu überlegen), das heißt selbst hier wird knapp die Hälfte zu den HD 79xx greifen. So wird das mit dem Umsatzrückgang unbeschränkt weitergehen. :(

Erfreulicher hingegen ist die Entwicklung bei VIA/S3. Während man in Deutschland kaum GPUs mit S3 Logo erwerben kann, sind in Asien die Regale voll von denen. Trotzdem hätte ich eine solche Steigerung nicht erwartet, wenn natürlich auch auf niedriegem Niveau.
 
mit ati hatte ich eigentlich selten probleme auser ein hitze problem bei der 4870hd eigentlich bin ich der meinung das wenn ein spiel zu release nicht richtig läuft auf ati der entwickler des spiels schuld ist wie zb. bei gta4.rockstar hat ja dann auch ein patch geliefert damit es läuft, hab mir damals schon gedacht das nvidia rockstar bestochen hat damit es am anfang nur auf nvidia läuft....genau so enstehen nämlich dann die gerüchte von wegen nvidia ist besser, aber irrtum.
 
jo klar, schuld sind immer die anderen - und falls nicht, hat nvidia alle bestochen, lol. Immer wieder erstaunlich, wieviel dummes Zeug in einen thread paßt. ;)
Aber wartets nur ab, Nvidia ist eh bald weg. Die haben 4,5% (1,5%) verloren, das ist der Untergang...! :D
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben