pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.420
kisser schrieb:Die Anzahl an Shadern spielt nur eine untergeordnete Rolle. Entscheidend ist, wie gut die Shader ausgelastet werden.
Das habe ich auch beschrieben. AMD setzt traditionell auf mehr aber simplere Shader, wenn ich es so bezeichnen kann. Da sieht man durchaus noch parallelen zu VLIW. Auch hat AMD meist den kleineren Chip mit der deutlich höheren Packdichte.
GCN kann unter DX11 nicht optimal ausgelastet werden, da der Fokus bei der damaligen Entwicklung bei AMD für GCN eventuell anders verteilt war. Man kann durchaus annehmen, dass bei Bulldozer das ähnlich war und AMD eventuell damit gerechnet hatte, dass eine API wie DX12 wesentlich früher auf den Markt gekommen wäre. Denn dann ist durchaus verständlich, wieso AMD Bulldozer und GCN auf den Markt bringen wollte. Hier wären Bulldozer und GCN wenn es ums Gaming geht wesentlich besser abgeschnitten, hätte es zur Einführung von Bulldozer bereits DX12 gegeben. Deshalb gab es auch die damalige Aussage von AMD, dass es kein DX12 geben wird. Das war zu teils auch eine Begründung, wieso man den Markt so schlecht eingeschätzt hatte. (Bzw gibt es auch einige Features die DX11 kann aber nie genutzt worden sind. Compute Shader soll ja auch mit DX11 bereits möglich sein. AMD hat vieles mit DX11 bekanntlich nicht durchsetzten können, allein weil NV jene Features auch nicht unterstützen wollte. Deshalb ist ja auch egal ob NV DX11.1 und DX11.2 unterstützt.Mit einer neuen API DX12 ändert sich aber die Sachlage und NV muss mitziehen)
Natürlich habe ich keine Belege dafür, sondern ist lediglich eine Einschätzung von mir, aber diese Ansicht der Dinge erklärt durchaus wieso AMD einige Entscheidungen so getroffen hatte.
Wieso sonst, hat AMD so sehr auf Multithreading gesetzt und GCN AS so früh spendiert ? Weil man vllt der Meinung war, dass der Markt mit DX11 so lange stagnieren wird ?
(Man bedenkt, man muss sich heute entscheiden, auf welche Feature man setzt, die in 10 Jahre wichtig sein könnten. Man siehe Beispiel HBM, dass 8 Jahre benötigt hatte).
DX11 ist ja auch schuld, wieso viele keine neue Hardware kaufen, oder wieso viele bei Windows 7 bleiben. NV hat den Markt somit besser eingeschätzt, da sie eher aktuelle APIs optimiert haben und weniger Risiko auf neue APIs eingegangen sind. Da kommt eventuell der Vorteil, dass NV sich nur GPUs widmen muss und keine Sorgen über die CPU sparte machen muss.
Beispiel Zen. Nur weil AMD hier wieder zurückrudert, heißt das lange nicht, dass AMD oder Intel in 10 Jahren nicht wieder CMT einführt. Das selbe gilt für HBM. Nur weil NV jetzt auf HBM setzt, heißt das nicht, das in einigen Jahre, AMD und NV auf HMC oder eine Weiterentwicklung davon setzten. Dann ist auch verständlich wenn beide Firmen, AMD und NV abkommen schließen, dass beide von jeweiligen Technologien profitieren können.
Für AMD und NV sind solche Entwicklungen ein großes Risiko. Wenn man gewisse Technologien/Forschungen teilt, reduziert man für beide Risiken, also Win Win Situationen.
Und wenn AS vergleichen möchte, dann nehme ich eher OoO. Da brauche ich nur ein Bobcat mit einem älteren Atom vergleichen.
Ja habe ich vergessen. Wenn Intel Grafikkarten einführen würde, wäre es durchaus interessant. Dann würden sie nicht nur AMD Marktanteile rauben, sondern auch NV. Eventuell letzteren mehr.kisser schrieb:Den größten Hersteller von GPUs vergessen?
Zuletzt bearbeitet: