@ Zotac: Ist ja schön, dass Du meine sonstigen Argumente gekonnt ignorierst. Das Team, das dort bei AMD arbeitet, ist offensichtlich der Aufgabe nicht gewachsen, pünktlich die entsprechenden Treiber abzuliefern; zu jedem der letzten Launches ist die Leistung der veröffentlichten Grafikkarten in den Monaten danach noch mal "erheblich" verbessert worden, bei der RX 480 waren es etwa 10% in DX11. Außerdem ist AMD so gut wie nie pünktlich bei den Day-1-Treibern für neue große Spiele, was dann in den Tests in der Presse schlecht aussieht -- zwei drei Wochen später sieht das Leistungsbild oft anders aus, interessiert aber niemanden mehr, weil es keiner mehr testet (Beispiel Fallout 4). Das kann jetzt an der Teamgröße oder an den Mitarbeitern selbst liegen, in beiden Fällen spreche ich von unterbesetzt. Zu dem Zeitpunkt, als GCN1 rausgekommen ist, ging es AMD finanziell noch deutlich besser als im letzten Jahr, wo die Arbeiten an Vega angefangen haben, und auch da ist genau das eingetreten: die HD 7970 hat nach dem Launch langsam Leistung dazugewonnen, was in einem Treiber mit etwa 5% Leistungsschub auf einmal gegipfelt ist, in Battlefield 3 gab es satte 30% mehr (nicht Day-One, wo es bei den meisten Seiten auch in den Benchmarks gewesen wäre, 30% sind gut eine Leistungsklasse unterschied) -- wie gesagt, in einer finanziell besseren Situation bei AMD.
Dass dann irgendwann das Geld knapp geworden ist, sieht man auch schön daran, wie das Gaming Evolved Programm eingestampft worden ist. In diesem Programm saßen in vielen großen Studios AMD-Ingineure, die den Spieleentwicklern selbst beim Optimieren auf AMD-Hardware geholfen haben. Nach dem Bulldozer-Fiasko ist das Programm weitgehend gestorben.
Bei nVidia ist es anders: dort sind die Day-One-Treiber in der Regel pünktlich und die neu veröffentlichte Hardware treiberseitig so gut wie ausoptimiert. Maxwell 2.0 so sehr, dass man durch DX12 keine weiteren Ressourcen freilegen konnte, sondern vmtl. der Verwaltungsaufwand sogar ein bisschen Leistung gekostet hat. Anders bei AMD-Hardware, bei denen in manchen DX12 / Vulkan Spielen erst wirklich durchscheint, was die Hardware eigentlich kann und was sie aus welchem Grund auch immer unter DX8/9/10/11 und OpenGL eben nicht abrufen kann -- Treiberproblem.
Das Problem scheint zu sein, dass die Treiberoptimierung eine gute Stange Geld kostet, die man bei AMD eben in der letzten Zeit nicht hatte. Geld kommt erst jetzt bald wieder richtig rein, wenn die ersten OEM-Deals für Ryzen anlaufen und wenn Epyc im Markt landet.
Der große Clou bei LowLevelAPIs ist ja, dass der Optimierungsaufwand von den Hardwareherstellern in den Treibern weggeht zu den Entwicklern selbst, was meinst Du, warum AMD da überhaupt so viel Wert drauf gelegt hat (und die erste Generation Konsolenchips so viel fitter dafür gemacht hat, als die Desktopvarianten -- PS4 mit 8 ACEs statt 2 ACEs bei der HD 7870). Entweder wollen oder können sie das halt einfach nicht leisten wie nVidia.
@Schrank: Nein, natürlich will ich mich nicht darüber beschweren, nVidia will ja nicht ihre teuren Quadros schlechter verkaufen, weil es Leute gibt, die auch ohne zertifizierte Treiber können. Das sollte ein Argument gegen "Es gibt keine Wundertreiber" sein und vielleicht noch in die Richtung gehen, was nicht implementierte Features noch an Leistungsgewinn bringen können. So große Zugewinne werden wir bei Vega zwar vermutlich nicht sehen, aber naja. Die Frontieredition soll ja jetzt bald die zertifizierten Treiber bekommen laut Videocardz.
@Svendrae: Nächstes Jahr soll ein reiner HPC-Chip wie P100 kommen, der soll Vega 20 heißen und z.B. 4 HBM-Stacks und 1/2 Double Precission kriegen, aber für Consumer ist der vermutlich nicht interessant, wird angeblich auch "nur" die gleiche Anzahl NCUs haben.