News AMD Vega: Primitive Shader müssen vom Spiel unterstützt werden

@Sebbi

Garnicht trifft es gut, wie bei FP16 und DX12/Vulkan.
Kann Pascal alles nur ohne Leistungsplus.
Warum soll man etwas puschen wo nur der Konkurrent zulegt?
Stellt euch schon mal auf fünf weitere Jahre DX11 ein. x)
 
Zuletzt bearbeitet von einem Moderator:
Stunrise schrieb:
Einfach nur falsch, eine HD3870 hat viel viel schlechter gealtert, als eine 8800GT, was der damalige Gegenspieler war, von einer 8800GTX waren alle damaligen Karten weit entfernt. Ich hatte eine HD3870...

Aber nur, wenn du auch die damaligen alten Spiele spielst. Bei neueren Engines zeigte sich ja damals schon, dass die HDs da besser abschneiden. Allerdings vergisst du ein kleines wichtiges Detail: die HD3870 hat DX10.1, der G80 und G92 haben nur DX10.0. Da aber DX11 und DX12 einen Fallback Modus auf DX10.1 haben, laufen DX11 und DX12 Spiele auf dem RV670. Die G80 und G92 werden nicht unterstützt. Das heisst, neuere Games wären mit der 3870 spielbar, wenn deren Leistung noch dafür ausreicht.
 
ChrisMK72 schrieb:
Sagt mal, heißt das, dass über 90% Intel nutzen ? :eek:

Anhang anzeigen 663341


Also wenn das stimmt ... gute Nacht AMD im Gaming PC Bereich.
Da werd' ich mir das mit Ryzen refresh aber noch 3 mal gut überlegen müssen.

Das bedeutet, dass Nvidia nicht so viel Pascal verkauft wie es möchte, dass 1080p gerade im Massenmarkt ankommt und an höhere Auflösungen nicht zu denken ist und am Markt vorbeiproduziert wäre, dass 4 Kern CPUs noch Jahrzehnte Standard sein werden oder dass das alles Bullshit ist.
Für so viel Scheiss ein so langes Kommentar verschwenden... da hätte es ein kurzes, wie meines, auch getan...
 
Ich finde es ist wirklich eine Frechheit, meine Kommentare in diesem Forum einfach zu löschen, nur weil sie kritisch sind.

Computerbase beziehen sie Stellung dazu, warum ein kritischer Sachkommentar zu einem Thema gelöscht wird und wie man es rechtfertigen kann, so eine öffentliche Diskussion zu verfälschen.
 
Zuletzt bearbeitet:
duskstalker schrieb:
die marktanteile von amd. außer minern hat im letzten jahr "niemand" eine amd karte gekauft - und die drei, die ich verbaut habe, waren teuer + wartezeit 2 monate.

Nix spricht dagegen Primitive Shader bei den von AMD supporteten Games mit dazuzunehmen.
Da hammwa ghabt: Doom, Wolfenstein, oder jetz Far Cry 5 oder halt die andren AMD Games und von nix hört man was.
Wahrscheinlich weiß AMD selber ned ob und wie übahaupt das funktionieren soll.
Aber klar es sind die Spielehersteller oder die Marktanteile wieda schuld, logisch, aber RapidPackedMath hammse schon integriert?:freak: Logikfail wieder mal.

Baal Netbeck schrieb:
Natürlich wurden die Features im Vorfeld gepriesen und hohe Leistungszuwächse in Aussicht gestellt.....aber das ist Marketing Geblubber. Wie Leute daraus eine Erwartungshaltung für Wundertreiber herleiten und sauer sind wenn AMD es nicht schafft, ist mir schleierhaft!

Total schleierhaft, AMD is wohl für die FineWine Folie ned verantwortlich gewesen oder?:D

G3cko schrieb:
So sieht es aus.

Ich habe es bereits im 3DCenter geschrieben. Die Primitive Shader würde man sicherlich auch im Treiber umgesetzt bekommen, aber wozu?

Na damit Vega endlich schneller wird.:lol:
Aba klar das macht ma ned weils ja ohnehin nix bringt, geile Logik.
Wie stellst dus dir eigentlich vor. Man entwickelt ewig nen Chip und dann is alles fertig und nachher wirft man die Flinte ins Korn weil Vega eh von Mining gepushed wird, wo keiner weiß obs wirklich zahlenmäßig so stimmt und wie lang das überhaupt noch anhält. Cool Story.

Die auch noch so geblendet ist, dass sie bei falschen Dx-Level-Angaben (Kepler), falschem VRAM (Maxwell) und verstecken Kosten Gsync dennoch lieber dort zugreifen.

Bah als ob das den Käufer interessiert, dich interessierts ja auch ned dass AMD die Features die se versprochen haben gar ned liefern., aber bei Nvidia isses dir wichtig.:p
Also lass doch dein falsches moralisieren kann man doch gar nimmer lesen so ein Unsinn.

Vega ist eine toparchitektur mit einem ganzen Sack voller Features. Statt VRAM-? (Nvidia) gibt's dank HBCC sogar VRAM+?

HBCC funktioniert doch ned mal gscheid ohne Frametimespikes, mal kann mans aktivieren und mal isses für de Katz. Ne Toparchitektur schaut anders aus. Das war mal ne 5870 oder eine 9700.
DasUnding schrieb:
Computerbase beziehen sie Stellung dazu, warum ein kritischer Sachkommentar zu einem Thema gelöscht wird und wie man es rechtfertigen kann, so eine öffentliche Diskussion zu verfälschen.

Vielleicht liegts ja daran, dass du einfach mal total übertreibst und gleich von Betrug faselst.
AMD hat sich halt an Vega mit einigen Sachen wie DSBR, HBCC oda die Primtive Shader eben verhoben, wayne interessierts, aber dass es wieder x Leute gibt die das verteidigen und lauter Geschichtn erfinden toppt deine Betrug Kommentare nommal.
 
Zuletzt bearbeitet:
Toni_himbeere schrieb:
Ob das Feature je genutzt wird?

In AMD Demos sicher, genau wie N-Patches etc.
In kommenden Spielen? Wohl kaum.

DX10.1 hat mir bei der damaligen HD4870x² genau in einem Spiel was gebracht, wow...
Oh ich vergaß die 5 Demos von ATI/AMD, die waren natürlich supi-dupi anzuschauen, das erste Mal.

Von Physics hingegen konnte ich in vielen Spielen profitieren, Far Cry2, Batman-Reihe, Mafia 2, Cryostasis, um nur einige zu nennen.

Meine eigene Schlussfolgerung daraus: Geiz ist nicht immer Geil. Lieber zahl ich etwas mehr und bekomme auch in den meisten Fällen mehr!

ATI/AMD GK machten Probleme : 2 (970, 4870x²)
NVidia GK machten Probleme : 0

Nach 20+ Jahren Gaming...
 
Zuletzt bearbeitet:
kisser schrieb:
Sowas nennt man heutzutage "Alternative Fakten".

Der geneigte Leser vergleiche einmal z.B. GTX 970 mit R9 390 oder GTX 960 mit R9 380

Und was sehen wir da? GTX960 ung R9 380 lagen gleichauf, heute liegt die 380 9% vorne. Da man davon ausgehen kann, dass auch die GTX960 nicht komplett stillgestanden hat in der Zeit, kommen wir den +20% für die R9 380 schon sehr nahe.
 
DasUnding schrieb:
Ich finde es ist wirklich eine Frechheit, meine Kommentare in diesem Forum einfach zu löschen, nur weil sie kritisch sind.

Computerbase beziehen sie Stellung dazu, warum ein kritischer Sachkommentar zu einem Thema gelöscht wird und wie man es rechtfertigen kann, so eine öffentliche Diskussion zu verfälschen.

Deine Kommentare sind nicht kritisch, sondern schlichtweg Müll. Mal drüber nachgedacht?

Wenn du von Betrug sprechen willst, fang lieber bei der GTX 970 an. Denn da wurden faktisch einfach mal falsche Daten angebeben.
 
Zuletzt bearbeitet:
Raucherdackel! schrieb:
[...] Dank DX10.1 kannst du die HD3870 sogar noch für DX11 Spiele samt deren Effekte wie Tesselation nutzen, obwohl es die Karte damals unter DX10 noch gar nicht konnte. Und genauso wird es sich mit den Vega Karten verhalten. Wirst schon sehen, deren Funktionsumfang wird Standard werden. Dafür wird Intel schon sorgen...

Startegisch ein gut nachvollziehbarer Punkt. AMD hat im GPU Segment zu wenig Marktanteile, weswegen die Verbreitung der Features schleppend läuft und weswegen es wohl an Manpower fehlt um die Features besser umzusetzen bzw. Entickler aktiv zu unterstüzen. Deshalb will man market share und den wird man durch solche Deals wohl auch bekommen.
Zudem und das finde ich ist das unverstänliche hier, wird immer auf Gesamt VEGA rumgehackt. Wieso haben Intel und Apple denn Interesse an VEGA, wenn VEGA doch kompletter Mist ist? ^^
Ich bin echt gespannt was da kommt. Hauptsache wird bekommen kein Monopol. Ihr seht doch was passiert wenn kaum GPUs am Markt sind. Zwar sind Nvidia GPUs auch vom Mining betroffen, wenn AMD als Konkurrenz jedoch völlig fehlt werden die Preise (Mining hin oder her) wohl kaum sinken.
 
Zuletzt bearbeitet von einem Moderator:
Pisaro schrieb:
Deine Kommentare sind nicht kritisch, sondern schlichtweg Müll. Mal drüber nachgedacht?

Wenn du von Betrug sprechen willst, fang lieber bei der GTX 970 an. Denn da wurden faktisch einfach mal falsche Daten angebeben.

Für dich ist eine Löschung aufgrund der Qualität legitim und schreibst dann sowas. Und dann willst du mir vorschreiben, was ich schreiben soll?
 
Zuletzt bearbeitet:
Genau. Weil man AMD hier nichts/kaum was vorwerfen kann, anderen Herstellern allerdings schon. Das scheinst du aber nicht wirklich zu sehen. Es bleibt dabei: Du trollst, nichts anderes.
 
Atent123 schrieb:
Tjo, brauch man sich nicht wundern das die 480mm² brauchen um mit GP104 314mm² mithalten zu können, wenn gefühlt 1/3 der DIE denn Rest nur "anfeuert" Dabei muss man noch bedenken das HBM Speichercontroller und Bus deutlich kleiner als beim GDDR5x äquivalent sind.
Um Vergleichbarkeit Herzustellen müsste man nochmal um die 40mm2 bei Vega dazu addieren.
Sind wir wieder so einer der sich nur von Zahlen leiten lässt? Früher hat nV auch alles in eine GPU-Die gesteckt Computing, AI, Gaming etc. und trennt das nun in verschiedene GPU-Die Serien (in meinen Augen auch richtig so). AMD macht das noch nicht, warum kann ich nicht sagen (Tippe auf fehlendes Geld und Kapazitäten in der Entwicklung). Nur kann man daher die GPU nicht anhand ihrer Größe in mm² vergleichen. Aufgrund den Balast den AMD noch mit schleppt, der für Gaming nicht nötig ist, haben die auch mit der Größe und den Verbrauch zu kämpfen. Mann hat ja bei nV gesehen wie viel sparsamer die Chips wurden nachdem man Gaming vom Rest getrennt hat. Hoffen wir mal das AMD das mit Navi dann auch so händelt.
 
G3cko schrieb:
Und dann soll AMD Energie in einen Treiber stecken um in Benchmarks für eine Zielgruppe besser dazustehen, für welche ohnehin keine Karten übrig bleiben? Die auch noch so geblendet ist, dass sie bei falschen Dx-Level-Angaben (Kepler), falschem VRAM (Maxwell) und verstecken Kosten Gsync dennoch lieber dort zugreifen.

Dann lieber den Aufwand sparen und ein paar wenige Tripple-AAA Titel supporten und für eine Implementierung in Vulkan sorgen. Vega und deren Features werden uns sowieso die nächsten Generationen begleiten.
Na wenn die Vega-Architektur AMD noch so lange begleiten wird, dann sollte AMD doch trotz der aktuellen Marktlage Energie in den Treiber stecken, stimmts?
 
einfache grundregel: wenn die leistung an tag 1 nicht da ist, dann ist sie das auch später nicht. an wundertreiber glaube ich nicht und auch nicht an iwelche features, die angeblich alles rausreißen.

wir leben im kapitalismus. d.h. man muss für den massenmarkt produzieren. iwelche features zu entwickeln die dann extra eingefügt werden müssen von den spieleherstellern is einfach dumm. das wird nur eine kleine menge an entwicklern machen, da sie sich die zeit einfach sparen und das hernehmen was für die meisten leute passt. deshalb ist zb dx12 auch immer noch nicht richtig genutzt, weil dx11 für die meisten maschinen leistungsfähig genug ist.

deshalb ist es dumm von amd immer wieder features für iwelches apis zu entwickeln die eh keiner nutzt. wenige ausnahmen die zb mantle nutzen bestätigen die regel. nvidia geht da einfach nen anderen weg. selbst pascal ist für dx12 suboptimal aber für dx11 einfachd as beste und deshalb performen sie einfach besser als amd in den meisten spielen. amd dagegen baut iwelche neuen superarchitekturen mit neuem speicher (hbm2) etc und überhebt sich total, released das ding viel zu spät und am ende kommt die leistung nicht an. dann heißt es dass die neuen features, die ja alle entwickler bloß nutzen müssten, das ding rumreißen....

habe mitte 2017 von amd auf nvidia gewechselt, da für mich absehbar war, dass vega nichts wird. war die beste entscheidung. preise waren damals noch billig für top leistung die ich genieße seit über nem halben jahr.
 
Beitrag schrieb:
Na wenn die Vega-Architektur AMD noch so lange begleiten wird, dann sollte AMD doch trotz der aktuellen Marktlage Energie in den Treiber stecken, stimmts?

Hab mich auch gefragt was daran ne gute Entscheidung sein soll.
Die News hier war auch ein Abturner für ein Ryzen 2500U Notebook meiner Seits.
Ich glaube nun auch nicht mehr das AMD genug Marktanteile mit Vegas cNUs aufbauen kann in Low und Mid Range GPUs/APUs.
Dazu sind die nCUs einfach viel zu schlecht unter jetzigen DX11 Games sowie kommenden, DX11 bleibt uns noch ~4 Jahre erhalten.
 
Zuletzt bearbeitet von einem Moderator:
KillerPlauze090 schrieb:
einfache grundregel: wenn die leistung an tag 1 nicht da ist, dann ist sie das auch später nicht. an wundertreiber glaube ich nicht und auch nicht an iwelche features, die angeblich alles rausreißen.

So einfach ist das noch lange nicht.

So Lange wir mit der ollen DX11 Kamelle rumgurken hängt alles nur von den Treibern ab. Da hat sich Nvidia nun einmal einen soliden Markt mit dem Gameworks-Konzept aufgebaut.
Und DX11 läuft auf Nvidia nunmal auch besser, weil sie die ganze Zeit über schon die besseren DX 11 Treiber haben.
AMD kann schlicht nicht den ganzen Treiber umkrempeln nur damit man im Prinzip eine eh schon aussterbende API besser unterstützt wird, die von Nvidia mit Gewalt am Leben gehalten wird, weil sie mit ihrem Marktanteil auf DX 11 besser fahren.

Wenn man sich nun aber Anguckt wie die Performance von Wolfenstein 2 ist, dann stellt sich hier aber schon die Frage wer hier Mist baut.
Ist es AMD die nicht noch mehr Ressourcen in DX 11 Treiber stecken wollen oder generell keinen Bock haben jedes Spiel einzeln zu optimieren und deswegen mit Mantle versucht haben einen Teil der Optimierungsarbeit, was schließlich auch eine wichtige Aufgabe ist, zurück zum Spiele Entwickler zu verlagern ?

Oder sind es die Spiele Entwickler, die über die letzen Jahre fauler geworden und jetzt wohl zu verwöhnt sind mit fertiger Software zu arbeiten und sich deswegen vor DX 12 und Vulkan scheuen, weil es man dort scheinbar mehr Know How benötigt um die Leistung zum tragen zu bringen ?

Schließlich ist ein Hauptproblem, bei Vega und Fiji, dass die Shader nicht richtig ausgelastet werden.
Geht man nun den Weg des ACE, sowie einer Unterstützung von FP16 und der Primitive Shader und setzt diese in einer Offiziellen Engine um, so dass die Entwickler nicht denken müssen und "Ressourcen" sparen können.
Dann wäre es um einiges einfacher die Leistung der Karten abzurufen.

Das kritische ist aber die Henne-Ei Problematik, schließlich reden wir von 20% Marktanteil...
Und AMD Hat sicher keinen Bock jetzt auch noch einen auf Programmierer zu spielen um den Entwicklern alles in den Mund zu stopfen.

Sicher hat AMD auch schuld an der ganze Schosse, aber die Tatsache, dass der Markt überwiegend die DX11 API befeuert und kaum Interesse an DX12 hat ist eigentlich eine Teufelsspirale die solange andauern wird, bis Nvidia sich dazu entscheidet den Markt mit DX12 Hardware zu fluten und auch eine vernünftiger Unterstützung für die API zu bieten.
Das einzige was man in den letzen Jahren von Nvidia gesehen hat waren weitere Zusätze für Gameworks die überwiegend nur mit DX11 Spielen Promotet wurden.

Fortschritt geht definitiv anders :D
 
aivazi schrieb:
So Lange wir mit der ollen DX11 Kamelle rumgurken hängt alles nur von den Treibern ab. Da hat sich Nvidia nun einmal einen soliden Markt mit dem Gameworks-Konzept aufgebaut.

Eher haben sie ein Ökosystem aufgebaut das gut unter Directx11 u. Directx12 funktioniert und nicht nur in einer API.

AMD kann schlicht nicht den ganzen Treiber umkrempeln nur damit man im Prinzip eine eh schon aussterbende API besser unterstützt wird, die von Nvidia mit Gewalt am Leben gehalten wird, weil sie mit ihrem Marktanteil auf DX 11 besser fahren.

Aussterbende API? Wie lang das jetz scho erzählt wird. Ich glaub scho seit 4 Jahrn oda noch länger?!

Wenn man sich nun aber Anguckt wie die Performance von Wolfenstein 2 ist, dann stellt sich hier aber schon die Frage wer hier Mist baut.

Wolfenstein 2 is ja auch ein Spiel in Zusammenarbeit mit AMD die einfach in der Regel halt besser ausfallen als die andren.
Bedenke doch mal RapidPackedMath, ShaderIntrinsics oder Async Compute, das is kein nötiges Directx12 Feature, sondern eher optional, sprich das muss niemand einbauen und kaum einer machts auch.
mit Mantle versucht haben einen Teil der Optimierungsarbeit, was schließlich auch eine wichtige Aufgabe ist, zurück zum Spiele Entwickler zu verlagern ?
Mantle war schlimmer als Gameworks war komplett nua für AMD Karten und is dann auch gleich gestorben.
Jetz wenn Gameworks noch sterben würd, wäre die Welt perfekt.

Oder sind es die Spiele Entwickler, die über die letzen Jahre fauler geworden und jetzt wohl zu verwöhnt sind mit fertiger Software zu arbeiten und sich deswegen vor DX 12 und Vulkan scheuen

Wenn du heut n Projekt angehst, dann intressiert dich in erster oda zweiter Linie a wann das fertig wird, wieviel Personal ich brauche und was es kostet.
Aber klar, die Leut sind faul. Bewirb dich bittschen als Programmierer dort und arbeit für lau.

Geht man nun den Weg des ACE, sowie einer Unterstützung von FP16 und der Primitive Shader und setzt diese in einer Offiziellen Engine um, so dass die Entwickler nicht denken müssen und "Ressourcen" sparen können.

Man sollte den Weg ohne solche Notlösungen gehn und dann wirds auch was mit guter Leistung.

Und AMD Hat sicher keinen Bock jetzt auch noch einen auf Programmierer zu spielen um den Entwicklern alles in den Mund zu stopfen.

Tja das müsste man aber machen damit das was wird aber schau dir doch mal an welches Spiel diese neuen Shader unterstützt. Gar keins.
Da mangelts eben an ManPower oda der Unternehmensführung.

Sicher hat AMD auch schuld an der ganze Schosse, aber die Tatsache, dass der Markt überwiegend die DX11 API befeuert und kaum Interesse an DX12 hat ist eigentlich eine Teufelsspirale die solange andauern wird, bis Nvidia sich dazu entscheidet den Markt mit DX12 Hardware zu fluten und auch eine vernünftiger Unterstützung für die API zu bieten.

Als ob das an Nvidia liegt dass es ned viele Direct12 Spiele sind.
Aber klar das is immer das Problem von euch. Kommts ned so wie erhofft is immer irgendjemand schuld.
Es liegt nia an völlig nachvollziehbaren Dingen. Aber man weiß es eh. Genug Entwickler haben geplaudert, insofern bringts also nix da irgendwas zu erzählen was gar ned stimmt.
 
Zuletzt bearbeitet:
Gschwenni schrieb:
Eher haben sie ein Ökosystem aufgebaut das gut unter Directx11 u. Directx12 funktioniert und nicht nur in einer API.

Und was hat es gebracht ? ein Bisschen Bling Bling in gewissen Situationen in Spielen, aber wegweisendes war nichts dabei...


Aussterbende API? Wie lang das jetz scho erzählt wird. Ich glaub scho seit 4 Jahrn oda noch länger?!

Die API ist fast 10 Jahre alt.... Die Lücke zwischen der Einführung von DX 11 und 12 beträgt satte 6 Jahre...
In 6 Jahren hat sich DX 1 - DX 8.1 entwickelt das sind Welten im Fortschritt im Gegensatz zu jetzt.9
Die Spiele sehen auch nicht grundlos nicht viel besser aus als vor 10 Jahren.

Wolfenstein 2 is ja auch ein Spiel in Zusammenarbeit mit AMD die einfach in der Regel halt besser ausfallen als die andren.
Bedenke doch mal RapidPackedMath, ShaderIntrinsics oder Async Compute, das is kein nötiges Directx12 Feature, sondern eher optional, sprich das muss niemand einbauen und kaum einer machts auch.

Nö natürlich nicht, aber es sind Zukunftsweisende Techniken dessen Existenz man nicht absprechen darf.
Die Leistung der Hardware wird sicher nicht mehr groß steigen, entsprechend muss man diese besser auslasten oder die vorhandene Leistung Effizienter nutzen.

Mantle war schlimmer als Gameworks war komplett nua für AMD Karten und is dann auch gleich gestorben.
Jetz wenn Gameworks noch sterben würd, wäre die Welt perfekt.

Nunja, aus Mantle ist schließlich Vulkan hervorgegangen und hat das ganze auch zu Nvidia kompatibel gemacht.

Wenn du heut n Projekt angehst, dann intressiert dich in erster oda zweiter Linie a wann das fertig wird, wieviel Personal ich brauche und was es kostet.
Aber klar, die Leut sind faul. Bewirb dich bittschen als Programmierer dort und arbeit für lau.

Es wurde schon oft genug erwähnt, dass DX 12 wesentlich mehr können auf Seiten der Entwickler benötigt um die ganze Leistung der Hardware zu mobilisieren, entsprechend kann man das schon auf die Entwickler schieben, wenn sie nicht ausreichend optimieren und dann Aufgrund Gameworks gefrimmel nur auf 80% der Grafikkarten vernünftig läuft :D

Man sollte den Weg ohne solche Notlösungen gehn und dann wirds auch was mit guter Leistung.

Du bist echt gut, ich hab doch grad geschrieben, dass AMD sicher keine weiteren Ressourcen in den Treiber einer 10 Jahre alten API reinsteckt, geschweige den die Architektur auf eine alte API anpasst, dass wäre nonsense.
Diese Notlösungen sind die einzigen Kompromisse auf dem aktuellen Markt... alternativ dazu hätte man VEGA nicht auf DX12 sondern auf DX11...^^

Tja das müsste man aber machen damit das was wird aber schau dir doch mal an welches Spiel diese neuen Shader unterstützt. Gar keins.
Da mangelts eben an ManPower oda der Unternehmensführung.

Ja wurde doch auch erst gerade angekündigt, dass der Entwickler die Implementierung machen darf.
Davor ging man davon aus, dass AMD an einer Software Lösung arbeitet um die Primitive Shader implementieren, entsprechend ist daran auch nichts überraschendes, dass es noch keine Spiele gibt die das unterstützen.
Das liegt auch nicht an mangelnder ManPower oder Führungskraft, sondern schlicht daran, dass diese Info erst eine Woche alt ist und die Entwickler sicher nicht etwas implementieren können, von dem sie nicht wissen, dass sie es im Vega Renderpfad integrieren können..


Als ob das an Nvidia liegt dass es ned viele Direct12 Spiele sind.
Aber klar das is immer das Problem von euch. Kommts ned so wie erhofft is immer irgendjemand schuld.
Es liegt nia an völlig nachvollziehbaren Dingen. Aber man weiß es eh. Genug Entwickler haben geplaudert, insofern bringts also nix da irgendwas zu erzählen was gar ned stimmt.


Nvidia hat einen großen Anteil von DX 11 Karten auf dem Markt.
Kepler und Maxwell sind auch überwiegend DX 11 und erst Pascal ist sozusagen Komplett DX 12 Kompatibel.
DX 12 bietet auf Nvidia Hardware kaum Vorteile, weil die Hardware schon durch den DX 11 Treiber gut ausgelastet wird.

Warum also in aller Welt sollte Nvidia auch nur im Ansatz ein Interesse daran haben an der Verbreitung von DX12 teilzunehmen ?
Wenn doch damit nur offensichtlich wird, wie zB. Kepler und Maxwell dabei abstinken gegenüber den GCN Äquivalenten von AMD ?

Also hätte Nvidia durchaus Interesse die Verbreitung von DX12 aufzuhalten, abwegig ist es nicht oder beziehst du doch nur auf ominöse Entwickler die irgendwie geplaudert haben ?

Nvidia braucht DX 12 nicht.
 
Zuletzt bearbeitet:
Ich versteh die Grabenkämpfe einfach nicht - oder seid ihr etwa Aktionäre? Aber was soll man von Gamern auch großartig erwarten... Wenn es nur noch einen Hersteller gibt (egal welchen), dann wird das für niemanden auf lange Sicht gut sein. Viel Spaß bei 1000 € Karten im Mid-Range Segment.
 
MrFlip0815 schrieb:
Wenn es nur noch einen Hersteller gibt (egal welchen), dann wird das für niemanden auf lange Sicht gut sein. Viel Spaß bei 1000 € Karten im Mid-Range Segment.

Es gibt tatsächlich ein paar Verrückte, die das toll finden würden, oder nur auf bessere Karten von AMD warten, um nVidia günstiger kaufen zu können. Beides ist irgendwie merkwürdig. ;)
 
Zurück
Oben