News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

Benji18 schrieb:
@Krautmaster
...
Daher würde ich mich als Maxwell Kunde sprich Käufer eine 9XX GF verarscht fühlen da sicherlich nicht wenige diese Karte auch wegen der Zukünftigen DX 12 Supports gekauft haben.

Async Shader und den Sinn oder Unsinn gehts wirklich nicht drum, im Gegenteil, sinnvoll sind die Sicher gerade auch wenn es darum geht bei zukünftigen neuen GPU die Auslastung zu ermöglichen und hoch zu halten, Flaschenhälse zu eliminieren, Latenz zu reduzieren.

Verarscht fühle ich mich ehrlich gesagt noch kein Stück - wieso sollte ich auch? Ganz ehrlich, wenn die Fury nun in neuen DX12 Titeln 30% vor der 980 TI OC liegt, dann wirds spannend aber ich kauf doch das was heute das passende Gesamtpaket ist. Ich hät beim Kauf nicht eine Sekunde nen Gedanke an Async Shader verschwendet und Stand heute ist doch vollkommen offen wie was wo Nvidia wie gut implementiert hat und was künftige Engines daraus ziehen.

Zumal so ein kauf einer GPU doch weder wirtschaftlich noch persönlich irgendwelche schwerwiegenden Folgen hat, als ob das Leben dran hängen würde könnte man bei manchen hier meinen. ^^

Wie gesagt, bis jetzt ist das doch alles Spekulazius. Bisher wurde auch keiner übern Tisch gezogen - oder auch alle, je nach dem wie mans dreht und wendet. Diese was wäre wenn und was kann wann wie sein ist doch Milchmädchen. Ob die Architekturellen und DX Unterschiede zw. Maxwell und den GCN Karten iwann groß zum Tragen kommen wird sich zeigen, und bis dahin haben wir vermutlich wieder alle neue GPUs im Rechner. Mit DX12 ändern sich ja nicht von heute auf morgen die Engines grundlegend, das meiste wird 1:1 übernommen und basiert eh auf Engines die über Jahre hinweg existierten.

Ich heul jedenfalls nicht meiner GTX 980 TI nach wenn die in 12 Monaten 30% hinter der Fury X liegen sollte sonden freu mich für AMD und die Käufer eben dieser Karten wenn sie nen Gain haben. Begrüßenswert wäre es jedenfalls damit AMD mal wieder etwas rosigere Zahlen vorweisen kann und Anteile zurückgewinnt.
 
Es ist wohl auch das erste mal, dass eine DirectX-Version einer GPU-Architektur auf den Leib geschneidert wurde, und nicht anders herum. D3D12 stammt (wie Mantle), größtenteils von der XBoxOne-API ab. Kein Wunder, dass GCN von Anfang an recht gut damit zurecht zu kommen scheint.

Da steht Nvidia mit Maxwell etwas schlechter da. Sie werden sicher auch fleißig Lobbyarbeit bei Microsoft gemacht haben, um zu erreichen, dass DX12 nicht total an Maxwell vorbei läuft, aber der Ursprung der API stammt halt aus der GCN-Welt und für Maxwell war es sicher schon zu spät, die Architektur noch entsprechend darauf abzustimmen.

DX12 kam ja doch etwas überraschend zustande. Ich glaube nicht, dass MS das so langfristig geplant hatte, sondern sie wurden durch AMDs Mantle zum Handeln gezwungen. Hätte Mantle nicht die Schwächen von DX aufgezeigt, hätte MS sich wohl kaum dazu aufgerafft, DX großartig zu überarbeiten und zu optimieren. Es ist ja keine Konkurrenz vorhanden. (Das im Vergleich nur selten genutzte OpenGL war bis Vulkan auch nicht besser.)
 
hardwareguru schrieb:
Das Spiel wurde mit AMD für Mantle entwickelt.Knick knack......Kostenlose Presse für einen Titel der keinen interessieren wird.Bis heute kein Gameplay und nur eine Techdemo.

Zusätzlich werden Spiele im Normalfall nicht für AMD entwickelt sondern für alle Grafikkartenhersteller.

Interessanter werden Dinge die auf Unreal 4 Engine laufen.Hier wird es wenigstens Titel geben.

In 6-12 Monaten werden echte DX12 Spiele kommen die auch AA Titel sind dann werden wir sehen wie sich AMD gegen Nvidia schlägt.

Und mal unter uns was nützt ein Spiel das nur auf AMD´s aktuellen Karten läuft weil ein Feature bis zum Umfallen gepuscht wird und bei 70% der Steamuser auf Nvidia nicht anständig rennt.Das kann sich keine Spieleschmiede leisten.....

Ehm, du weisst schon, das Ashes of the singularity seit einigen Tagen, wenn nicht wochen, spielbar ist?
Es macht sogar ziemlich spass. Das Gameplay ist bisher interessant und bin gespannt was daraus wird. Die Perf. ist noch unter aller sau, aber eben. Neue DX Version und pre alpha plus Nvidia debakel mom. ^^
 
k0ntr schrieb:
Alles klar, man schreibt wieder Sachen die gar nicht stimmen. HBM verbraucht mehr! Und AMD hat vor Jahren angefangen zu forschen, dass man Speicher aufeinander setzen kann usw.

Oh man. Hbm verbraucht nicht mehr und ja AMD hat schon vor Jahren damit angefangen. Gibt auf CB sogar ein Artikel dazu.
Wie wärs wenn du mal was schreibst das sich nicht nach 5 sek googlen in Luft auflöst.
 
Zuletzt bearbeitet:
Ich behaupte von mir, das ich nicht wirklich tiefgehende Ahnung von Prozessen innerhalb einer GPU-Architektur habe.
Aber wenn das so stimmt, was in den beiden unteren Absätzen im Artikel der Gamestar steht, werden wir in Zukunft wahrscheinlich noch stärkere Unterschiede zwischen ADM und Nvidia sehen.

http://www.gamestar.de/hardware/gra...rectx_12_nvidia_grafikkarten,922,3235711.html

Laut deren Aussagen nutzt AotS das Feature Asynchronous Compute nur im begrenzten Maße im Gegensatz zu zukünftigen Spielen (gerade in Richtung der Konsolen).
Bedeutet für mich im Umkehrschluss das die GCN von der Leistung noch weiter zulegen kann und Nvidia vielleicht weitere Performance Probleme in DX12 kommt.

EDIT: Doppelpost
 
@BlauX

BlauX schrieb:
Gleiche auch mit der GTX 970 - die 4GB sind durchaus verbaut, nur 0,5GB eben entsprechend langsam und führt bei Nutzung ebenfalls zu einem Negative Scaling ( mal mehr mal weniger )

Was sagt uns das, wenn es im Vorfeld nicht so Kommuniziert wurde? Genau: Kommunikationsproblem.
Was macht man als Kunde dagegen? Soll sich jeder selbst beantworten.


es geht hier nicht nur um die 0,5GB die schlechter angebunden sind sondern auch darum das die Anzahl der ROPs und des Caches in den Specs. nicht mit der Realität übereinstimmt und das ist sicherlich kein Kommunikationsproblem sondern schlicht und einfach Betrug!
 
Don Kamillentee schrieb:
Demnach liegen beim tatsächlichen Verbrauch HBM und DDR5 gleichauf? Performance per Watt interessiert ja nicht. Am Ende hat HBM den Vorteil der wesentlich höheren Bandbreite.

@ Topic

Mit Mantle war schon klar, wo es hingeht. Ich dachte aber ernsthaft, das nVidia mit den beworbenen Featuresets für DX12 AMD noch weiter davon ziehen wird. Sieht ja aktuell nicht so aus. Die Frage ist dann wohl, welche Features die Spieleschmieden hauptsächlich nutzen und da sieht man die Drawcalls schon weit vorne. AMD ist technisch "jetzt" vor nVidia. Pascal sollte besser die ACEs mitbringen, denn AMD kommt ja nächstes Jahr auch mit was neuem...

Am Ende kann es nur gut sein für die Verbraucher/Kunden. Die nVidia Fanboys sollten lieber froh sein, das AMD gibt. Ansonsten würde die Entwicklung stocken und noch mehr Krüppelhardware verkauft werden (RAM, nicht vorhandene Features trotz Werbeversprechen, ...)

Durchsatz Pro Watt = besser also = weniger Watt für gleichen Durchsatz.
 
Zuletzt bearbeitet:
Moon_Knight schrieb:
Werbung für's eigene Spiel. Strategiespiele sind (bis auf wenige Ausnahmen) keine Selbstläufer. Also kommt man irgendwie ins Gespräch.
Die haben eben auch ein Marketing. ;)

So sehe ich das auch. Die nutzen halt jede Gelegenheit in's Gespräch zu kommen.
Wir(inkl. mir) diskutieren ja hier auch über dieses Thema. Mit einer aberwitzigen Menge an Kommentaren, wenn man mal zum Vergleich manche Hardware News sieht.

Ich würde sagen deren Marketingabteilung macht einen sehr guten Job. Es ist ähnlich wie bei manchen Promis, die alles machen um in der Blödzeitung erwähnt zu werden. Egal ob mit positiven, oder negativen Schlagzeilen. Hauptsache im Gespräch und Aufmerksamkeit. Das steigert den "Marktwert".

Wie viele Leute hätten sich dieses Strategiespiel niemals angesehen, ohne diese Berichte ?

Was jetzt wirklich an diesen ganzen DX12 Klamotten dran ist, wird erst die Zukunft zeigen.
Da kann man einfach nix machen als abwarten. Nächstes Jahr kommen vielleicht auch mal mehr wichtigere Games raus mit DX12.

Und Pascal sollte dann ja auch wirklich alles Wichtige für DX12 mitbringen.
In ein paar Wochen(ca. 18?) ist 2016 und Pascal kommt näher. ;)
Abwarten und Tee trinken(oder wie ich gerade Kaffee, Guten Morgen ! :D )
 
Benji18 schrieb:
@BlauX

es geht hier nicht nur um die 0,5GB die schlechter angebunden sind sondern auch darum das die Anzahl der ROPs und des Caches in den Specs. nicht mit der Realität übereinstimmt und das ist sicherlich kein Kommunikationsproblem sondern schlicht und einfach Betrug!

Meine Ironie war schwer versteckt, sorry ;-)
Wie gesagt, bin ähnlicher Meinung.
 
Sinnfrei schrieb:
Und Pascal wird NVidia vermutlich ziemlich verkacken, mit GDDR5 und vermutlich immer noch diesen Context-Switching-Problem, da der Tape-Out schon vor längerer Zeit erfolgt ist.

DAs GDDR5 sehe ich da sogar weniger als Problem. in 14nm FinFet dürfte ein 386 Bit SI auch relativ klein sein und für die Mainstream Karten ausreichen.
Persönlich vermute ich aber, dass NV schon lange vom "Context-Switching" Problem weiß, bzw Hyper X sicherlich schon eine bessere Version geplant hatte, diese aber mit Maxwell nicht mehr umgesetzt hatte. Kann also gut sein, dass Pascal hier wieder aufholt.
Es bleibt aber vermutlich so, dass AMD trotzdem vorne bleiben wird.

Man muss einfach bedenken, NV muss verdammt viele Baustellen lösen. Das wird auch der Grund sein, wieso NV wohl Pascal mit GDDR5 zuerst 2016 für Mainstream auf den Markt bringt (dank Mixed Precision dann auch für HPC) und die HBM Version, aufgrund wesentlich höheren Aufwand erst 2017. (Wenn man den chinesischen Gerüchten glaubt, jene aber meist richtig liegen)
Neben HBM, 16nm FinFet, Interposer, Mixed Precision, kommen ja noch Techniken wie NV-Link, virtual memory (irgend eine Abstufung).
Kann also gut sein, dass wir Pascal 1 und Pascal 2 wieder sehen werden.

Kann auch gut sein, dass ACE ein Steckenpferd von GCN bzw mixed Precision ist und NV das auch erst für Pascal in der Form geplant hat. (Ja Maxwell kann bereits ACE sprich HyperQ)
 
Zuletzt bearbeitet:
SymA schrieb:
Ich frage mich ja immer von welchen Kinderkrankheiten ihr sprecht, ohne es mal probiert zu haben. Seit Tag 1 Benutzer von Windows 7,8 und 10 - bisher wenig bis 0 Probleme. Wobei ich auch keine extra Soundkarte mehr habe und es mit jeder neuen Version + Previews deutlich schmerzbereiter wurde :)

Solange du nur irgendwelche standard Sachen im Rechner hast, ist alles toll.. Bis auf die zusätzliche Überwachung...Willst du mal was anderes nutzen ist es alles andere als "0 Probleme".
Beispiel?
1) Ich habe eine ASUS PCE-AC68 im Rechner. Laut Asus ist hier kein extra Treiber nötig, weil Win10 die Karte erkennt und automatisch installiert.
Tjo nach der Installation von Win10 dann die Überraschung: Karte wird nicht erkannt... Also doch digitale Signatur ausschalten und die Win7 Treiber (die hatte ich schon gemoddet, war zu faul das mit den Win8 auch noch zu machen) und diese manuell installieren.
2) Viele Antiviren Suites unterstützen Win10 noch nicht vollständig. So auch mein Agnitum Outpost.
3) Wirklich weit "erforscht" ist die Sache mit der Überwachung nicht. Viele Tools schalten x Sachen aus, andere wiederrum y Sachen. Für mich und sicher viele andere ist das mehr als 0 Probleme ;D

Die Liste lässt sich übrigens noch weiter führen... Such einfach mal hier bisschen im Forum oder auch in anderen...
 
nospherato schrieb:
Solange du nur irgendwelche standard Sachen im Rechner hast, ist alles toll.. Bis auf die zusätzliche Überwachung...Willst du mal was anderes nutzen ist es alles andere als "0 Probleme".
Beispiel?
1) Ich habe eine ASUS PCE-AC68 im Rechner. Laut Asus ist hier kein extra Treiber nötig, weil Win10 die Karte erkennt und automatisch installiert.
...

Die Liste lässt sich übrigens noch weiter führen... Such einfach mal hier bisschen im Forum oder auch in anderen...

Jap, meine GTX 580 wird im System mit den beiden GTX 680 auch nicht mehr erkannt, da das Model (dessen name ich gerade vergessen habe) noch nicht fähig ist, beide Modelle gleichzeitig zu unsterstützen. Die GTX 680er nutzen das 2.0, während die GTX 580 das 1.3 oder so nutzt.
 
domidragon schrieb:
Jap, meine GTX 580 wird im System mit den beiden GTX 680 auch nicht mehr erkannt, da das Model (dessen name ich gerade vergessen habe) noch nicht fähig ist, beide Modelle gleichzeitig zu unsterstützen. Die GTX 680er nutzen das 2.0, während die GTX 580 das 1.3 oder so nutzt.

wdm?
 
Nvidia Karten machen eben immer nur das aller-mindeste was aktuell benötigt wird. Wie man aus der Vergangenheit entnehmen kann war es dem Konzern schon immer egal, was in einem Jahr kommt. Da verschwinden auf ein mal ganze Feature Level von der Supported Liste, manchmal auch ein halbes GB GDDR5 RAM.

Jetzt darf AMD aufräumen ... Dank Mantle (und bald Vulkan!) ist hier mehr als genug Referenzerfahrung bzgl. DX12 vorhanden, welches ja ausschließlich durch Mantle angestoßen wurde ... nicht durch Nvidia SchamHaarWorks.

mfg,
Max
 
Habe ich das jetzt richtig verstanden? nVIDIA hat hier seine Karten mit einer DX12- Eigenschaft beworben, die so nicht vorhanden war/ ist?

Sollte das so sein, wäre es die zweite "Irreführung" innerhalb eines Jahres.
Und unabhängig davon, ob man das dann leistungstechnisch in den Games merkt oder nicht würde meine nächste Karte dann eine AMD sein. Dann muss ich halt auf nVDIA 3D Vision verzichten. Das, Physx und Cuda sind die Gründe warum ich bei den grünen Karten bin.
Ich hoffe nur, dass sich das ganze nicht so sehr stark auswirkt, da ich eigentlich schon vor hatte die 980 drei- vier Jahre zu nutzen. War ja auch nicht ganz billig.
 
crazy_tomcat schrieb:
Mal ne Frage:
Alle die hier pro Nvidia oder AMD schreien,habt Ihr zufälligerweise Aktien von der jeweiligen Firma?
Ansonsten ist das ganze Geschrei nähmlich lächerlich.
Ich persönlich kaufe ja immer das was mir am besten gefällt oder am besten passt ,aber mit der jeweiligen Firma auf Kuschelkurs zu gehen :D:D.
Das sind gewinnorientierte Firmen ,denen ist Eure Meinung sowas von scheissegal, solange Ihr nichts von Ihnen kauft

Jeder kauft sich die Hardware die für ihn die richtige ist, ob das jetzt AMD oder Nvidia ist, spielt daher keine Rolle. Es ist richtig, unsere Meinung interessiert sie nicht, deine hier ist allerdings ebenfalls auch ohne wirkliche brisanz ;)

Man sollte es auch so sehen: Keiner entwickelt einfach "so nebenbei" ein Spiel bzw. Benchmark ohne finanziellen Hintergrund. Vor allem dann nicht, wenn man damit an die Öffentlichkeit geht und über einen GPU Hersteller herzieht der mit sehr hoher Wahrscheinlichkeit deutlich mehr Erfahrung über Spieleentwicklung verfügen wird als ein unbekanntes Studio das zurvor kaum einer kannte. Wenn deren "Benchmark" nicht wäre, würde sie keiner kennen. Kein AAA Titel oder nachweisbarer Track-Record der belegt, dass sie schon etwas qualitativ hochwertiges gerissen haben? Nö? Backen halten!

Würde so etwas von Futuremark kommen, wäre es etwas anderes, aber von einem mehr oder weniger unbekannten Studio? WTF! Das ist so "David gegen Goliath"... nur das in dem Fall wohl Goliath gewinnen wird.

Negative Schlagzeilen sind auch Werbung... würde mich nicht wundern, wenn sie in ein paar Wochen ein Spiel ankündigen...

Allerdings spekuliere ich, dass NVIDIA hier wegen DX12 nicht ganz sauber gearbeitet haben und hier u. U. das mangelhafte "Feature" ignoriert hat. Wie sollen sie denn auch, wenn DX12 nur auf dem Papier existiert hat. Bevor DX12 groß angekündigt wurde, haben einige Karten, darunter bspw. die GTX 980M offiziell (auf Seite) nur Direct X 11.x unterstützt, dann wurde das plötzlich auf DX12 geändert. Nvidia meinte doch vor paar Monaten, dass manche Karten nicht alle Features Hardwareseitig unterstützen und durch Treiber emuliert werden (müssen). Vermutlich ist das hier so ein Fall. Dann gabs doch die Ankündigung, welche GPU welche DX12 Feature Level unterstützt.

Es ist mir egal ob Oxide recht hat, oder nicht. Die Art wie Nvidia - schon wieder - mit so einem Thema umgeht, finde ich zum :kotz:

Ich hoffe auch auf Vulcan... OpenGL war mir immer schon lieber als DX. Grafik-API an Betriebssystem koppeln = Fail.

Wenn DX12 irgendwann einen Verbund zwischen dedizierter GPU und IGPU bilden kann, könnte sich das "AS"-Problem evtl. von alleine lösen.... sofern die IGPU das "richtig" unterstützt. Zumindest könnte diese Lösung performanter sein, als "nur" Software.
 
Danke Nvidia ihr habt mir sehr geholfen,
ich wollte doch tatsächlich eine 960 testen/kaufen (wegen 1x 6 pin).

Gut dann bleib ich doch bei Amd
 
Zurück
Oben