Test DirectX 12: Vollgas für AMD in der Beta von Ashes of the Singularity

@hrafnagaldr
WOW.

Meine ist noch leet. Aber ihr könnt euch gerne bashen *grabs popcorn MJ style*

Ansonsten, leider ist das das einzige bisherige dx12 Spiel. Die Daten sind noch nicht bestätigt.
 
nur als anmerkung. für arma 3 wird nur das dlc in directx12 entwickelt. das urspüngliche spiel soll weiter unter x11 laufen
 
Wer sich ein bisschen informiert, weiß ganz genau, was da bei Nvidia gespielt wird ;)
 
burnbabyburn2 schrieb:
bei solchen Aussagen geht es wohl darum nur den Einfluss von AMD zu mindern,

Den Teil verstehe ich nicht. Welchen Einfluss AMDs? Auf die Entwicklung der APIs?
Das Async Compute Feature ist definitiv eine Erfindung AMDs, sie haben bei der Spezifizierung der DX12 API mitgewirkt und dieses dort eingebracht, sie haben es durch Mantle in die Vulkan API eingebracht.
Ergänzung ()

Lemmi91w schrieb:
Also ich lese eigentlich jedes Heise Heft immer aufmerksam,
Ich auch.

Lemmi91w schrieb:
dort wurde geschrieben dass der Druck auf Microsoft ansteigt, weil auch AMD Aussagen getroffen habe, es gäbe keine neue Schnitstelle für eine Windows API mehr außer Directx11.x.

Diese Aussage AMD war absoluter Mist, denn sie habe ja zur gleichen Zeit an der neuen DX API mitgearbeitet. Sie waren nur angepisst, weil es so lange gedauert hat und MS das Async compute Feature nicht schon mit DX11.2 in die API eingebaut hat.
Ergänzung ()

Lemmi91w schrieb:
Erste News und Bekanntmachungen zu Directx12 sind 1 Jahr nach Aussage AMD´s es gäbe keine Weiterentwicklung von Directx12 geben hochgekommen.

Ob 1 Jahre oder 2 Jahre ist völlig egal, die Entwiclung der DX APi ist ein kontiniuerlicher Prozess. Da finden regelmässig Treffen statt, an denen Vertreter der GPU-Hersteller, der Spiele-Entwickler und MS am Tisch sitzen.
Die Entwicklung von DX12 hat nach dem Erscheinen von DX11 begonnen, zwischendurch wurden mit DX11.1 und 11.2 zwei kleine Änderungen schon in die alte API eingepflegt, den Hauptteil der Änderung, nämlich die API hardware-näher zu gestalten hat sich MS für DX12 aufgehoben.

Derzeit wird übrigens schon am Nachfolger für DX12 gearbeitet, oder denkst du, die machen jetzt erstmal für einige Jahre Pause mit der Entwicklung?
Ergänzung ()

DocWindows schrieb:
.. und kisser übertreibt oft,

Inwiefern?
 
Zuletzt bearbeitet:
@kisser:

Deine Thesen fußen doch sicher auf seriösen Quellen oder?

Würdest du bitte uns (der Thread-Allgemeinheit) ein paar Belege für deine Annahmen zeigen? :)

Gesetzt dem Fall, dass du diese aber nicht vorweisen kannst möchte ich dich bitten, dass du aufhörst diese Aussagen in diesem Forum in der Form von bestätigten Fakten zu verbreiten. Die Foren von CB sollten mMn eine Diskussionsplattform, die auf Fakten basiert darstellen und wer diese nicht vorweisen kann sollte einfach nicht seine eigene Vorstellung als bestätigt vortragen. Wenn du dies hingegen weiter tust werde ich wohl aus diesem Grund deine Postings der Moderation melden.
 
kisser schrieb:
Derzeit wird übrigens schon am Nachfolger für DX12 gearbeitet, oder denkst du, die machen jetzt erstmal für einige Jahre Pause mit der Entwicklung?
Weil du das sagst? Oder weil du das denkst? Oder weil u. a. ich das denken soll? Oder warum arbeitet Microsoft schon längst an dem DX12 Nachfolger? Und welchem konkret?
Hat Microsoft nicht selbst gesagt, dass DX12 jetzt für lange Zeit nur noch erweitert werden soll, die Basis aber gleich bleibt?
 
Schade, dass Fable Legends nicht auch DX11 unterstützt, sonst könnte man dort einen ähnlichen Test - falls CB über einen Closed Beta Zugang verfügt (?) - erstellen und das Verhalten der GPUs unter DX12 wäre schon besser abzuschätzen. Bis Deus Ex - Mankind Divided ist es ja noch lange hin (welches zeitlich gesehen gut als Vorzeigetitel im AMD Polaris oder nVidia Pascal GPU Bundle beiliegen könnte). Naja, eigentlich würde ja auch schon ein DX12 Test von Fable Legends nutzen, denn ich wüsste zu gerne, ob die Kepler Karten da auch so "abkacken" wie das bei AotS der Fall ist? Ich hoffe ja nicht und dass es noch einigermaßen spielbar bleibt mit meiner GTX670OC (das hängt wohl nicht nur vom nVidia Treiber ab, sondern auch von der Umsetzung durch Lionhead/Microsoft für das Vorzeige DX12/Windows10 Spiel).

Überraschend finde ich nicht, dass AMD unter DX12 klar vorne liegt, wegen der Mantle Entwicklung und generell besseren Optimierung für deren GPUs als unter DX11. Dass Maxwell im Vergleich unter DX12 hier auch stark zu wünschen übrig lässt, wird sich nach Veröffentlichung von Pascal bestimmt noch verstärken (denn dann ist Maxwell die nächste Generation bei der man nach und nach die Treiber-Optimierung herunter fahren wird - um Leute zum Umstieg auf Pascal zu bewegen - ähnlich wie jetzt bei Kepler in Bezug auf Maxwell), denn wozu sollte nVidia jetzt massiv Ressourcen für die Optimierung von Maxwell GPUs auf DX12 verbraten, wenn Pascal fast vor er Tür steht und DX12 frühestens erst in einem halben Jahr massiv an Relevanz gewinnen dürfte?
 
Zuletzt bearbeitet:
DX12 wird lange der standard bleiben.. oder besser gesagt, muss erstmal der standard werden..

windows10 ist noch nicht auf jedem spiele rechner, genauso wenig eine dx12 fähige grafikkarte vorhanden.

Erst 2017 dürfte DAS Jahr für DX12 werden.


in nem halben Jahr werden wir deutlich mehr wissen über DX12 vs DX11 in Bezug zu AMD und nVidia, bis dahin ist das nur Gedankenspielerei, bisher sieht es aber so aus als würde AMD gewisse Vorteile haben.
 
Zuletzt bearbeitet:
Chismon schrieb:
Schade, dass Fable Legends nicht auch DX11 unterstützt, sonst könnte man dort einen ähnlichen Test - falls CB über einen Closed Beta Zugang verfügt (?) - erstellen und das Verhalten der GPUs unter DX12 wäre schon besser abzuschätzen.
Um ehrlich zu sein bin ich froh, dass es DX11 nicht unterstützt. Der Grund ist simpel: Fable Legends wird vom MS persönlich entwickelt die Win10 und somit DX12 um jeden Preis pushen wollen. Ich gehe fest davon aus, dass sie DX11 absichtlich schlecht dastehen lassen würden um Win10 endlich mal loszuwerden.
 
Der Landvogt schrieb:
So wie die 4870 oder 6970... ;)

Die 6970, so wie eigentlich alle Karten ab 5000 bis vor GCN, haben zusammen mit den GCN Karten den gleichen Treiber (16.1.1) erhalten, am gleichen Tag, zur gleichen Stunde (jedoch separat, versteht sich).

Offiziell solls zwar fertig sein, aber hin und wieder dürften wohl doch noch paar fixes kommen.
Mit 4000 und darunter (bis 2000 runter) ist es halt ENTGÜLTIG fertig. Zurecht. Die 5000/6000 sterben langsam ab, auch zurecht.
Sieht bei Nvidia genau gleich aus. Eigentlich regt mich es ja sogar auf, dass man jede Entscheidung und jede Schritte mit der Konkurrenz vergleichen muss. Muss das wirklich sein?! Sind wir nicht alle schon aus dem Kindergartenalter raus?


Mr.Smith schrieb:
DX12 wird lange der standard bleiben.. oder besser gesagt, muss erstmal der standard werden..

DX12 wird erst Standard werden, wenn Windows 10 ne grössere Verbreitung hat, oder wenn DX12 bis auf Windows Vista runter noch unterstützt wird. Oder wenn Nvidia mit Pascal unter DX12 nachlegen kann. Denn ohne Nvidias passende Produkte wird ebenfalls nichts gemacht, selbst wenn Windows 10 genügend Verbreitung gefunden hat.
 
Zuletzt bearbeitet:
Ich glaub zu DX12 gibts noch echt viele Mythen. Das Projekt wurde für MS doch erst nach dem Strategiewechsel nach dem Führungswechsel hin zu einer Produktvereinheitlichung interessant für MS. Grundlage für DX12 ist doch das Faetureset der XBoxOne. nicht umsonst unterstützt Hawaii 12_0, der Chip ist die gleiche Generation. AMD machte mit Mantle lediglich etwas Druck, damit MS dafür nicht Jahre braucht und zog auch noch den Joker, weil die Industrie Mantle so gut fand, dass sie es einfach für Vulkan als Entwicklungsgrundlage übernommen hat.
Natürlich sind beide APIs anfangs an GCN orientiert.

Auch bei Maxwell möchte ich was schreiben: Das ist ursprünglich eine Architektur, die für DX11.0 entwickelt wurde. Das kann man am GM107 sehr gut sehen. Nach Bekanntwerden von DX12 strickte NV Maxwell mit der heissen Nadel um und baute soviel DX12 wie möglich ein. Ob all die Papierfeatures auch tatsächlich Vorteile bringen, wird sich noch erweisen müssen. Mit AsyncCompute hat man sich jedenfalls schonmal einen kapitalen Bock geschossen, ich bin gespannt ob da noch mehr kommt.
 
Zuletzt bearbeitet:
Igoo schrieb:
Na ja bisher scheint Nvidia es auch nicht zu brauchen, wenn Dx12 interessant wird sind eh die neuen Generationen raus. Meine 980ti macht das was sie soll (Dx11 Spiele) ausgezeichnet. Bisher scheint das SPiel aber auch alles andere als gut zu laufen, man bräuchte endlich mal ein wirklich fertigen Titel...

diese antworten kotzen mich an Nvidia wirbt doch mit dx12 unter maxwell und dann so ne dumme antwort
wie bei der gtx 970 ja wenn der ram nicht passt kauf ich nächstes jahr pascal .... früher ging man sich noch beschweren heute kauft man beim selben Hersteller weiterhin
 
happylol schrieb:

So scheint die nVidia Kundschaft aber zu sein, oder warum ist die GTX 970 die derzeit am häufigsten benutzte GPU bei Steam? Selbst wenn man sich bei Amazon & Co. die Verkaufscharts ansieht, spielt nVidia ganz vorne mit.

Die Kunden strafen nVidia nicht ab für 3.5GB VRAM oder dem DX12 debakel!

Nein, nVidia wird sogar noch verteidigt und es wird auf Pascal verwiesen *lach* die ja alles besser machen soll, was man bei AMD dann bereits mit der R9 290 haben kann.

Effizienz hin oder her, was nützt mir ne +300€ Grafikkarte, wenn die nach knapp 2 Jahren schon für die Tonne ist?
 
berkeley schrieb:
Weil du das sagst? Oder weil du das denkst? Oder weil u. a. ich das denken soll? Oder warum arbeitet Microsoft schon längst an dem DX12 Nachfolger? Und welchem konkret?
Hat Microsoft nicht selbst gesagt, dass DX12 jetzt für lange Zeit nur noch erweitert werden soll, die Basis aber gleich bleibt?
MS wird auf jeden Fall ab dem Zeitpunkt damit anfangen, wenn sie auch mit dem neuen Windows anfangen. Ob das wirklich gleich nach erscheinen von WIN 10 passierte weiß man natürlich nicht.

Der Landvogt schrieb:
Um ehrlich zu sein bin ich froh, dass es DX11 nicht unterstützt. Der Grund ist simpel: Fable Legends wird vom MS persönlich entwickelt die Win10 und somit DX12 um jeden Preis pushen wollen. Ich gehe fest davon aus, dass sie DX11 absichtlich schlecht dastehen lassen würden um Win10 endlich mal loszuwerden.
Da brauchst dir keine sorgen zu machen. WIN 10 verbreitet sich auch so gut ;) Ist immerhin auch ein gutes OS.
 
HOT schrieb:
Auch bei Maxwell möchte ich was schreiben: Das ist ursprünglich eine Architektur, die für DX11.0 entwickelt wurde. Das kann man am GM107 sehr gut sehen. Nach Bekanntwerden von DX12 strickte NV Maxwell mit der heissen Nadel um und baute soviel DX12 wie möglich ein. Ob all die Papierfeatures auch tatsächlich Vorteile bringen, wird sich noch erweisen müssen. Mit AsyncCompute hat man sich jedenfalls schonmal einen kapitalen Bock geschossen, ich bin gespannt ob da noch mehr kommt.
1. Definiere für DX11.0 entwickelt.
2. Definiere mit der heißen Nadel gestrickt.
3. Wieso haben sie mit AsyncCompute einen kapitalen Bock geschossen?

basilisk86 schrieb:
Die Kunden strafen nVidia nicht ab für 3.5GB VRAM oder dem DX12 debakel!

Nein, nVidia wird sogar noch verteidigt und es wird auf Pascal verwiesen *lach* die ja alles besser machen soll, was man bei AMD dann bereits mit der R9 290 haben kann.

Effizienz hin oder her, was nützt mir ne +300€ Grafikkarte, wenn die nach knapp 2 Jahren schon für die Tonne ist?
Weil es weiterhin eine verdammt gute Karte ist.
Es muss natürlich auch gute Gründe geben, wieso man die GPU in 2 Jahren in die Tonne treten kann vs. Konkurrenz-Angebote?

Die Gründe hier sind dann beim VRAM zu suchen und der vielleicht weniger guten Skalierung unter DX12.
Das ändert aber für das hier und jetzt nichts und ist dann vom Anwender zu beurteilen wie er in die Zukunft schaut.
 
kisser schrieb:
Ob 1 Jahre oder 2 Jahre ist völlig egal, die Entwiclung der DX APi ist ein kontiniuerlicher Prozess. Da finden regelmässig Treffen statt, an denen Vertreter der GPU-Hersteller, der Spiele-Entwickler und MS am Tisch sitzen.
Die Entwicklung von DX12 hat nach dem Erscheinen von DX11 begonnen, zwischendurch wurden mit DX11.1 und 11.2 zwei kleine Änderungen schon in die alte API eingepflegt, den Hauptteil der Änderung, nämlich die API hardware-näher zu gestalten hat sich MS für DX12 aufgehoben.

Ähm, nein. Das wurde von Microsoft auch so gesagt. Die Upgrades von Dx11 waren eher eine Art hotfix.
Microsoft hat sich einfach auf andere Bereiche fokussiert, im Bereich Spiele eben auf ihre xbox. Höherer Anteil am Gewinn etc.

Die Kehrtwende kam erst vor einiger Zeit, als sehr viele Entwicklungen gleichzeitig das Geschäftsmodell von Microsoft "derselbe Scheiss wie immer" nicht mehr lief. Die Xbox war nicht so dominant wie sie sich das wünschten, Office wurde durch Cloudlösungen angegriffen, im Medienbereich (Zune etc) hat Microsoft nicht Fuß fassen können, generell lief die Sache mit dem Internet nicht so.
Software und Spielekunden sind zuhauf abgewandert, zum ersten Mal liefen unixoide Betriebssysteme Gefahr Windows als Spieleplattform abzulösen.

D3D lag genau wie der Internetexplorer mehr oder weniger auf Eis.
Die Arbeit an Dx12 war notwendig um Windows als Spieleplattform wieder zu stärken. mantle war eher Notwehr von AMD, weil von Microsoft keine Hilfe zu erwarten war.
Und wenn Windows nicht gleichzeitig die Spieleplattform für Xbox und Smartphones geworden wäre, weiss ich nicht ob Dx12 so schnell und umfassend entwickelt worden wäre...
Ergänzung ()

Locuza schrieb:
1. Definiere für DX11.0 entwickelt.
3. Wieso haben sie mit AsyncCompute einen kapitalen Bock geschossen?

Weil es weiterhin eine verdammt gute Karte ist.
Es muss natürlich auch gute Gründe geben, wieso man die GPU in 2 Jahren in die Tonne treten kann vs. Konkurrenz-Angebote?

Die Gründe hier sind dann beim VRAM zu suchen und der vielleicht weniger guten Skalierung unter DX12.
Das ändert aber für das hier und jetzt nichts und ist dann vom Anwender zu beurteilen wie er in die Zukunft schaut.

Async Compute funktioniert bei nVidia-Karten nicht wie es soll. Es bremst eher.
Und warum nVidia bei den Maxwell-Karten auf die Fresse geflogen ist? Weil sie die Karten explizit als Dx12-Karten bewerben. Nur gehört async compute eben auch zu Dx12.

P.S.: War bei Kepler auch so. Dx11-fähig, ja. Aber eben nur Dx11.0. Immerhin ist Maxwell voll zu Dx11.2 kompatibel...

P.P.S.: Ich versteh nicht warum sich alle über die GTX970 aufregen, die gab es mal für 300€. Ich find viel lustiger dass die GTX980 ~500€ gekostet hat und deren 4GB VRAM auch schon von den ersten Spielen in 1080p voll belegt sind. Aber klar, wenn nicht viele Daten über das Speicherinterface gehen, ist es nicht so schlimm dass das mit 256bit eher sparsam ausgeführt ist.
Es hat schon Gründe warum sogar nVidia seine echten Highendchips breiter anbindet...
 
Zuletzt bearbeitet:
Es funktioniert so wie es aufgrund der Hardware funktionieren kann.
Eine bremsende Wirkung ist nicht nicht für jeden Fall auszuschließen, auch nicht bei AMD, wenn man bei der Implementierung grobe Fehler macht.
Insgesamt sollte der Einfluss sich aber in Grenzen halten.

Async Compute gehört zu DX12, genauer gesagt Multiengine und muss funktionell gesehen auch von jeder DX12 GPU unterstützt werden.
Die Spec schreibt aber nicht vor, wie die Hardware die Funktion genau umzusetzen hat.
 
kisser schrieb:

In Sachen Formulierung. Hört sich manchmal überspitzt und etwas gepoltert an. Rein Subjektiv.

TenDance schrieb:
Async Compute funktioniert bei nVidia-Karten nicht wie es soll. Es bremst eher.
Und warum nVidia bei den Maxwell-Karten auf die Fresse geflogen ist? Weil sie die Karten explizit als Dx12-Karten bewerben. Nur gehört async compute eben auch zu Dx12.

Async Compute ist bei DX12 eingaenauso optionales Feature wie Adaptive Sync bei DisplayPort. Man kann es in Software realisieren, in der eh schon vorhandenen Hardware oder mit speziellen Hardwarereinheiten. Ich glaube man kann es per Flag im Treiber sogar ganz weglassen, darauf aber bitte nicht festnageln. Jedenfalls ist Async Compute für eine DX12-kompatibilität völlig unerheblich. Darum ist auch niemand "auf die Fresse" geflogen und das Bewerben mit DX12-kompatibilität ist völlig korrekt.
 
Zuletzt bearbeitet:
Zurück
Oben