News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

Ja, ist es. Man kann schon, ist aber unglaublich ineffizient. Deswegen "gießt" man es ja in Hardware.
 
Ich bin relativ neu hier als Moderator, und für Gaming und GPUs gar nicht zuständig, traute mich auf sachlicher Ebene gar nicht hier rein. Trotzdem habe ich einen Vorschlag an alle Beteiligten: Klappert eure Beiträge von heute Abend nochmals nach unflätigen Ausdrücken und unnötigen Ausbrüchen ab, die wegzueditieren noch möglich ist, ohne den Kontext zu zerreißen. In etwa einer halben Stunde ab diesem Post gehe ich durch und räume auf. Ich tu mich sehr schwer, ganze Posts wegen einem Wort wegzuräumen, das hoffentlich nicht mal so gemeint war.
Doch manches wird hier so definitiv nicht bis morgen stehen bleiben, mit allen Konsequenzen.
 
Smagjus schrieb:
Ist das nicht eine reine Sache der Wortwahl?

Inwiefern? Die DX-API ist ein Programmierschnittstelle für (GPGPU-) Hardware, man kann damit keine CPU ansprechen. DirectCompute-Shader laufen nicht auf der CPU.
Und eine Hardware in Software nachbilden geht von der Performance her nicht für aktuelle Hardware (für ganz alte HW, wie C64, Amiga, Atari etc. wird das ja durchaus gemacht).
 
Es gibt vereinzelte Dinge die sowohl in Software als auch in Hardware gleichschnell funktionieren können: z.B. AES Verschlüsselung
Was zum Bleistift meist in Hardware gegossen wird ist: h.264 Encoding, weil es einfacher ist ein Stück Blech nur dafür auf einer Platine zu verlöten, als die CPU damit vollzumüllen.
 
Schon eigenartig das die Progger von Arc Survival, ihren Patch verschieben. Merkt ihr was ? Da es ja mit Nvidea wirbt, wollen die natürlich das es auf AMD Karten nicht besser läuft 😁
 
Smagjus schrieb:
Ist das nicht eine reine Sache der Wortwahl?

Richtig. Software läuft auf Hardware ...
Theoretisch kannst du alle GPU Arbeitsschritte auf die CPU übertragen, die Betitelung, "Emulation" ist hierbei schon korrekt, impliziert aber hoffentlich auch dass es dann um den Faktor X länger dauert ... bevor noch jemand fragt.

Knorpelpower schrieb:
Schon eigenartig das die Progger von Arc Survival, ihren Patch verschieben. Merkt ihr was ? Da es ja mit Nvidea wirbt, wollen die natürlich das es auf AMD Karten nicht besser läuft 😁
So war das schon immer :) ARK ist da noch nicht so schlimm, auch wenn sie zuletzt 2 980tis und bissl Geld verlost haben (bzw. in Survival of the Fittest als Preis). Man sieht da gehts um aktives Sponsoring, Verträge usw usw ....

Läuft bei mir auf meiner 290 (non-crossfire) aber nicht schlecht, meistens runde 60FPS :)

mfg,
Max
 
Zuletzt bearbeitet:
Das Performance Problem könnten auch einfach Bugs sein.
Das Testprogramm für Async Shader, dessen Ergebnisse unter anderem auch immer angeführt werden um zu behaupten dass Maxwell keine Async Shader kann, läd die Compute Aufgaben anscheinend mit in die Graphics Queue anstatt in die Compute Queue. Sprich da kann auch erstmal nichts asynchron laufen. Zusätzlich scheint der DWM dann auch Sachen in die Compute Queue zu schieben, was die TDR Erkennung aktiviert, den Graka-Treiber abschmieren lässt und auch ne recht seltsame GPU-Auslastung produziert (springt immer zwischen 0 und 100 hin und her).
Und die hohe CPU-Auslastung, die als "Beweis" dafür genommen wurde dass die Compute-Aufgaben über die CPU abgewickelt werden, konnten bisher auch nur von 2 Leuten beobachtet werden, die meisten hatten das nicht. Dürfte also ein weiterer Bug sein.
 
Zuletzt bearbeitet:
t-master schrieb:
Dürfte also ein weiterer Bug sein.

Oder: Maxwell kann keine Async Shaders.

Ganz ehrlich - warten wir auf ein Statement von Nvidia. Vermutlich schreiben sie noch an nem Statement zum 3,5GB VRAM Problem. Ist ja auch nur ein "Bug", oder?

mfg,
Max
 
Das wär mal was ... DX11 ~40fps, DX12 ~ 90fps

mfg,
Max
 
Hmmm...der Effekt von TDR könnte doch auch auf das Problem mit den "long Draw Calls" zurückzuführen sein...welche das Testprogramm scheinbar ja triggert ?

Vgl. hier die Präsentation über nVidia und Async Timewarp Folie 27
https://www.google.co.uk/url?sa=t&r...MfyRP3mTyreoYbLaf899OQ&bvm=bv.101800829,d.ZGU

Ich vermute MDolenc schrieb ein Testprogramm dass in einem Graphics call als unteraufruf [n] compute calls aufruft. Daher auch das "auftauchen" der Compute calls im Graphics Queue wie er mit GPUView gefunden wird ?

Ohne jetzt im Detail die Funktion des Testprogrammes von Mdolenc zu verstehen könnte ich mir aber vorstellen dass es hierdurch eben zu den Preempts wie ab Folie 18 beschrieben kommt. Bzw. zu einem verschieben des Preempts bis zum ende des Graphics calls kommt. Aufgrund des so gearteten Aufbaus des Testprogramms dauert dieser Preempt dann also immer länger je länger der Test-Compute-Queue gemacht wird.

EDIT: AMD-Karten ab GCN können das wohl anders handhaben - weswegen es hier zu keiner zusätzlichen "Latenz" kommt.

Ich überlege grade ob ich mir extra nen account for beyond3d erstellen soll nur um auf obige Folien in dem Topic zu verweisen...mal sehen was die Experten dann dazu sagen.
 
Zuletzt bearbeitet:
http://www.pcgames.de/Deus-Ex-Manki...om&utm_campaign=sharebutton&utm_medium=social

In Deus Ex: Mankind Divided wird erstmals eine Technologie namens "Pure Hair" zum Einsatz kommen. Dienen soll diese der besseren Darstellung von Haaren, das hat Eidos Montreal auf der Siggraph 2015 verraten. Pure Hair wurde gemeinsam mit AMD entwickelt und ist der Nachfolger von TressFX. Um noch realistischere (Licht-)Durchschein-Effekte zu erzeugen, kommen bei Pure Hair sogenannte Per-Pixel Linked Lists (PPLL) zum Einsatz. Außerdem wurde die Haarsimulation insgesamt "signifikant" verbessert, wie AMD betont.

Für eine bessere Lastenverteilung bei der aufwendigen Berechnung soll auch in Deus Ex: Mankind das Divided Asynchronous Compute Shading sorgen. Rise of the Tomb Raider (Eidos Montreal) macht hiervon ebenfalls Gebrauch, um einige Grafiktricks zu ermöglichen. Neuere AMD Radeon-Grafikchips mit GCN-Kern besitzen die dafür nötige ACE-Einheit bereits von Haus aus. Abzuwarten bleibt, wie und ob die martkführenden Geforce-GPUs von Konkurrent Nvidia mit Pure Hair in Deus Ex: Mankind Divided zurecht kommen.

Wird spannend. Hier sind aber bereits größere Titel genannt, die offiziell AS unterstützten. Klar sind AMD Evolved Titel.

Mal sehen ob DICE, die stark hinter Mantle standen auch AS integrieren werden.
 
Hier noch einige Folien, scheinbar auch von DICE aus dem Jahr 2011:
http://image.slidesharecdn.com/gdc1...ing-in-battlefield-3-36-728.jpg?cb=1299679812
Hier der Rest der Präsentation:
http://de.slideshare.net/DICEStudio/directx-11-rendering-in-battlefield-3

Offensichtlich wollte DICE schon 2011 "Stall free async resource streaming" und hat das mit MS,AMD und nVidia besprochen...(war hier Mantle schon im Dunstnebel ?)
Vor allem mit Blick auf Folie 11
http://image.slidesharecdn.com/gdc1...ing-in-battlefield-3-11-728.jpg?cb=1299679812
wo es um Compute shading und den Einsatz "neuer" Hybrid compute/Graphics shading Möglichkeiten geht scheint diese Async Resource Streaming anforderung zu stehen.

Ob das mit Async Shaders functionality gemeint ist ?

Die Techspecs von MS sind ja afaik noch nicht zugänglich.

EDIT: grad noch von AMD gefunden http://megagames.com/sites/default/files/game-content-files/AMD_DX12_Features.pdf

"ASYNC SHADERS
Allow GPU compute and graphics hardware to run simultaneously, improving GPU utilization
and framerates."

EDIT2: http://www.idgconnect.com/abstract/10307/amd-directx-secret-star-windows
Digging deeper on DirectX 12...*schnipp*
Async shaders

Much of the lighting and reflexions you see in games are compute driven prior to entering the graphics pipeline to reduce latency and improve frame rates. There are always gaps called bubble in the pipeline and ideally you want to fill those to do useful work, and with async shading that’s exactly what we can do.

Für mich liest sich das so also als ob "Async Shaders" sehr wohl ein ziemlich zentraler Teil von DX12 sind.
 
Zuletzt bearbeitet:
Scheinbar hat der 15.8 Beta tatsächlich nochmal ordentlich DX12 Performance zugelegt um 20-55%.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10766232&postcount=430
Mit dem 15.7.1 waren es:
Preset min, Fraps: Avg: 77
Preset High, Fraps: Avg: 39

Und das mit einer r9 290X. Damit dürfte sie vermutlich vor einer 980Ti liegen. Mal schauen, welche Optimierungen seitens Nvidia erscheinen.

Wenn da in absehbarer Zeit etwas kommt, würde ich mich über einen ergänzenden Test mit neuen Treibern freuen.
 
Zuletzt bearbeitet:
Mal abwarten,
gut möglich das zukünftige DX12 games nicht mehr auf Asynchronous setzen und somit die Diskussion hinfällig wird. Immerhin hat Nvidia eine deutlich höheren Marktanteil und die Entwickler werden sich wohl auch daran Orientieren. Ansonsten muss Nvidia halt mehr Geld in die Hand nehmen und "Große Games" einkaufen (Gameworks)

Oder verstehe ich das ganze Falsch und DX12 basiert grundlegend auf Asynchronous?
 
Nö aber die Konsolen nutzen GCN und können damit auch Asynchronous Shader nutzen, was bei der XboX aber erst seit kurzem freigeschalten wurde. Es wurde z.B. schon bei In The Tomorrow Children der PS4 genutzt mit erheblichen+ an Perfromance:

http://www.golem.de/news/asynchrono...ichtige-dx12-funktion-fehlen-1509-116107.html

http://fumufumu.q-games.com/archives/TheTechnologyOfTomorrowsChildrenFinal.pdf --> ganz am Ende ab Seite 163.

Da die Konsolen eh schon Probleme haben Full HD darzustellen ist es vielmehr imo so, dass die Spiele die auf Konsole kommen Asnyc Shader an Bord haben werden, da diese für die Konole genutzt werden. Auf dem PC waren Asnyc Sheder bisher nicht möglich (bis auf Mantle).

Ich sehe das so. Für Nvidia ist es kein Nachteil Async nicht nutzen zu können aber eben auch kein Vorteil. AMD wird im geringen Maße davon profitieren können (ich denke je nach Szene von 0% - 20% + an Performance ist drin).
 
Zuletzt bearbeitet:
Zurück
Oben