Test DirectX 12: Vollgas für AMD in der Beta von Ashes of the Singularity

Nai schrieb:
@ Dark-Silent
Es ist in dem Sinne nicht, so wie ich hier oft lesen musste, so emuliert, so dass die CPU die Compute Aufgaben berechnen müsste. Das einzige was die CPU bei Async-Compute unter NVIDIA afaik machen muss ist Synchronisationspunkte in den Schlangen einfügen, bevor die CPU die Schlangen zur GPU schickt. Synchronisieren tut sich die GPU dann automatisch. Und Synchronsiationspunkte in Schlangen einzufügen *sollte* nicht sehr aufwändig sein.

Ich glaube das du hier irrst . Es werden unterschiedliche Berechnungen nicht nur zeitversetzt gemacht es muss auch allen Piplines untereinander grob vereinfacht ausgedrückt der Zugriff auf die zu berechnenden Daten der anderen Pipes möglich sein dies auch auf Teilergebnisse . Ohne das diese die jeweils berechnenden Pipes komplett durchlaufen müssen . Dies wird bei AMD direkt in der Gpu gesteuert und ermöglicht .
 
@Locuza
Wo sind dort die von dir geforderten Zahlen zur Auswirkung auf die Framerate?
Es ging bei unserer Diskussion schließlich nicht nur darum ob es genutzt wird sondern vor allem wie.
Wo ist also das Benchmark Ergebnis mit und ohne async compute?
Ergänzung ()

Der Landvogt schrieb:
Wenn eine Karte in neuen(!) Spielen im Vergleich zur Konkurrenz im Schnitt sagen wir 3% verliert ggü. dem Releasezeitpunkt der Karten, so juckt mich das reichlich wenig. Dann müsste ich alle paar Monate eine neue Karte kaufen. Das muss schon gravierender ausfallen, und zwar allgemein und nicht in selektierten Spielen. Wenn ich selektiere dann kann ich mir Vorteile für jeden Hersteller rauspicken.

Ähm...nichts für ungut aber wie war das nochmal als mit dem release der GTX680 die Fan Gemeinde gejubelt hat das sie ach so viel schneller ist als die HD7970 und wo sie eher auf die GTX670 verwiesen wurde und das selbst die danach erschienene HD7970 GHz nicht ran kam?
Eine etwas höher getaktete Variante davon ist mit der GTX680 ist mit der GTX770 ist im Test und auch eine etwas geringer getaktete Variante der HD7970 GHz ist mit der 280x im Test vertreten und nun schauen wir uns nochmal die Differenz bei DX12 an. Ein Unterschied von 23% ist "etwas" mehr als deine 3%.
 
Zuletzt bearbeitet von einem Moderator:
@ Dark-Silent
Da NVIDIAs GPUs nicht gleichzeitig Graphik und Compute beherrschen, ist in diesem Sinne auch kein Zugriff auf die Zwischenergebnisse zwischen Compute und Graphik möglich. Jedoch können sowohl Compute als auch Graphik auf die Endergebnisse von den jeweils anderen nach der Synchronisation bzw. den Kontextwechsel zugreifen. Computeshader können aber gleichzeitig auf ihre Zwischenergebnisse zugreifen - dafür ist keine Synchronisation zwischen Schlangen nötig.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
@Locuza
Wo sind dort die von dir geforderten Zahlen zur Auswirkung auf die Framerate?
Es ging bei unserer Diskussion schließlich nicht nur darum ob es genutzt wird sondern vor allem wie.
Wo ist also das Benchmark Ergebnis mit und ohne async compute?
Die gibt es dort leider auch nicht, aber normale Nvidia-Ergebnisse, trotzt Mutliengine-Nutzung, die manchmal als höchst problematisch für Nvidia spekuliert wird.
 
Der Landvogt schrieb:
Du willst damit also sagen, dass eine 6970 eine lahm Krücke ist die man eh nicht mehr gebrauchen kann? Und dass Features wie DSR total unnötig sind?

Ich bin selber 6970 User im Moment und sage ja. So ne 6970 kommt heute nicht mal an eine 7870 ran. Also ist irgendwo zwischen 7850 und 7870. Und dann fehlen auch noch unzählige GCN Features, die 6970 hat 220W TDP (hab meine Karte etwas undervolted, müsste evtl unter 200W sein). Die Karte macht niemanden mehr glücklich.

VSR (Virtual Super Resolution, nennt sich das bei AMD) scheint bei AMD an Hardware gebunden zu sein, oder ähnliches, allein schon ein Grund weshalb wir das wohl nicht mehr mit den VLIW Rohrkrepieren sehen werden.


Zugegeben: Die Karte läuft noch einigermassen fein und ich brauch momentan nichts besseres, weil ich eh keine AAA Titel zocke. Ne, eigentlich wär ich sogar glücklicher, so ne R9 270 zu besitzen, ne 7850 ähnliche Karte würde auch reichen, statt sagen wir mal ne 390X, einfach damit ich Shader Cache habe (bei einem meistgespielten Spiel von mir würde ich damit deutlich höhere Stabilität und bessere Ladezeiten haben). Oder VCE, die es mir erlaubt Spieleaufnahmen direkt zu encoden, was mit der 6970 nicht geht, weil die Software dafür fehlt. Geht nur mit VCE.
 
Zuletzt bearbeitet:
Mit der 380X hab ich eine nur mittelstarke aber mit GCN 1.2 gut ausgestattete Karte.

Was mich viel mehr interessiert:

Bringt DirectX12 neben den viel diskutierten Performancevorteilen (verringerter Overhead) auch noch andere Dinge mit? Also Dinge, die den Nutzer direkt optisch auffallen wie neue Effekte o.ä.?
 
meine HD6950 hat kurz vor ihrer Ablöse zwar oft 30FPS ausgespuckt die sich aber gern wie 15 FPS angefühlt haben. Da dachte ich auch oft "geht noch und ist spielbar" - war es auch, aber kein Vergleich jetzt wenn ich 30 FPS ausgebe.
 
@Locuza
Das ist ja leider das Problem bei dem Thema. Es gibt keinen entsprechenden mit/ohne Test. Auch wäre die Auswirkung auf die CPU Asulastung interessant, also wieviel CPU Leistung diese Software Lösung kostet.
Die Diskussion wäre schließlich ziemlich absurd wenn die Framerate ohne async compute z.B. 10% höher ausfallen würde.
 
@ Wolfsrabe
Bringt DirectX12 neben den viel diskutierten Performancevorteilen (verringerter Overhead) auch noch andere Dinge mit? Also Dinge, die den Nutzer direkt optisch auffallen wie neue Effekte o.ä.?

Die Effekte sind schon seit jahren ein "reiner" Programmierteil und lassen sich größtenteils unabhängig von der GPU-Generation *irgendwie* verwirklichen. Man konnte z.B. auf einer Geforce 8800 GTX bereits problemlos Tessellation per CUDA implementieren obwohl sie es in der Rasterpipeline nicht unterstütze. Der einzige Vorteil in dieser Hinsicht von DX12 ist, dass dank neuer Hardware features wie Rasterizer Ordered Views (z.B. für Transparenzen interessant) oder Conservative Rasterization (für globale Beleuchtung interessant) sich einige Effekte deutlich schneller Dastellen lassen.
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
Was mich viel mehr interessiert:

Bringt DirectX12 neben den viel diskutierten Performancevorteilen (verringerter Overhead) auch noch andere Dinge mit? Also Dinge, die den Nutzer direkt optisch auffallen wie neue Effekte o.ä.?
Ja, DX12 bringt auch neue Rendering-Features mit sich.
Aber wie sonst auch immer müssen es die Entwickler auch verwenden.
Wenn niemand sich darum kümmert, wird man auch lange Zeit nichts sehen.

Wadenbeisser schrieb:
@Locuza
Das ist ja leider das Problem bei dem Thema. Es gibt keinen entsprechenden mit/ohne Test. Auch wäre die Auswirkung auf die CPU Asulastung interessant, also wieviel CPU Leistung diese Software Lösung kostet.
Die Diskussion wäre schließlich ziemlich absurd wenn die Framerate ohne async compute z.B. 10% höher ausfallen würde.
Auf Seiten der CPU sollte es praktisch keinen Effekt haben und im besten Fall ebenso wenig auf Seiten der GPU.
Wenn es aber bis zu 10% Performance kosten würde, wäre das natürlich "absurd" bzw. sehr ungünstig für Nvidia.
 
@Locuza
Die Software Lösung ist zusätzliche Arbeit für die CPU.
Es dürfte also in jedem Fall CPU Leistung kosten, die Frage ist eher wie viel.
Ohne eine direkte Test Möglichkeit könnte man wohl bestenfalls mit einer gleich schnellen Radeon vergleichen aber selbst da dürfte der Vergleich irgendwie hinken.
 
Don Kamillentee schrieb:
Wow, arbeitest Du in der Spieleindustrie oder woher nimmst Du diese Weisheit? Nur weil DX10 quasi non-existent war, meinst Du jetzt, das jede 2. DX Version übersprungen wird? DX8 und DX7 werden weinen!

EDIT: ach jetzt les ich erst Deinen Namen das zweite Mal, Du jammerst ja jeden Thread mit Deiner qualifizierten Meinung voll (ohne Netz und doppelten Boden) :D


Oh ja, danke hatte ich auch fast übersehen. Das der Troll immernoch hier ist, dachte er wäre endlich ausgestorben...
 
@ Wadenbeisser
Pro Frame ein paar Synchronisationspunkte für einen Kontextwechsel in die entsprechenden Schlangen einzufügen ist keine eine Aufgabe die nennenswert viel Rechenleistung kostet

Btw: Huhuhu Locuza, lange nicht gesehen :)
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
@Locuza
Die Software Lösung ist zusätzliche Arbeit für die CPU.
Es dürfte also in jedem Fall CPU Leistung kosten, die Frage ist eher wie viel.
Ohne eine direkte Test Möglichkeit könnte man wohl bestenfalls mit einer gleich schnellen Radeon vergleichen aber selbst da dürfte der Vergleich irgendwie hinken.
Das einzige was in dem Fall auf die CPU zukommen sollte, ist ein Fence-Check und möglicherweise eine neue Sortierung.

Was bei der Diskussion häufig ausgeblendet wird, sind die anderen Player im Feld, für den PC hauptsächlich Intel.
Dort kann das Rendering + Compute auch nicht parallel und asynchron reingeschoben erfolgen.
Auch DMA-Queues funktionieren bei Intel nicht garantiert asynchron, einige Aufgaben erledigt die DMA-Engine, für andere kommen die ALUs zum Einsatz.
Auch hier wird Intels Treiber vermutlich paar Checks machen und falls nötig alles in eine Abfolge packen, die günstiger zum ausführen ist.


Edit:

Huhu Nai :)
Die Mainpage von CB wird häufig besucht, seltener das Forum und noch seltener wird gepostet, weil die Community bei CB so groß und aktiv ist, da verliert man schnell den Anschluss und Überblick.
 
Zuletzt bearbeitet:
Mal ehrlich, Intels GPUs dürften schon aufgrund der Performance für das Thema ziemlich egal sein. ;)
 
max_1234 schrieb:
AOTS nutzts die Hauseigene Nitrous-Engine. D.h. die Typen entwickeln alles selbst, von A bis Z. Hier von Inkompetenz zu sprechen ist einfach nur dumm, aber passt zum Akteur.

Komisch. Bei Project Cars wars für einige noch vollkommen OK die Entwickler als dumm und unfähig darzustellen. Nur eben andersrum. Die haben auch alles von A-Z selbst entwickelt. Inkl. Madness Engine.
 
Wer hat die damals als dumm dargestellt? Die habn sich einfach nur verkauft und mit Verträgen (Nvidia Gimpworks, Bundles, Exklusivangebote, etc.) eingewickelt. Mit Dummheit hat das nix zu tun.

mfg,
Max
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Mal ehrlich, Intels GPUs dürften schon aufgrund der Performance für das Thema ziemlich egal sein. ;)
Primär wegen Intels dämlicher Preis- und Produktstrategie für den Konsumenten.
Die Treiber sind auch problematisch, aber Intels Iris Gen 9 Lösungen sind richtige Biester.
Gute Compute-Performance, stark bei Tessellation, stark bei Geometry-Shader, die volle DX12 Spezifikation wird unterstützt.
Conservative Rasterization Tier 3, Resource Binding Tier 3, ROVs, Tiled Resources Tier 3 usw.
Plus dazu noch die beste HSA-APU, um es in AMD-Sprache auszudrücken.

Technisch spielt Intel seit Gen 9 auf oberster Stufe mit.
Leider wird der Einsatz davon begrenzt sein.
 
Dann hätte ich jetzt gern Belege für deine Aussage.
Ohne explizit diesen Teil des Treiber gebenchmarkt zu haben ist es schwierig dies direkt zu belegen, da meine Aussage auf persönlicher Einschätzung meiner Programmiererfahrung beruhte.
Primär wegen Intels dämlicher Preis- und Produktstrategie für den Konsumenten.
Die Treiber sind auch problematisch, aber Intels Iris Gen 9 Lösungen sind richtige Biester.
Sehe ich ähnlich. Ich finde auch den EU Aufbau bei Intel sehr interessant. Sehr schmales SIMD 8 verglichen mit SIMD 32 bei NVIDIA oder SIMD 64 bei AMD, keine dynamische und eine etwas kleinere Occupancy, dafür 128 Register pro Thread. Ich würde gerne mal eine dedizierte GPU mit dieser Architektur in meinen Fingern halten :).
 
Zuletzt bearbeitet:
Zurück
Oben