Test Quantum Break Benchmark: Steam mit DX11 gegen Windows Store mit DX12

berkeley schrieb:
Wie bereits von mehreren erläutert und auch aus dem Test hervorgeht, kann die DX12 Umsetzung so schlecht nicht sein, wenn es mit AMD einwandfrei läuft.

Ach, das läuft also einwandfrei auf AMD und DX12?:freak:

Wieso sind die dann meilenweit hinter Nvidia mit DX11?
Sollte DX12 nicht schneller sein als DX11?
Ergänzung ()

Iscaran schrieb:
Sorry. Deine Schlussfolgerung ist einfach absurd.
Wenn die Implementierung "murks" wäre (wie z.B. bei Deux Ex) dann würden ALLE DX12 Karten (gleichermaßen) verlieren und nicht nur die einen.

Willst du das nicht verstehen?
ALLE verlieren? Gegenüber was denn? AMDs bescheidenem DX11 Treiber oder Nvidias gutem Dx11 Treiber?

Merke: um etwas zu vergleichen braucht man eine Referenz
 
@kisser...wenn ALLE verlieren würden weil die Implementierung schlecht ist DANN würde AMD ebenfalls RELATIV zu DEREN EIGENEM DX11 auch 40% verlieren.

Verstehst du es JETZT endlich ?

Game Engine "normal"
Erwartungswerte: (Es werden immer nur Karten von AMD mit AMD und nVidia mit nVidia vergleichen)
DX11: AMD = 100% // nVidia = 100%
DX12: AMD = 100% // nVidia = 100%

Game-Engine verbugged /(schlecht)
DX11: AMD = 100% // nVidia = 100%
DX12: AMD = 80% // nVidia = 80%

siehe BF1 siehe Deus EX

Tatsache was wir sehen:
DX11: AMD = 100% // nVidia = 100%
DX12: AMD = 100% // nVidia = 60%
 
Zuletzt bearbeitet:
berkeley schrieb:
Fakt ist, dass es fast schon ein Armutszeugnis für Nvidia ist, dass ein 5 Monate altes DX12 Spiel immer noch "scheiße" und signifikant langsamer läuft als mit DX11.

Ist ja nur in Gears of War so, nimm andere Titel, da ist es nicht so, zum Beispiel Ashes of the Singularity, 3D Mark, Tombraider, Battlefield 1, Deus Ex usw.. Du möchtest lediglich gegen Nvidia hetzen, dass Nvidia overall trotz dem hochgelobten Directx12 schneller rechnet, interessiert dich wohl gar nicht.

Das heißt entweder, dass Nvidia keinen Wert auf DX12 legt, es nicht optimiert,

AMD legte damals bei Battlefield 4 auch keinen Wert auf den Directx11 Pfad, und? Aktuell kann man mit der Steam Version und Nvidiakarten schneller zocken, daran ändert auch UWP und Directx12 nichts.

und somit gleichzeitig keinen Wert auf die eigenen Nvidia Käufer nimmt.

Sehe ich überhaupt nicht, eher das Gegenteil. Die UWP Version läuft selbst mit Nvidiakarten noch deutlich besser als wenn man sich für die Steamversion entschieden hat und eine AMD besitzt, infolgedessen ergeben deine Argumente eigentlich viel eher Sinn wenn man AMD angreifen will.:evillol:

Oder die Karten können es technisch kaum/garnicht umsetzen, weil die Architektur nicht wirklich für DX12 ausgelegt ist.

Dann antworte hier mal Bitte auf den Beitrag von Locuza und erkläre es uns. Was ist denn bei der Architektur nicht auf Directx12 ausgelegt? Nvidia kann lediglich nicht async Compute in der Weise wie AMD das kann, dafür hat Nvidia Directx12.1, AMD nicht.. und jetzt?

Was wird das denn für die Zukunft bedeuten, wenn AMD keine Directx12.1 Features beherscht?

Ich würde jederzeit die DX12 Variante bevorzugen, Frametimes, technischer Fortschritt und so. Mit Nvidia geht das nicht so einfach.

Propaganda , nichts als Propaganda, ohne technische Erklärungen einfach irgendetwas behaupten. Dazu lässt sich der Titel mit Directx11 mit weit weniger Problemen spielen und dann kommst du mit Frametimes an.

berkeley schrieb:
Entweder kann bei Nvidia die Hardware nicht oder es wird dort kein Wert auf DX12 gelegt.

Was soll bitte die Nvidia Hardware nicht können? Das Spiel bedient sich nicht mittels Async Compute, und wie wir wissen kann Nvidia auch davon profitieren mittlerweile. Was ist also mit diesem ständigen Propagandageschwafel? Sage doch mal was Nvidia da nicht können soll?
Andere Titel laufen bei Nvidia unter Directx12 gleichschnell wie unter Directx11, ergo ist es viel eher naheliegend, dass der Entwickler hier Probleme hat und sagt es auch noch selber.
 
Zuletzt bearbeitet:
kisser schrieb:
Ach, das läuft also einwandfrei auf AMD und DX12?:freak:

Wieso sind die dann meilenweit hinter Nvidia mit DX11?
Sollte DX12 nicht schneller sein als DX11?
Naja, "meilenweit" ist glaube ich der falsche Begriff, wenn unter 1080p und dem FX8370 eine GTX 1080 unglaubliche 25% vor der Fury X liegt. Und nein, sicher hat nicht jeder einen 6700K@4,5 Ghz zuhause ;)

Fakt ist doch, Nvidia kann lediglich unter DX11 zu AMD in DX12 aufschließen. Umgekehrt läuft selbst DX11 mit AMD besser als DX12 mit Nvidia. Dazu kommt, dass AMD bereits DX12 anbietet und wohl kaum jetzt noch in DX11 optimieren wird.

Das Ziel mit DX12 ist doch gerade, dass die Entwickler ein Spiel entwickeln und optimieren, was dann aufgrund von Spezifikationen einwandfrei auf jeder Hardware läuft (vorausgesetzt die Hardware unterstützt es). Dadurch soll verhindert werden, dass jeder Graka-Hersteller für jedes Spiel sein eigenes "Süppchen" kochen muss (GameWorks, PhysX, Optimierungen etc...). Schon klar, dass Nvidia lieber mit DX11 weitermacht. Unter DX12 wird AMD mit der GCN-Architektur plötzlich wieder konkurrenzfähig, weil diese unter DX11 kaum vollständig ausgelastet werden kann. Ist Fakt.

Auf deutsch gesagt, Nvidia hat keinen Bock auf Fortschritt, weil sie dadurch Nachteile haben. Der Otto-Normalverbraucher ist aber nicht Nvidia und profitiert allgemein von technischem Fortschritt.

Dass DX12 nicht simpel ist und ohne langjährige Erfahrung nicht mal eben aus dem Boden gestampft werden kann, steht völlig außer Frage. Es gibt auch genug Beispiele, wo die Umsetzung noch nicht geklappt hat (weder bei AMD noch Nvidia). Als Beispiel DeusEx. Aber nur weil Nvidia sich hier quer stellt, muss man doch nicht so blöd sein und es auch noch befürworten.


@Mentalo
Fühlt sich jemand auf den Schlips getreten, hast du dir extra dafür 12 Beiträge angesammelt? Oder gibt es da andere Gründe für, einen Acc im September anzulegen...? Ach ja, Propaganda, habe ich vergessen...
Hast du den CB Artikel gelesen? ;)
 
Zuletzt bearbeitet:
Es gibt mittlerweile mehrere Beispiele, von Hitma, Time Spy, Ashes of the Singularity, Warhammer, Deus Ex, Quantum Break und Forza und die Ergebnisse fallen teilweise kunterbunt aus, wie kann man hier allgemein von irgendwelchen Fakten sprechen?
 
Naja, mit Fakt meine ich nur Quantum Break und den CB-Artikel, nicht die allgemeine Situation bzgl. DX12.

Allgemein bzgl. DX12 ist es Dennoch so, dass wenn ein Spiel davon profitiert, dann bei AMD in größerem Maße.
 
berkeley schrieb:
Naja, "meilenweit" ist glaube ich der falsche Begriff, wenn unter 1080p und dem FX8370 eine GTX 1080 unglaubliche 25% vor der Fury X liegt. Und nein, sicher hat nicht jeder einen 6700K@4,5 Ghz zuhause ;)

Der FX8370 ist wohl kaum die Referenz in Sachen CPU-Leistung. Dass DX12 die CPU entlastet wird wohl auch in Quantum Break der Fall sein, aber DX12 holt hier bei weitem nicht das maximal mögliche aus der GPU raus, das ist doch der entscheidende Punkt.
Ergänzung ()

Locuza schrieb:
, wie kann man hier allgemein von irgendwelchen Fakten sprechen?

Tut das jemand? Hier geht es nur um Quantum Break und da gibt es nur einen logischen Schluss.

Die DX11 Umsetzung ist sehr gut, sie läuft sehr schnell auf Nvidia, aber wegen AMDs Treiber nur schlecht auf AMD.
Die DX12 Umsetzung ist grauenhaft, sie läuft sowohl auf AMD wie Nvidia schlecht.
Ergänzung ()

berkeley schrieb:
Allgemein bzgl. DX12 ist es Dennoch so, dass wenn ein Spiel davon profitiert, dann bei AMD in größerem Maße.

Was aber auch an AMDs teilweise schlecht optimierten DX11 Treibern liegt.
Die Performance durch (Treiber-)Bremsen beliebig verringern kann man immer, aber man kann sie nicht beliebig erhöhen.

Manch einer würde hier wohl noch jubeln, wenn AMD die Dx11-Performance per Treiber halbierte, weil dann DX12 ja 100% Mehrleistung bietet.:freaky:
 
Würde ich nicht sagen dass es an den Treiben liegt sondern an der Architektur der GPUs. Denn sonst wäre ja schon längst mal dass von AMD beseitigt worden 😉. Amds GPUs sind halt besser für DX12 und Vulkan ausgelegt und NV hat halt gute DX11 GPUs mit DX12 und Vulkan Unterstützung und nicht mehr.

Es bleibt abzuwarten wie sich dass ganz entwickelt also Fakt ist DX12 und Vulkan sind auf jeden Fall die Zukunft egal was immer behauptet wird.
 
Locuza und kisser haben eigentlich schon alles richtig erklärt.

Es ist viel wahrscheinlicher dass Remedy seinen DX12 Pfad im Rahmen ihrer Erfahrung und Möglichkeiten komplett auf die XBONE (GCN Architektur) optimiert hat, es war nunmal XB exclusive sponsored by MS! Das sieht man ja auch schön an dem leidigen Upscaler welcher vermutlich gemacht wurde damit es auf der XB überhaupt halbwegs läuft.

DX12 sollte im wesentlichen vom Treiber gar nicht berührt werden sondern 1:1 zur Hardware gemappt werden, was hinten rauskommt liegt also zu 95% am Entwickler selbst. Weder AMD noch NVIDIA können oder dürfen hier grossartig eingreifen.

Also könnte man zu dem Schluss kommen dass Remedy es geschafft hat den DX12 Pfad ähnlich gut auf GCN zu optimieren wie der AMD DX11 Treiber es tut. Im Gegensatz dazu ist der DX12 Pfad des Spiels aufgrund der GCN Optimierung vielleicht wirklich ungünstig für die NVIDIA Karten.

Das ist halt die Krux wenn man die Optimierung in die Hände der Entwickler legt, die kennen die Hardwareeigenheiten nicht und haben auch selten die Zeit das für alle möglichen Architekturen im Detail auszutesten um dann entweder einen guten Kompromiss oder für jeden einen optimierten Pfad zu entwickeln.

Der DX11 Treiber von NVIDIA ist ja nicht nur auf niedrigen CPU Overhead optimiert, der kennt auch jede der Hardwareeigenheiten ganz genau und schraubt z.B. auch an den Shadern rum damit diese effizienter laufen. Keine Ahnung ob die das bei DX12 noch dürfen, denke aber eher nicht.

Eigentlich müsste NV und AMD den Entwicklern für jede Architektur eine Art "Best Practise LL API Handbuch" an die Hand geben, aber das könnte ja dem Konkurenten zu viele Details über die Architektur verraten, das wird also auch nicht passieren.
 
berkeley schrieb:
Das Ziel mit DX12 ist doch gerade, dass die Entwickler ein Spiel entwickeln und optimieren, was dann aufgrund von Spezifikationen einwandfrei auf jeder Hardware läuft

Ne, das ist genau nicht das Ziel bei einer LL API.

Hier ist das Ziel dem Entwickler die größten Freiheiten einzuräumen das Spiel für eine bestimmte Plattform optimieren zu können. Man gibt die Arbeit, die bisher die Grafikkartenhersteller mit ihren Game Ready Treibern durchgeführt haben, an die Spieleentwickler weiter. Die müssen sich nun mit den unterschiedlichen Voraussetzungen rumschlagen und hardwarenah optimieren.

Bis sowas gut klappt und man Programmierer mit entsprechender Erfahrung in den Spielestudios sitzen hat vergehen nun mal noch ein paar Jahre.

Kann allen nur den guten Artikel dazu empfehlen.
https://scalibq.wordpress.com/2016/08/10/directx-12-and-vulkan-what-it-is-and-what-it-isnt/
 
Zuletzt bearbeitet:
xexex schrieb:
Ne, das ist genau nicht das Ziel bei einer LL API.
Doch sicher ist es das. Auf jeder DX12 spezifizierten Hardware. Und die Entwickler müssen optimieren, nicht die Hersteller, welche lediglich die Hardware bieten. Und durch DX12 kann Hardware besser oder eben schlechter ausgelastet werden. Ist mit DX11 relativ ähnlich. Nur dass dort die Auslastung und Optimierung häufig nicht von den Game-Entwicklern erledigt wird sondern von den Graka Herstellern.
 
berkeley schrieb:
Doch sicher ist es das. Auf jeder DX12 spezifizierten Hardware. Und die Entwickler müssen optimieren, nicht die Hersteller, welche lediglich die Hardware bieten. Und durch DX12 kann Hardware besser oder eben schlechter ausgelastet werden. Ist mit DX11 relativ ähnlich. Nur dass dort die Auslastung und Optimierung häufig nicht von den Game-Entwicklern erledigt wird sondern von den Graka Herstellern.

Ich zitiere DICH gerne noch einmal.

berkeley schrieb:
Das Ziel mit DX12 ist doch gerade, dass die Entwickler ein Spiel entwickeln und optimieren, was dann aufgrund von Spezifikationen einwandfrei auf jeder Hardware läuft

Wenn die Entwickler ein Spiel gezielt für eine bestimmte Hardware optimieren müssen, was bei einer LL Api nun mal der Fall ist, ist genau das Gegenteil der Fall. Das Spiel läuft eben nicht auf jeder Hardware weil die Hardware jedes mal von Hersteller zu Hersteller und von Generation zu Generation unterschiedlich ist. Es muss also für jeden Hersteller und jede Generation optimiert werden...

Unter DX11 war das ganz einfach. Die Grafikkartenhersteller haben die Optimierung übernommen und viele Features, die nicht unterstützt wurden emulierte die Schnittstelle in Software. Dadurch lief die Software möglichst optimal auf jeder Hardware.

DX12 ist KEINE HARDWARESPEZIFIKATION es ist eine Programmierschnittstelle um die Hardware anzusprechen. Die kann FL11 bis FL12.1 vorweisen und sich auch sonst noch in komplett in der Architektur unterschieden. Das viel beschworene Async Compute ist zum Beispiel auch kein Bestandteil eines Direct3d Feature Levels. Was die Grafikkarte damit macht ist von Hersteller zu Hersteller unterschiedlich.
 
Zuletzt bearbeitet:
Eigentlich hat Microsoft alles schon gesagt ... Eine Produkt Familie, Eine Plattform, Ein Store
Spiel und Programe sollen auf allen Pattform laufen, und wenn es geht mit der gleichen Qualität.

Windows_10_Product_Family-rcm992x0.png
 
Na sicher muss die Hardware DX12 (FL11_1 bis xyz) unterstützen, sonst läuft auch entsprechend kein DX12 auf der Hardware. Das ist auch gleichzeitig die gemeinsame Mindest-Hardware-Basis für DX12. Auf "jeder -spezifizierten- Hardware" bezieht sich genau darauf.

Dass die Hardware sich von Hersteller zu Hersteller und gen. zu gen. unterscheidet ist wohl klar. Je besser die Hardware mit DX12 umgehen kann, desto besser läuft auch ein Spiel darauf (vorausgesetzt die Implementierung stimmt). Und das hat nicht zwangsläufig mit AS zutun. Wobei AS eben auch ein zentraler Bestandteil von DX12 ist.

Du glaubst wohl selbst nicht, dass Spiele-Entwickler für jede popelige Architektur/GPU eigene Renderpfade etc. einfügen. Genau dafür gibt es auch den gemeinsamen DX12 Mindeststandard in Hardware. Auf mancher Hardware läuft das dann eben besser als auf anderer.
 
Hallo,
also wenn man das hier alles zusammenfassen darf: es geht schlicht weg um ein FIASKO was das PC Gaming angeht. Es darf einfach nicht wahr sein, dass man bei Steam und MS Store solche unterschiedliche Versionen des einen und gleichen Spiels hat. Das ist ein NO GO.
Wenn die PC Gaming Sparte sich weiter so entwickelt, dann wird's echt Zeit für immer zu den Konsolen zu wechseln. Weil was hier abgeht, das ist reinster Müll. Mehr Kundenverarschung kann ich mir beim besten Willen nicht vorstellen!
 
Bin ich der der einzige mit dem Problem das wenn er die Filmsequenzen abspielen will sich aufhängt bzw. abstürzt ? Sonst läuft alles beim spiel super aber will einfach die live Filme nicht abspielen die exe stürtzt dort immer ab ! Hat evtl. jemand das gleiche oder weiss woran das liegen kann ? Ansonsten läuft dat spiel wirklich akzeptabel :)
 
Mentalo schrieb:
Was soll bitte die Nvidia Hardware nicht können? Das Spiel bedient sich nicht mittels Async Compute, und wie wir wissen kann Nvidia auch davon profitieren mittlerweile. Was ist also mit diesem ständigen Propagandageschwafel? Sage doch mal was Nvidia da nicht können soll?

Wir wissen mittlerweile das Kepler Probleme mit Async Compute hat und bei Maxwell lediglich ein Fix eingebaut wurde damit schneller zwischen Tasks umgeschaltet werden kann.

Parallele Verarbeitung mehrerer Tasks mittels Async Compute gibt es bei nVidia nicht.
Profitiern tut nVidia in keinem Fall von Async Compute.

/Fixed it
Ergänzung ()

Kartenlehrling schrieb:
Eigentlich hat Microsoft alles schon gesagt ... Eine Produkt Familie, Eine Plattform, Ein Store
Spiel und Programe sollen auf allen Pattform laufen, und wenn es geht mit der gleichen Qualität.

Schönes Marketing geplapper. Läuft Quantum Break auf deinem Windows Phone Handy? :D

Von Qualität steht in dem Bild von dir übrigens nichts...
 
Ich habs jetzt gestern mal die ersten 2 Stunden gespielt. Die Skalierung muss definitiv raus.
Alle anderen Optionenn bei der Bildqualität machen optisch keinen annähernd so großen
Unterschied. Alles auf Mittel, Antialiasing raus, Skalierung raus, Filmkörnung raus (1060 6GB).
Läuft in Gebäuden mit konstanten 60fps, im Außenbereich brichts auf bis zu 30 ein, aber
50-60 sinds im Durchschnitt. Was mich mal richtig überrascht hat, war, dass die CPU konstant
bei 80-100% Auslastung war (i5 6400, W10 64). Das sieht man eher selten in letzter Zeit.

Abgesehen davon finde ich das Spiel nicht wirklich fesselnd, aber die Dialoge sind gut,
die Charaktere sind halbwegs glaubwürdig, die Synchro ist der Hammer. Das Kampfsysten
erinnert stark an Max Payne mit bissi Cover Based Shooting und das ist für mich eigentlich
der letzte Pluspunkt auf der Liste. Nach 2 Stunden den Controller wegzulegen und was
anderes zu machen, fällt nicht wirklich schwer. Irgenwie springt der Funke da nicht über
und der Suchtfaktor ist gleich 0. Das Spiel ist mehr so wie eine interaktive TV Serie mit
zwischendrin Ballern finde ich. Zum anschaun top, zum Spielen eher so lala.
 
OMG. Was ist jetzt wichtiger ? Die Auflösung oder der Spielspaß ?
Mit meiner alten Grafikkarte habe ich mit 1280x720 windowed keine Probleme das Spiel zu spielen und vermisse auch nichts. Würde das Spiel mit 1920x1080 und 10% mehr FPS mehr Spaß bringen ? Ich denke nicht.
 
xexex schrieb:
Wenn die Entwickler ein Spiel gezielt für eine bestimmte Hardware optimieren müssen, was bei einer LL Api nun mal der Fall ist, ist genau das Gegenteil der Fall. Das Spiel läuft eben nicht auf jeder Hardware weil die Hardware jedes mal von Hersteller zu Hersteller und von Generation zu Generation unterschiedlich ist. Es muss also für jeden Hersteller und jede Generation optimiert werden....
...Das viel beschworene Async Compute ist zum Beispiel auch kein Bestandteil eines Direct3d Feature Levels. Was die Grafikkarte damit macht ist von Hersteller zu Hersteller unterschiedlich.

Korrekt, Async Compute wird auch im PC Gaming auch völlig überbewertet. Das ist so schwierig zu implementieren, dass es abseits relativ definierter Hardware wenig Sinn ergibt, Konsolen können allenfalls davon profitieren.
Und ausserdem: NV hat DX12 Features implementiert die AMD noch nicht dabei hat, Features die übrigens auch nachträglich in DX11 eingeführt wurden.
Zusätzlich fehlt AMD Hardware der Umgang mit deferred Commands bei DX11, was da ein Multithreading light liefert aber auch nicht die strahlende Zukunft sein kann.
Für die GPU ist das eh immer das gleiche, somit ist die Diskussion ob NV/AMD DX12 besser kann, total überflüssig. Auch MS braucht man nix vorwerfen, die implementieren nur Features nach denen die Hardware-Hersteller verlangen.

Die 3 sind damit aus der Diskussion komplett raus, und man kann bloß vermuten das der Entwickler für GNC optimiert hat, was ja irgendwo auch Sinn ergibt.

In einem Punkt würde ich dir widersprechen, die Entwickler können unter DX12 optimieren aber es ist kein muss. Ich bilde mir ein, man kann auch unter DX12 das dem Treiber übergeben, damit der weiterhin eine Commandlist erzeugt. Das Ergebnis ist dann vielleicht suboptimal ;)
 
Zurück
Oben