Test Hitman Benchmarks: DirectX 12 hebt das CPU-Limit massiv an

borizb schrieb:
Langsam frage ich mich, ob es möglich ist, ein DX12 Spiel so zu programmieren, dass
die Leistungsunterschiede der Karten zueinander so sind wie bei DX11 auch, oder ob
jetzt jeder nur noch Async macht und nie wieder was anderes.

Async ist nunmal ein neuer Bestandteil von DX12 der offensichtlich Leistungsvorteile möglich macht. Da wäre es doch blöd es nicht zu nutzen....

Woher das bloß kommt...
Sollte klar sein. AMD liefert die Hardware wegen der neuen Konsolen und man hat mit Mantle gezeigt was möglich ist (woraufhin Microsoft so unter Druck kam, dass man DX12 brachte)

Schon komisch, dass von der DX12 Geschichte eigentlich nur AMD profitiert und sonst
niemand. Warscheinlich bin ich mal wieder der einzige in diesem Forum, den das stört ;)

Woher das bloß kommt...

Das kommt weil AMD die gesamte Konsolenhardware stellt und die Entwickler erstmal dafür entwickeln. Nvidia ist nur für die PC-Version interessant.

"Nur AMD" ist dabei aber eine komische Aussage, es gibt schließlich nur zwei Hersteller. Findest du es denn ebenso komisch und stört es dich, wenn
Nvidia Titel mit "PhysX" und "Gameworkseffekten" daherkommen? Ist nämlich genau dasselbe, da profitiert "nur Nvidia" mit einem einzigen Unterschied:
PhysX und Gameworks sind geschlossene Geschichten, Amd könnte da nichtmal mitmachen wenn sie wollten. Async hingegen ist ein offener Standard (und Pascal wird wohl Async unterstützen).

Natürlich pushed AMD nun Async, genauso wie Nvidia jahrelang Tesselation gepushed hat wie blöd (egal ob es optisch überhaupt was gebracht hat) einfach weil die AMD Karten bei Tesselation abgestunken haben gegen Nvidia.

PS: Wenn der Wind mal eine Weile Richtung AMD wehen würde, hätten wir vielleicht alle was davon (nämlich eine Abkehr von den Mondpreisen bei den GPUs).
 
Zuletzt bearbeitet:
zeedy schrieb:
Aber warum verlieren Nvidia Karten in DX12 Leistung? Laut PCGH werden zumindest die Topmodelle etwas schneller.

das ist denke ich leicht zu erklären. Man sieht ja auch bei AMD wie teils die Auslastung der GPU bzw die Leistungsaufnahme mit DX12 steigt. Bei Nvidia zündet vermutlich der Turbo etwas geringer, bez die Taktraten fallen ein paar % ab. Am Ende verliert man ein paar %, gerade bei den Referenzmodellen die ein striktes Power Limit fahren.
 
Zuletzt bearbeitet:
Noch 50 Minuten dann kann man es endlich spielen :hammer_alt:

Als alter Hitman Fan kann ich es kaum erwarten :D
 
RealRainer schrieb:
Hut ab vor AMDs 390(X). Endlich sind die 100W Mehrverbrauch gegen eine GTX970 auch mal gerechtfertigt :D

Aber Spaß bei Seite - ich bin nun langsam doch recht sauer dass NV das versprochene DX12-Feature nicht nachreichen will oder es technisch gesehen gar nicht kann. Mit Blick auf Polaris wäre das natürlich ein "super" Verkaufsargument für die nächste Generation...na schönen dank auch :mad: Da können wir wohl noch lange warten.

Allerdings sollte man nicht vergessen dass der Release der 900er Reihe schon 1,5 Jahre zurück liegt und die DX12 Spezifikation noch garnicht final war. Enttäuschend ist der Verlauf aber allemal. Bleibt zu hoffen dass endlich die Preise gedrückt werden
Dein Argument mit 1,5jahren altem Produkt zieht gar nicht, wenn du die GCN 1.0 bis 1.2 Karten vom releasedatum betrachtest. Nvidia hat einfach auf dx11 und sparsame Architektur entwickelt. Fertig. Lohnt sich ja aktuell auch mehr!
 
Sontin schrieb:
Du hast mit einem offensichtlichen Benachteiligen von nVidia/AMD keine Probleme, bewertest die selbe Sache aber bei einer Situation zu ungunsten von AMD/nVidia komplett anders.

Das ist doch hier schon immer so. Die ganzen Verschwörungstheorien und Geheimagenten, welche üble Machenschaften aufgedeckt haben wollen.....das ist doch alles sowieso nur peinlich und abseits solcher Tunnelblicke kein Thema.

Klar geht es immer überall um Geld und klar arbeiten Developer XY beim programmieren ihres neuen Spiels eng/enger mit Firma X oder Firma Y zusammen. Mal einfach nur mit deren Technik ansich oder halt auch mal mit deren gebotenen Features.

Das Resultat ist (meistens) immer, daß eine dieser Firmen im neuen Benchmark YZ einen mehr oder weniger großen Vorteil mit reinbringt. Und dann kommen wieder alle roten und grünen Männchen aus ihren Ecken um die ganze Sache mit ihren Glaskugeln und Insider-Expertenwissen zu kommentieren oder gar zu verteidigen......immer und immer wieder.


Ich finde es gut, daß DX12 Fahrt aufnimmt und kann es nur begrüßen wenn AMD sich ein besseres Image aufbaut. 2 gut aufgestellte Konkurrenten, der profitierende bin nämlich dann ich bzw. die Kunden.
Aber um in diesem frühen Stadium irgendwelche Prognosen über das Verhalten diverser Hardware in Verbindung mit DX12 in Stein zu meißeln, wäre einfach nur Unsinn. Da wird sich noch soviel tun und dann ist neue Hardware auch nicht mehr weit, spätestens dann schreit sowieso kein Hahn mehr nach den heutigen Komponenten.
 
This patch will be applied by Steam automatically when you next start the game. If your game does not update, please restart the Steam client. If you are using the game on the Window 10 Store the update will be available in a few days and will automatically download when it becomes available. We will update this thread when the Windows 10 Store version is live.

Added support for DirectX 12
DirectX 12 is a new advanced graphics API that on the right hardware can offer far better performance.
For the best DX12 performance and stability please install the latest drivers for your GPU.
For NVIDIA: http://www.nvidia.com/download/driverResults.aspx/99512/en-us
For AMD: http://support.amd.com/en-us/kb-articles/Pages/AMD_Radeon_Software_Crimson_Edition_16.3.aspx


http://steamcommunity.com/app/391220/discussions/0/405694115202867954/

DX12 Patch für Tomb Raider ist draußen!
 
borizb schrieb:
Langsam frage ich mich, ob es möglich ist, ein DX12 Spiel so zu programmieren, dass
die Leistungsunterschiede der Karten zueinander so sind wie bei DX11 auch, oder ob
jetzt jeder nur noch Async macht und nie wieder was anderes.

Woher das bloß kommt...
Klar. Einfach Performance-steigernde Features, die nicht auf beiden Architekturen zur Verfügung stehen, weg lassen. Nur warum sollte das jemand tun, vorausgesetzt die entsprechenden Features sind einfach zu implementieren?



borizb schrieb:
Schon komisch, dass von der DX12 Geschichte eigentlich nur AMD profitiert und sonst
niemand. Warscheinlich bin ich mal wieder der einzige in diesem Forum, den das stört ;)

Woher das bloß kommt...

Hast du das gleiche gesagt, als Nvidia Architektur-bedingte Vorteile unter DX11 hatte? Und wenn Nvidia nun unter DX12 abgehen und der Konkurrenz davon rennen würde, würdest du dann noch immer eine Verschwörung wittern? Hat dich PhysX genauso gestört?

AMD haben nun mal schon seit geraumer Zeit Low-Level-APIs gepusht, sich in diesem Zuge auch den Konsolen-Markt unter den Nagel gerissen und schlichtweg ihre Hausaufgaben gemacht - was sie unter DX11 leider versäumt haben. Bei NVidia ist anders herum gelaufen. Die waren optimal auf DX10/11 vorbereitet, haben aber den Trend hin zu Low-Level-APIs verschlafen. Und jetzt wäre es ihnen nur zu Recht, wenn die Spieleentwickler bestimmte DX12-Features wie etwa Async Compute ignorieren würden, damit sie unter DX12 etwas besser dastehen.

Nenne es marktstrategische Politik wenn du möchtest, aber mit einer Verschwörung hat das nichts zu tun. NVidia hat einfach die Zeichen verpennt.
 
Zuletzt bearbeitet:
sverebom schrieb:
[...]
Bei NVidia ist anders herum gelaufen. Die waren optimal auf DX10/11 vorbereitet, haben aber den Trend hin zu Low-Level-APIs verschlafen. [...]
ich kannte die Geschichte andersherum
das aktuelle Assassins Creed damals, war das das 2te?, hatte DX10.1 Support und lief sehr gut auf den AMD-Karten
doch plötzlich wurde dann dieser Renderpfad wieder rausgepatcht...
 
TheMetalViking schrieb:
Auch beeindruckend, wie die GCN architektur von 2012 die Maxwells stehen lässt. Da sieht man mal, das die AMD hardware nicht schlecht war, sondern die software einfach noch nicht so weit.
Eine gewisse Ironie hat es ja das hier manche Leute nicht müde wurden die GCN Architektur als veraltet zu betiteln und jetzt zeigt sich wohl eher das Gegenteil.

kisser schrieb:
Ein ordentlicher Dx11 Treiber seitens AMD hätte übrigens den gleichen Effekt. Haben die nur in den letzten 5 Jahren nicht hinbekommen.
Nicht traurig sein. Wenn DX12 so mittelmäßig ist - wie du versuchst es zu suggerieren - dann hat ja nvidia im Umkehrschluss trotz Mitarbeit sich nicht mit Ruhm bekleckert.
 
@ Schnixus , ich dacht gelesen zu haben das allegmeiene rumgeflame sein zu lassen ?!

jetzt gibt es zwei spiele die mehr oder weniger gut laufen ...... ich sag abwarten und tee trinken

ich habe eben mal schnell tombraider auf der titan x benchen lassen , die minimal frames sind bei dx 12 gesunken die durchschnittlichen sind geblieben , grafisch nehmen sich beide nichts dx11 bzw dx 12
 
Zuletzt bearbeitet:
fanatiXalpha schrieb:
[...] doch plötzlich wurde dann dieser Renderpfad wieder rausgepatcht...
Ja, daran kann ich mich auch noch erinnern.
Damals hieß es dann, "it's not a feature, it's a bug".

@Thema
Verflixt, ich hätte mir statt der FuryX lieber eine 390X kaufen sollen. Das Bisschen an Mehrleistung der FuryX spielt auch keine große Rolle mehr ... :lol:
 
Zuletzt bearbeitet: (Tippfehler)
borizb schrieb:
Langsam frage ich mich, ob es möglich ist, ein DX12 Spiel so zu programmieren, dass
die Leistungsunterschiede der Karten zueinander so sind wie bei DX11 auch, oder ob
jetzt jeder nur noch Async macht und nie wieder was anderes.

Ja bloss kein Fortschritt, Gott beware.. Warum macht MS dann DX 12 überhaupt? Hätten man sich doch die Arbeit und das Geld sparen können. Ahh, Mantel hat ihnen Beinen gemacht.. Danke AMD..

borizb schrieb:
Schon komisch, dass von der DX12 Geschichte eigentlich nur AMD profitiert und sonst
niemand. Warscheinlich bin ich mal wieder der einzige in diesem Forum, den das stört ;)

Woher das bloß kommt...

Wohl vergessend das von DX 12, und das langfristig, nicht die Graka sondern vor allem die CPU entlastet wird. Und das trifft jeden PC Besitzer. Egal ob Grün oder Blau. Danke AMD..

Generell, finde ich das in diesem Test noch Frametimemessungen gut gewesen wären.
Und was AMD mit schmalem Budget strategisch und auch HW mässig auf die Beine stellt lässt zumindest im Graka Markt NV ganz schön alt aussehen.Eine so "alte" (aber Wegweisende, wie wegweisend siehtr man erst jetzt so richtig) Generation wie Hawai zeigt was geht, wo stehen die Vergleichskarten von NV Heute? GTX 580.. nicht mehr Benschmark würdig.. Fortschritt kommt nicht von Grün. Ich wünschte AMD könnte das selbe im Prozzessorbereich erreichen, aber da ist der Fertigungs und Entwicklungsvorsprung von Intel wohl zu groß. Uns Kunden würde es gut tun.
 
Zuletzt bearbeitet:
Freut mich sehr für AMD und gerade deshalb wundert es mich warum einige auf PCGH verweisen. Nur mal so am Rande, da ist eine normale fury gegen eine 980ti oben in der Tabelle und keine Fury X, von daher ist der test eher dürftig. zwar werden gleich viele sagen das die Fury X gar nicht soviel schneller ist als eine normale Fury, merkwürdig ist jedoch das man genau diese in der Tabelle nicht findet.
 
@Wolfgang
Danke für den Test :)
Sehr interessant wäre auch zu sehen gewesen, wie ein "SLI" bzw. "Crossfire"-Verbund auf die DX12-API im Vergleich zu DX11 reagiert.
Beide Grafikkartentreiber ( NV und AMD ) werden damit beworben und alle bis jetzt gemachten "Hitman"-Tests wurden grundsätzlich nur mit 1x GK gemacht :rolleyes:
 
Finde ich echt interessant, AMD legt etwa 10% zu in DX12, falls Nvidia das auch tun würde, dann wäre die 980ti sogar die schnellste Karte.

Nvidia scheint allgemein etwas schlechter zu laufen, aber die 970 und 770 sind ja völlig am Arsch.
 
Klasse, mir gefällt DX12 bereits jetzt schon sehr gut und es wird zeit das altbacken DX10/11 abgelöst wird. Hitman wird jedenfalls von mir gekauft, allerdings erst dann wenn das Spiel "komplett" ist.

Das die AMD Karten enorm von DX12 profitieren ist ja nichts neues. Mir gefällt es ; )
 
Zuletzt bearbeitet:
Hab das Thema in letzter Zeit nicht so verfolgt ... aber gibt es eine Erkenntnis, wieso NV an Leistung verliert?
Das erinnert mich an ... mich in der Arbeit. Ich gebe Arbeit ungern ab, da ich persönlich weiß, was ich danach noch machen darf ...
Kann es also sein, dass die NV-Karten nicht so gut im "Arbeit" an die CPU abgeben sind?

Das ist kein Geflame, sondern eine echte Frage.

Die Frage hört sich gerade für mich selbst recht noob-mäßig an. :p
 
Zurück
Oben