Test Hitman Benchmarks: DirectX 12 hebt das CPU-Limit massiv an

CB testet leider wieder nur Referenz-Karten oder gibt die genaue Bezeichnung des jeweiligen Modells nicht an... Fairerweise muss man das erwähnen. Somit schneidet eine GTX980ti nicht so katastrophal ab.

PCGH-Benchmark

Bitte nachbessern ComputerBase :)
 
ErichH. schrieb:
Liebe CB-Redaktion,

ich hätte gern Leistungsaufnahmevergleichsmessungen zwischen DX11 und DX12 von nVidia- und AMD-Karten.
Mich würde sehr stark interessieren, wie viel Energie diese wundersamen Zuwächse kosten... oder auch nicht.
Ich würde vermuten, dass nVidia noch die Nase vorn hat beim Thema Performance(FPS) pro Watt.

Auch wenn ich nicht von CB bin, vermute ich das die Rohleistung pro watt gestiegen ist, somit wird der Verbrauch nicht mehr sein, eventuell sogar weniger. Wenn eine GPU vorher schon bei 100% Auslastung 400 Watt verbraucht hat, dann wird sie es auch bei 100% Auslastung unter DX12 die gleiche Watt verbrauchen aber mit einem Unterschied von mehr FPS!
 
Es ist zwar toll das die fx nochmal zulegen können mit dx12 oder entlastet werden,ändert aber nichts daran das das genauso die i3 von intel betrifft als Preisgegenstück und der haswell i3 in den benches zu ashes glaube ich noch immer vor dem fx lag.
Somit bleibt alles beim alten nur das die starken prozessoren halt nur auf 50% Leistung laufen müssen.
Dasselbe hatte man doch schon immer das wenn man mit normaler Auflösung testet die unterschiede sehr gering sind und nur in low res man sieht wie es in Zukunft aussehen könnte wenn den die gpus nicht limitieren.
Was halt AMd auch reinspielt ist das für dx12 auch win 10 genutzt werden muss das Multicore auch besser als die alten BS auszunutzen weis.

Aber egal wie man es dreht und wendet dx12 ist einfach genial und lange überfällig und das sage ich als Nv User. Aber das MS heir natürlich wieder scheisse baut nunja kann man eben nur hoffen das Vulkan bald nachzieht,aber das wird noch ein wenig dauern befürchte ich.
Wenn wir viel Glück hätten würde Nv schon bei der Pascal Generation Freesync support einbauen und die 2016er Monitor Modelle könnten breitflächig das auch anbieten dann wäre Vsync auch nicht mehr nötig.
Aber denke 1-2 Generationen werden wir noch G-Sync haben neben den Freesync Monitoren den die Investition muss sich ja auch lohnen.

Und für Zen wird das dann auch nicht so pralle aussehen den wenn die da auf die fx nochmal ca 50-60% drauflegen , ausgehen von den 40% auf exavator dann liegt der genau da wo der i7 liegt nämlich knapp oberhalb des fx und wäre genausowenig interessant für einen Neukauf wie ein i7 6700.

Das Jahr ist aber trotz allem seit langem mal wieder richtig spannend mit DX12, neuen Graka Gens und Zen ! Evtl sogar ersten OLED Monitoren dann wäre das wirklich ein Traumtechnikjahr.
 
Zuletzt bearbeitet:
zeedy schrieb:
Aber warum verlieren Nvidia Karten in DX12 Leistung?
Schaby schrieb:
Die Frage habe ich mir auch gestellt.


Weil die aktuellen NV GPU´s versuchen einige DX12 Features per Software(auslagern auf CPU) zu emulieren. Das kostet eben Leistung, bei der GPU und der CPU. Darum werden sie langsamer. Das wird auch bei folgenden Dx 12 Spielen so sein. Da wird nur das ausschalten von DX 12 helfen.
Die Frage ist wirklich wie die kommenden GPU´s das lösen. Wenn sie das nicht per Hardware können, wird es böse für NV. (Verdient hätten sie es ja nach der ganzen Schummelei in den letzten Jahren).
 
chb@ schrieb:
@UltraWurts das ist doch Nvidias vorgehen. Neue Treiber um Hardware zu gimpen. Gewöhn dich dran. Sobald Pascal da ist, wird es noch schlimmer. Siehe Kepler.
Es wäre nett, wenn CB (oder sonstige Benchmark-Seiten) das dann auch wirklich mal analysieren würden.
Denn bislang gibt es in der Hinsicht nichts weiter als die Behauptungen von AMD-Fanboys und kaum Beispiele, die das wirklich bestätigen (und zudem auch Beispiele, die es wiederlegen).
Wo bleibt denn mal ein wirklich ausführlicher Test?

Und wenn eine Grafikkarte plötzlich 50% Performance nach einem Treiber-Update verliert, würde ich mal eher von einem Fehler ausgehen, als von einem bewussten "gimpen".
 
@ThmKc
Wenn die Argumente ausgehen, kommt natürlich immer dasselbe inhaltlose Geschwafel.
Async Compute wurde nie versprochen. Zeig mir doch mal einen Tweet oder eine News, bei der Nvidia direkt sagt, dass Async Compute noch nachgereicht wird. Ich vergaß, so was gibt es nicht ...


..ich bin bisher der einzige der von uns beiden Argumente liefert. Du hingegen hast bisher nicht einen Link geliefert der deine Behauptungen stützt, das Nvidia 1. Mit Pascal Vollausbau Async Compute hardwareseitig kann und 2. Nvidia mit Maxwell das Async Compute ausschließt!

hier wieder einen "Link" von mir.

https://www.computerbase.de/2015-09/directx-12-nvidia-treiber-soll-async-compute-nachreichen/
Künftig soll Async Compute mit einem neuen GeForce-Treiber nachgereicht und im Spiel auch für Nvidia-Grafikkarten freigeschaltet werden

NVIDIA will Funktion der Asynchronous Shader per Treiber nachreichen
http://www.hardwareluxx.de/index.ph...nchronous-shader-per-treiber-nachreichen.html

Du solltest nur etwas auf deine Wortwahl achten nicht das du für einen Troll gehalten wirst ;)
 
Plötzlich ist der Gewinn durch DX12 gar nicht mehr soo riesig (10% für AMD). Insgesamt muss man - auch unter DX11 - festhalten, dass das Spiel auf AMD-GPUs besser läuft - und zwar deutlich besser. Die GTX 970 @ DX11 verliert auf die R9 390 @ DX11 schon 30%. Nur so als Beispiel rausgepickt. Und das zieht sich durch alle Preis-/Leistungsklassen. Da müsste man mal schauen, wie der extreme Unterschied plötzlich zustande kommt.

Und wenn man nur eine R9 380 (wahrscheinlich auch R9 380x) hat, profitiert man von DX 12 irgendwie gar nicht...

Mal wieder ein Benchmark, der eher Fragen aufwirft :D
 
Schaby schrieb:
Was auffällt ist, das unter DX11 die 390X über FullHD schneller als eine 980TI DX11 ist! Das deutet für mich darauf hin, dass das Spiel wohl für AMD Karten optimiert wurde, oder gibt es sonst ein Spiel wo eine 390X schneller als eine 980TI, wohlgemerkt unter DX11, ist?

Somit ist die ganze Diskussion um DX12 und die tollen AMD Ergebnisse Humbug, denn wie man sieht laufen die Nvidiakarten perse langsamer als sie eigentlich könnten.

Genau das war mein erster Gedanke. Dieses Spiel ist absolut keine Referenz, mal warten bis Deux EX erscheint.
 
na da slt ich mir doch fast noch einen für mein AM3+ Board holen..., aber war ja fast zu erwarten dass die AMD Dinger manchmal erst neue Software brauchen weil die Singel Core Leistung im Vergleich zu Intel sonst recht bescheiden war.
Schade nur das mein Phenom II wohl nicht mehr soviel profitiert aber zumindest noch im 08/15 Betrieb mit neuerer Software noch was reissen kann.
 
Eusterw schrieb:
DX12 hilft nicht speziell AMD, sondern langsamen Prozessoren. Auch langsame Intel Prozessoren werden so enorm zulegen. Für den Moment bedeutet das, das schnellere Prozessoeren überflüssig sind.

Bevor man sagt, dass DX12 schwächeren Prozessoren hilft, möchte ich erst mal Tests dazu sehen, speziell wie die Performance in Abhängigkeit zu den Threadzahl verhält. Kann gut sein dass der FX 3870 deshalb profitiert, weil DX 12 6-8 Cores gut auslasten kann, sodass dann schwächere CPUs wie i3, Athlon X4 usw dann deshalb limitieren, weil 4 Cores dann im Anschlag laufen (was sicherlich auch ein Performance Anstieg ist, weil ja DX12 nur 1 Core hat und NV mit ihren DX11 Treiber noch einen zweiten Core belasten kann)

Bin ganz zuversichtlich, dass CB einen solchen Test machen wird. Speziell 6 vs 8 Threads würden mich interessieren :) Kann gut sein, dass der FX 6300 sogar die i3 etwas hinter sich lassen könnte.

PS: Falls die CPUs in Zukunft wirklich so gut ausgelastet werden kann, werde ich mir wohl einen 6 oder 8 Core Zen (ohne Hyperthreading) zulegen, je nachdem ob 6 Threads "ausreichen", falls DX12 von 8 Threads nicht mehr viel mehr profitieren kann. Glaub das Optimum waren nämlich 6 Threads laut MS.
 
Zuletzt bearbeitet:
https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_is_it_true_nvidia_cant_do/

Könnte sein das Nv mit Treiberupodates und einer begrenzung hier durchaus was ändern kann . Als Leihe könnte ich mir das halt so vorstellen das es bei Nv halt ähnlich wie mit den hohen Tess Faktoren bei AMD einfach nur einer Anpassung der Compute Befehle auf 31 benötigt und dann können die Nvs zulegen.
Allerdings hab ich keine Ahnung von Programmierung und damit keinen schimmer ob sowas überhaupt möglich wäre für Nv mittels Treiber einzubauen.
Wenn sie es schaffen bei Pascal die Grenze auf 64 hochzutreiben, reicht das vielleicht schon aus um mittels Treiberbegrenzung in den DX12 Titeln über die Runden zu kommen in den Benchmarks bis dann irgendwann volta kommt .

Im Prinzip aber egal. Polaris kommt eh dieses Jahr und wenn Nv hier nichts auf die Reihe bringt wird halt ne AMD GPU gekauft und fertig !
 
Zuletzt bearbeitet:
Interessant wäre noch der Vergleich 2Modul AMD/ 2Kern Skylake in DX11vs12 sowie die Skalierung von DX12 mit mehr als 4 Cores
 

Anhänge

  • Unbenannt.JPG
    Unbenannt.JPG
    83,4 KB · Aufrufe: 825
Es scheint als würden mehr und mehr Spiele für AMD optimiert, so wie früher fast immer für nVidia optimiert wurde.
Wohl weil in Playstation 4 und XBox One AMD Hardware steckt. Dann kommt noch das neue DirectX 12 dazu, wo AMD offenbar sehr von profitiert.

Vielleicht führt nVidia ja noch eine GTX 980 Ti DX12 Edition für nur 850€ ein :D
 
Kann man sich eigentlich Hoffnung machen, dass das Spiel mit einem i5 2400 läuft? Weil als Minimum wird ein i5 2500 beschrieben.
 
Vitec schrieb:
https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_is_it_true_nvidia_cant_do/

Könnte sein das Nv mit Treiberupodates und einer begrenzung hier durchaus was ändern kann . Als Leihe könnte ich mir das halt so vorstellen das es bei Nv halt ähnlich wie mit den hohen Tess Faktoren bei AMD einfach nur einer Anpassung der Compute Befehle auf 31 benötigt und dann können die Nvs zulegen.
Allerdings hab ich keine Ahnung von Programmierung und damit keinen schimmer ob sowas überhaupt möglich wäre für Nv mittels Treiber einzubauen.
Wenn sie es schaffen bei Pascal die Grenze auf 64 hochzutreiben, reicht das vielleicht schon aus um mittels Treiberbegrenzung in den DX12 Titeln über die Runden zu kommen in den Benchmarks bis dann irgendwann volta kommt .
So wie der Treiber, der bei AotS... nichts gebracht hat? ;)
 
ErichH. schrieb:
Ich würde vermuten, dass nVidia noch die Nase vorn hat beim Thema Performance(FPS) pro Watt.

Diese Diskussion hatten wir schon mal. Im früheren DX12 Spiel, dessen Namen ich mir nie merken kann, war die R9 390X so schnell wie die 980 GTX TI und hat dabei aber ca 100 Watt mehr verbraucht. Wobei hier 4k gebencht wurde.
Klar die 980 GTX hat hier immer noch die bessere FPS/Watt, aber beide Karten befinden sich in andere Preisklassen. Die Fury Karten war in dem Tests aber genauso hungrig wie die 980 GTX sodass die Fury hier die besseren FPS/Watt haben dürften

ThmKc schrieb:
Async Compute wurde nie versprochen. Zeig mir doch mal einen Tweet oder eine News
nvidia-geforce-gtx-980-ti-directx-12-advanced-api-support.png

Und Async Compute gibt es bei AMD seit Einführung von GCN, sprich seit der HD 7000 Serie und AMD hat mit Sony bei der PS4 GPU an eine Version mit mehr ACE Shader gearbeitet, welche dann in der GCN 1.1 (Hawaii bsp) eingeführt worden ist. Da die Konsolen stark davon profitieren können, dürfte Async Compute für einige Entwickler-Studios wichtig sein.

Aber trotzdem, wer weiß, wie Pascal aussehen wird. Kann ja auch gut sein, dass die Shader Anzahl nicht wesentlich ansteigt und man den Weg höhere Taktrate geht, dann kann man die Shader eventuell besser auslasten ect.
AMD kann aber mit Async Compute unter DX12 somit offensichtlich in die Breite gehen. AMD kann muss hier hoffen, dass Async Compute state of the Art wird.
 
Zuletzt bearbeitet:
Natürlich läuft es auf dem 2400. In letzter Zeit gab es bei vielen AAA Spielen völlig überhöhte Anforderungen aus Marketinggründen. :)
 
Zurück
Oben