Test Hitman Benchmarks: DirectX 12 hebt das CPU-Limit massiv an

Gefällt mir, weiter so, kann man mit alter Hardware ja doch noch was reißen.

@bLy: teste es doch, also meistens wird bei den Games ein FX8350 oder höher geschrieben, mit dem FX6300 läuft es aber immer genau so gut. vielleicht hast du ja auch noch glück und sie schrieben nur 2500, weil sie nichts kleineres mehr zum testen da hatten.
 
Seltsam, dass z. B. eine GTX 960 um 40% langsamer als eine AMD 380 sein soll.
Vermutlich noch viel zu früh, da kommt bestimmt noch eine Anpassung vom Hersteller und von NVidia.

Meine Aussage soll aber grundsätzlich NVidia nicht schön reden. Unter DX12 sieht es nicht gut aus. Aber bei AMD profitieren auch hauptsächlich die gehobenen Karten ab 390 aufwärts.

Vielleicht bringt NVidia genau wegen diesem Dilemma Pascal schon im Mai raus.
 
Hut ab vor AMDs 390(X). Endlich sind die 100W Mehrverbrauch gegen eine GTX970 auch mal gerechtfertigt :D

Aber Spaß bei Seite - ich bin nun langsam doch recht sauer dass NV das versprochene DX12-Feature nicht nachreichen will oder es technisch gesehen gar nicht kann. Mit Blick auf Polaris wäre das natürlich ein "super" Verkaufsargument für die nächste Generation...na schönen dank auch :mad: Da können wir wohl noch lange warten.

Allerdings sollte man nicht vergessen dass der Release der 900er Reihe schon 1,5 Jahre zurück liegt und die DX12 Spezifikation noch garnicht final war. Enttäuschend ist der Verlauf aber allemal. Bleibt zu hoffen dass endlich die Preise gedrückt werden
 
Tronx schrieb:
Auch wenn ich nicht von CB bin, vermute ich das die Rohleistung pro watt gestiegen ist, somit wird der Verbrauch nicht mehr sein, eventuell sogar weniger. Wenn eine GPU vorher schon bei 100% Auslastung 400 Watt verbraucht hat, dann wird sie es auch bei 100% Auslastung unter DX12 die gleiche Watt verbrauchen aber mit einem Unterschied von mehr FPS!

Hi Tronx,
na ja, soweit ich es verstanden habe, erlaubt es DX12 den AMD-Karten nun, vorher brachliegende Leistung gewinnbringend zu nutzen. Das heißt für mich: mehr Einheiten rechnen, mehr Performance (das zeigen die Benches), aber daraus folgend auch ein höherer Energiebedarf.
Wirklich kurzes Googeln hat mir gezeigt: ich habe laut diesem Test recht (Toms Hardware). Oder auch Anandtech.

Mehr Leistung in so einer Größenordnung gibt es nicht "for free", wenn sich außer der Software nichts verändert hat.
Auf der anderen Seite zeigt der Test bei Tom ja auch, dass die nun weniger belasteten CPUs logischerweise auch weniger Energie konsumieren.

Summa summarum entlastet DX12 generell den CPU-Part (weniger Energieaufwand / CPU-Limit ist viel höher, greift also viel später, das geht zugunsten "schwacher" CPUs) und nutzt bis dato auf gerade AMD-Hardware brachliegende Leistungsreserven aus (was logischerweise, da nun salopp gesagt mehr Einheiten rechnen, auch zu höherem Energiekonsum führt).

Mich würde eben genau intertessieren, wie sich das bei AMD-Karten nun mit der Energieeffizienz diesbezüglich verhält.
Beispiel: AMD-Karte unter DX12 20% schneller als unter DX11, dafür aber 15%, 20% oder 25% mehr Leistungsaufnahme.

Viele Grüße,
ErichH.
 
Allerdings sollte man nicht vergessen dass der Release der 900er Reihe schon 1,5 Jahre zurück liegt und die DX12 Spezifikation noch garnicht final war.
Die R9 390 ist 1 Jahr älter als der GM204 Chip der 970/980 GTX.

Dass die GCN 1.2 noch nicht so profitieren kann, könnte ich jetzt nur vermuten, aber vor paar Wochen hat AMD gesagt, dass MS Zugriff auf die Mantle API hatte und zu der Zeit war Hawaii mit GCN 1.1 aktuell. Eventuell fehlen deshalb bei der Fury und Tonga noch "Optimierungsbedarf".
Klar muss nicht der Grund sein, könnte aber plausibel sein. Interessant wären dazu vergleiche mit Vulkan, die man aber aktuell schwer bekommen wird.

UltraWurst
Du meinst das aktuelle Beispiel Gears of War, wo Gameworks Effekte eingebaut wurden um die AMD auszubremsen und GameWorks Features nicht mehr so benannt worden wie bisher und gleich in den Standard Settings aktiv sind ?

Wer weiß, vllt liegt es ja an TressFX und deshalb laufen die AMD Karten schnell. Wobei, es gibt ja von AMD keine "Features" die nicht offen einsehbar sind.

ErichH.
https://www.computerbase.de/forum/t...-limit-massiv-an.1567745/page-5#post-18580943

Wie gesagt, das Thema wurde schon mal eingegangen. Die R9 390X verbraucht im Vergleich zur 980 GTX TI 100 watt mehr. Hier in Hitman ist aber die R9 390 vergleichbar schnell.
Natürlich kann sich da aber noch was ändern und die NV werden durch kommende Treiber schneller.
Was die Fury angeht, in deinem verlinkten Tests verbraucht die Fury und die 980 GTX quasi gleich schnell, die Fury hier ist aber etwas schneller.

Im Endeffekt wäre es interessant, wie die Nano hier abschneidet.
 
Zuletzt bearbeitet:
Langsam kenne ich mich bei den CB-Tests wirklich nicht mehr aus. Mal ist eine GTX 980 TI von Gigabyte am Start, hier anscheinend wiederum nur eine Stock-TI?! Warum bleibt man nicht einfach mal bei einer Methode?!

Wenn man dann sowas liest und die "Balken" vergleicht: PC Gameshardware Test DX12

ist man zumindest schon mal etwas verwirrt.
 
kisser schrieb:
Ein ordentlicher Dx11 Treiber seitens AMD hätte übrigens den gleichen Effekt. Haben die nur in den letzten 5 Jahren nicht hinbekommen.

Bullshit. Die GCN-Architektur setzt eben andere Schwerpunkte als Maxwell. Unter directX11 nutzt die theoretische Mehrleistung der GCN nichts, das hat aber nichts mit Treibern zutun.
Nvidia hat also im Gegensatz zu AMD keinen Meter nach vorne gedacht, könnte man unterstellen.

nschlichtmann schrieb:
Die Leistungszuwächse bei der AMD-Prozessoren sind insofern Augenwischerei, als dass unter DirectX 12 die CPU deutlich weniger beansprucht wird und die Rechenleistung viel eher auf die GPU wandert, ergo die CPU viel weniger zu leisten hat. In CPU-geforderten synthetischen- oder anwendungsbasierten Benchmarks haben wir nach wie vor dieselbe Ausgangslage. Versteht mich nicht falsch, ich begrüße die Fortschritte seitens der APU, aber durch DirectX 12 den AMD-Prozessoren ein "Auf-Augenhöhe-Stehen" mit den Intel CPUs zu bescheinigen ist falsch.

Bei anwendungsbasieren Benchmarks steht AMDs Modulkonzept aber nicht ganz so schlecht da und bei synthetischen Benchs erst recht nicht. Abgesehen von solchen Negativbeispielen wie iTunes sind die meisten Anwendungen mittlerweile entsprechend für parallelisiertes Rechnen ausgelegt.
Der große Nachteil waren bislang immer Spiele. Das relativiert sich zumindest.
Klar sind die Intel-CPUs immer noch drei Generationen voraus.
 
Da die 390 aber auch entsprechend zulegt und bei dem Preismit einer 970 gleichaufliegt muss man auch diese als Referenz heranziehen. Da man dann für 330€ quasi schon performance über der 980 eher im 980ti berreich bekommt hat man hier eine Lücke von 330€ für die 390/970 gegenüber einer 980/980Ti die mal eben 500-600€ kosten und somit ergeben sich hier 200€ Einsparung von der Leistung.
So gesehen kann die Karte locker 100 W mehr ziehen da man das durch die Preisdifferenz locker wegmacht. Denke über 4 Jahre je 50€ für Strom zu haben da kann man schon einiges an Stunden pro Woche spielen.

Was mir fehlt sind noch Tests wie sich die Temperaturen und die Lautstärke in dx12 Games ändern. Den die 100W mehr müssen ja auch erst mal abgeführt werden.
Und genau das ist wohl der Grund ohne die Werte zu kennen, warum für mich persönlich eine 390 auch weiterhin persönlich keine Kaufoption darstellt, ganz zu schweigen das ich ein neues Nt kaufen müsste und mein Gehäuse wohl auch nicht ausreichend belüftet ist.
Da wird für mich eher die 380 interessanter wenn diese in DX12 Benches an der GTX 970 vorbeizieht,dabei aber wohl noch einigermassen im Watt und Lautstärkenrahmen agieren kann.

Das ganze wird wohl erst mit Polaris richtig interessant wenn eine Fury Nano auf Polaris Basis kommt, dann auch gerne mal wieder eine AMD Karte für mich.
 
Zuletzt bearbeitet:
Jeder Effekt in Hitman ist auf AMD Hardware optimiert. Ansonsten wären sie nicht so dermaßen viel schneller. Man muss also überhaupt keine "AMD-Effekte" verwenden. EIne 390 ist 30%+ über der GTX970. In The Division, vor ein paar Tagen getestet, liegt die Karte mit HBAO+ nur 3 bzw. 7% vorne.

Ein Gears of War ist auch auf nVidia-Hardware schneller, wenn AO deaktiviert wird. Trotzdem reden Leute davon, dass Gameworks einzig und allein Schuld wäre.

Du hast mit einem offensichtlichen Benachteiligen von nVidia keine Probleme, bewertest die selbe Sache aber bei einer Situation zu ungunsten von AMD komplett anders.
 
zymoticspade schrieb:
Die http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/ Ergebnisse sehen "leicht" anders aus? Offene Frage: ist es denn praxisrelevant mit Referenzkarten zu testen? :freak:
Wenn man nicht alle Grafikkarten mit unterschiedlichen Taktraten auf Lager hat, ist ein Test mit Referenzkarten aussagekräftig genug. Zumal die Testplattformen auch nicht immer der Hardware zu Hause entsprechen, nicht jeder hat den neusten i7 auf 4,5GHz oder ein System mit Sockel 2011(-3). Man kann halt nicht alles abdecken in einem Test, das Budget der Testseiten ist nun mal begrenzt.

BTT
Schön zu sehen das auch etwas schwächere CPUs von DX12 Profitieren, nur ärgerlich das ich meinen Xeon 1230v2 mit einer R9 290 ende letzten Jahres verkauft habe. Naja, jetzt muss die APU bis Zen oder Kaby Lake durchhalten.

PS: Bei Mindfactory sind die 390 (299€) und die 390X (349€) gerade im Angebot. Falls einer nicht mehr bis Pascal oder Polaris warten kann ^^
 
Vitec
So gesehen kann die Karte locker 100 W mehr ziehen da man das durch die Preisdifferenz locker wegmacht. Denke über 4 Jahre je 50€ für Strom zu haben da kann man schon einige Stunden pro Woche spielen.
Wobei es bei den Test von toms um eine MSI handelte, welche ein hohes powerlimit besitzt und für OC gedacht ist. Ich kenne mich hier nicht so gut aus, weil Grafikkarten OC wenig interessiert aber das wurde in einem anderen Thread bereits schon mal erwähnt. Müsste nachschauen, wo das noch mal gepostet wurde.

Sontin
Dann lies mal die nächsten Beiträge von mir durch. Da erwähne ich, dass da noch einiges Richtung NV kommen kann, ebenso glaube ich nicht dass Async Compute so das DX12 Feature ist, wie viele glauben, eher dass auf die Architektur ankommt. Denn Pascal kann auch ohne Async Compute eine gute Gen werden, wenn sie die Shader weiter besser auslasten können, höhere Taktrate fahren als AMD ect.

Wie ich schon oft erwähnt habe, AMD hat die Strategie verfolgt auf mehr Shader und höhere Packdichte zu setzten und da ist Async Compute nun mal ein Muss um die Shader auszulasten.
Das sieht man auch dadurch, dass pitcairn kaum an Mehrleistung gewinnt, welcher von der Core Anzahl wohl der Sweetpoint für GCN unter DX11 war und deshalb bis heute im Line Up befindet.

In der Vergangenheit und in der letzte Zeit hat sich nun mal Gameworks als Bremse für AMD Karten herausgestellt und NV hat auch auf Hitman die Möglichkeit ihre Treiber anzupassen ohne zuerst eine Black Box vor sich zu finden.
Im Endeffekt bedeutet ein Titel powered bei AMD nur dass kein Gameworks da ist.

PS: Wenn doch die Software so sehr an AMD optimiert ist, bedeutet das, dass die Engine mehr Shader der AMD auslasten kann, was jetzt nicht unbedingt einen negativen Beigeschmack für NV bedeutet, außer, dass die Shader eventuell bereits schon gut ausgelastet sind, was auch die Ergebnisse erklären könnte. Da muss es sich nicht unbedingt um versteckte "Features" handeln. Auch war TressFX bei einigen NV Karten sogar schneller als bei AMD Karten.
Somit gibt es von dir bisher keine Belege, anders dass ich wenigstens Beispiele nennen konnte wie Gears of War. Oder sehen wir uns den letzten Gameworks Titel an, wo die AMD von Anfang an oben bei den NV Karten mitmischen konnte. Interessanterweise wird hier kein Gameworks verwendet.
 
Zuletzt bearbeitet:
Ich habe ein AMD FX 8320 und habe letztes Jahr meine 7950 gegen eine Fury X eingetauscht.
Meine Lieblingsauflösung ist qhd 2560 mal....

Daher würde mich dahin gehend ein Benchmark interessieren.
 
Hallo Pipip,

hab ich hinterher auch gelesen, deinen Post.
Nichts desto trotz: ein Test ist quasi kein Test. ich würde mich freuen, das Thema zukünftig noch mehr zu sehen. Wird sicher mit der Zeit auch so kommen.
Bei aller Euphorie um die "entfesselten" Kräfte der entsprechenden Karten sollte das Thema nicht so unter den Tisch fallen.
Maxwell mag seine Schwächen haben, gerade nun ja auch offensichtlich bzgl. des DX12er-Featuresets, aber die Energieeffizienz hat zumindest in meinem Fall damals den Ausschlag gegeben, auf die GTX 980 zu setzen, die mir für annähernd den gleichen Energieumsatz die ca. dreifache Leistung zu meiner alten GTX 560 Ti liefern konnte. Hätte es damals schon die Fury X gegeben, die ja diesbezüglich wirklich ein großer Wurf war, und dann noch in Kombination mit DX12, hätte das vielleicht anders aussehen können. Na ja, aber so ist es ja immer ;-).
Zusammengefasst: schön, dass die theoretische Rohleistung nun auch für die breite Masse sichtbar wird, aber gerade die Vor-Fury-Generationen sind dadurch keine Energiesparwunder geworden. Fury selbst schlägt sich aber wirklich gut, nichts desto trotz vermute ich, dass eben Maxwell noch immer, wenn auch nur leicht, effizienter ist.

Viele Grüße,
ErichH.
 
Ich glaube ich muss meine 970 gegen eine R390 tauschen demnächst. Der Speicher der 970 (ich konnte dem WQHD nicht widerstehen) und die Tatsache, dass die Konsolenhardwareoptimierung (wo ja alles von AMD ist) doch langsam ihren Weg in die ganzen Multiplattformtitel findet, werden schön langsam zum Problem. Selbst wenn die Karten gleich schnell wären, hat AMD das deutlich bessere P/L-Verhältnis und jetzt ist AMD auch noch schneller.
Es scheint wirklich nur noch bei Titeln die speziell für PC mit "Gameworks" optimiert werden Probleme bei AMD Karten zu geben. Nur leider laufen gerade die ganzen "Gameworks" Spiele meist auf NVidia Karten auch nur recht bescheiden...
 
Sontin schrieb:
Jeder Effekt in Hitman ist auf AMD Hardware optimiert. Ansonsten wären sie nicht so dermaßen viel schneller. Man muss also überhaupt keine "AMD-Effekte" verwenden. EIne 390 ist 30%+ über der GTX970. In The Division, vor ein paar Tagen getestet, liegt die Karte mit HBAO+ nur 3 bzw. 7% vorne.

Ein Gears of War ist auch auf nVidia-Hardware schneller, wenn AO deaktiviert wird. Trotzdem reden Leute davon, dass Gameworks einzig und allein Schuld wäre.

Du hast mit einem offensichtlichen Benachteiligen von nVidia keine Probleme, bewertest die selbe Sache aber bei einer Situation zu ungunsten von AMD komplett anders.

man muss auch sage, dass die Effekt OpenSource sind daher kann auch Nvidia die Effekt für ihre Hardware anpassen auf der anderen Seite ist das jetzt schon der zweite Test wo AMD sehr gut abschneidet warum bringt Nvidia nicht mal einen DX12 gesponserten Titel ? Können die doch auch machen, gerade Nvidia steht es doch so drauf auf Techdomos um sich so von der Masse abzuheben also von AMD.
 
Hmmmm und ich habe mir letzte Woche erst einen 6600k gekauft. Hätte ich lieber zum 8350 gegriffen. So habe ich jetzt Board DDR usw. alles neu gekauft. :(
 
Langsam frage ich mich, ob es möglich ist, ein DX12 Spiel so zu programmieren, dass
die Leistungsunterschiede der Karten zueinander so sind wie bei DX11 auch, oder ob
jetzt jeder nur noch Async macht und nie wieder was anderes.

Woher das bloß kommt...

Schon komisch, dass von der DX12 Geschichte eigentlich nur AMD profitiert und sonst
niemand. Warscheinlich bin ich mal wieder der einzige in diesem Forum, den das stört ;)

Woher das bloß kommt...
 
burnbabyburn2 schrieb:
warum bringt Nvidia nicht mal einen DX12 gesponserten Titel ?

Was soll das bringen wenn man nicht von DX 12 profitiert?
Ergänzung ()

borizb schrieb:
Langsam frage ich mich, ob es möglich ist, ein DX12 Spiel so zu programmieren, dass
die Leistungsunterschiede der Karten zueinander so sind wie bei DX11 auch, oder ob
jetzt jeder nur noch Async macht und nie wieder was anderes.


Was könnten die Programmiere dafür wenn Nvidia damit nicht klar kommt? Sollen die jetzt extra Spiele programmieren ohne Async nur damit AMD Karten nicht schneller werden? :freak:
 
Da bin ich jetzt echt froh, dass ich meine beiden GraKas (R9-290x-8GB-Version) im Verkaufsthread nicht unter Wert verkauft, sondern behalten habe. :)

Denn von dem Erlös wollte ich mir eine GTX-980ti kaufen. :freak:

Hätte ich mich tatsächlich auf 250,-Euro pro GraKa runterhandeln lassen, was damals jeder gern wollte, würde ich mir jetzt mit einer GTX-980ti, in den Ar..h beißen. :D

Na ja, bleibt aber abzuwarten, wie es bei den nächsten GraKa-Generationen von AMD & NVidia aussehen wird.
Die Zeitabstände werden ja immer kürzer, in denen neue Hardware auf den Markt kommt. ;)
 
Zuletzt bearbeitet von einem Moderator: (Tippfehler)
Zurück
Oben