Test Hitman Benchmarks: DirectX 12 hebt das CPU-Limit massiv an

zero389 schrieb:
Also scheint so als könnte ich auf win7 mit meiner 970 bleiben. Passt doch. Vsync hab ich nie an. 144hz full hd und nichr höchste details dann hat man auch mehr fps. Weiß schon warum ich mich bewusst für die 970 entschieden habe. Dx12 kann ich locker überspringen.

Und warum genau wenn ich fragen darf? Die Frage ist ernst gemeint!
Du hast dir also die GTX 970 gekauft damit du nicht auf höchsten Details spielen kannst oder wie darf ich das Verstehen? Und wie genau willst du DX12 überspringen? DX 12 wird nicht in 8 Monaten wieder verschwinden sondern einige Jahre aktuell bleiben. Es sind jetzt schon die ersten DX 12 only Titel angekündigt die du dann gar nicht spielen kannst und das werden mit der Zeit immer mehr werden. Dafür hast du dir dann also für ~350€ eine Grafikkarte gekauft?

Sei mir nicht böse aber so ganz versteh ich deine Aussage unabhängig der Grafikkarte nicht.
 
Zuletzt bearbeitet:
UltraWurst schrieb:
@Web-Schecki
Wenn's wirklich so gewesen sein sollen, dann AMD's Weitsicht in allen Ehren.
Ob sich das wirtschaftlich am Ende rechnet, wage ich allerdings noch zu bezweifeln.
Ich würde sagen, da war das Timing nicht so optimal.

Hinterher kann man sich das immer zusammenreimen :D
Wahrscheinlich haben sie die Strategie auch erst mit der Zeit entwickelt.
Ein paar krasse Fehler wurden natürlich gemacht. Zum einen wurde der Softwaremarkt überschätzt, es gibt immer noch zu viele Anwendungen, die nicht von vielen Kernen profitieren. Einhergehend damit wurde das einige Modulkonzept überschätzt.
Außerdem hat man die Bedeutung schnellen Speichers für die APUs zu lange ignoriert. Das aktuelle Chaos bei kaveri mit Dual rank etc. macht den Kauf einer solchen APU zu einem komplizierten Unterfangen.
Aber wer weiß. Eine APU mit HBM-Speicher, DirectX12, vielleicht eine starke Zen-Architektur, ... Das Konzept könnte noch richtig aufgehen. Gerade dieser Test lässt Hoffnung für AMD aufkommen.
 
UltraWurst schrieb:
AMD hat eben eine Architektur entwickelt, die unter den gegebenen Bedingungen nicht wirklich effizient war.
Warum die das gemacht haben, weiß ich nicht. Aber ganz sicher nicht, um erst Jahre später Mantle zu entwickeln bzw. von DX12 zu profitieren, um bis dahin dramatisch viel Marktanteile abzugeben.

Das Problem ist nicht die Architektur der Grafikchips sondern das DirectX 11 nur ~5000 Drawcalls zulässt:

http://www.bit-tech.net/hardware/graphics/2011/03/16/farewell-to-directx/2

nVidia haben viel Geld und Zeit investiert um dieses Problem mit ihrem Treiber zu umgehen. Bevor nVidia das hinbekommen haben, gab es Parität zwischen AMD und nVidia in niedrigen Auflösungen am CPU Limit. Da nVidia an dem DX 11 Treiber kontinuierlich optimiert hat, wurde der Abstand zu AMD mit der Zeit immer offensichtlicher.

AMD hat in der Zwischenzeit eine API für ihre Konsolenpartner geschrieben die multithreaded ist und daher mehr Drawcalls/Frame rendern kann. Diese API wurde für den PC Mantle genannt. Leider hat AMD nicht die Manpower um gleichzeitig am DX 11 Treiber die gleiche Schwerstarbeit wie nVidia zu vollbringen.
 
tek9 schrieb:
Leider hat AMD nicht die Manpower um gleichzeitig am DX 11 Treiber die gleiche Schwerstarbeit wie nVidia zu vollbringen.


Was ich nicht wirklich glauben kann bei einem Unternehmen welches 2014 9600 Mitarbeiter hatte und 5,5 Mrd $ Umsatz gemacht hat. Dann stellt man halt mal 50 Entwickler ein oder beauftragt ein Unternehmen welches auf so etwas spezialisiert ist.

Ich glaube einfach man hat auf eine damals falsche Entwicklung gesetzt, schaut bei den CPUs seit Jahren auch nicht besser aus. Erst mit DX 12 sieht man plötzlich welche Leistung eigentlich verborgen liegt.

Wenn man an die ersten 64 Bit CPUs denkt, da waren die AMD CPUs das NonPlus Ultra, hat dann aber die weitere Entwicklung verschlafen oder den falschen Weg gewählt.
 
Zuletzt bearbeitet:
Bad_Religion schrieb:
Ich lese hier ständig, dass DX12 schwache CPU's befeuert...
Der FX profitiert doch vor allem von seinen 6-8 Kernen, die neuerdings von DX benutzt werden können und nicht nur vom niedrigeren Overhead.

In erster Linie ist es eine Entlastung der CPU, auch CPUs mit weniger Kernen profitieren sehr stark durch DX12.
Ergänzung ()

tek9 schrieb:
Das Problem ist nicht die Architektur der Grafikchips sondern das DirectX 11 nur ~5000 Drawcalls zulässt:

http://www.bit-tech.net/hardware/graphics/2011/03/16/farewell-to-directx/2

nVidia haben viel Geld und Zeit investiert um dieses Problem mit ihrem Treiber zu umgehen.


Die geringe Anzahl an Drawcalls ist kein Problem, wenn man eben entsprechend viele Befehle in jeden Drawcall reinpackt. Diese Programmierempfehlung (Batch, Batch, Batch) ist schon so alt wie die DX-API.

Siehe u.a https://www.nvidia.com/docs/IO/8228/BatchBatchBatch.pdf
 
UltraWurst schrieb:
Also ich bin ja immer dafür, dem Nutzer so viele Optionen wie möglich zu lassen, aber wieso sollte jemand ohne VSync (bzw. GSync/Freesync) spielen wollen?
Weil man bei der Benutzung von Free- und G-Sync kein V-Sync mehr braucht, was zu einem reduzierten Inputlag führt, trotz anhaltender Synchronisation.
 
Meine am Montag gekaufte 980ti geht nächste Woche wieder zurück und ich bau die alte 7970 wieder ein.
Im Moment aufzurüsten ist doch irgendwie sinnlos bei dem Chaos das jetzt im Wechsel von DX11 auf 12 entsteht.
Maxwell könnte der absolute Preis/Leistungs-Flop unter DX12 werden wenn von Nvidia in nächster Zeit kein Treiber kommt der den aktuellen Zustand ändert.
Auf Polaris und Pascal warten um zu sehen wie die unter DX12 laufen ist Moment wohl das einzig Vernüftige.

meine Güte schiebt ihr eine Panik und fps Neid. Schonmal überlegt, wie es aussieht, wenn man Maxwell übertaktet? guck mal auf PCGH, dort laufen die 980(ti) mit etwas realistischeren Taktraten. Und selbst wenn AMD Karten jetzt 10-20% Netto vone liegen bei DX 12 und es so bleibt und sich nicht ändert...wieviele DX 12 Spiele hast du auf dem rechner? Spielst du ab jetzt nur noch DX 12 Spiele? Weisst du, wie viel Zeit noch vergehen wird, bis DX12 wirklich standard ist? Deine 980ti ist doch nicht tot, sie hat lediglich keinen Vorsprung mehr. Du tust so, als wnen man dir was wegnehmen würde, alles was passiert ist, dass AMD Karten etwas mehr Leistung gratis erhalten.
 
GEZ-Verweigerer schrieb:
dort laufen die 980(ti) mit etwas realistischeren Taktraten. Und selbst wenn AMD Karten jetzt 10-20% Netto vone liegen bei DX 12

Die Leute ärgern sich halt weil man bei AMD eine 390X für 350€ und eine Nano für 450€ bekommt eine nicht viel schnellere 980ti kostet aber direkt 650€

Ein wenig verstehen kann ich das schon.

Ich selbst bin froh erst mal nur eine 380 gekauft zu haben die reicht für Full HD noch und wenn die neuen GPUs auf dem Markt sind und man wirklich weiß was DX 12 bringt kauf ich eine größere Karte.
 
Wobei man das nicht verallgemeinern kann, in der Regel liegt die 980ti schon vorne, Hitman ist da ne Ausnahme.

Ob einem das 650€ Wert sind, muss jeder für sich selbst entscheiden.

OC hingegen muss man nicht so stark beachten, die wenigsten übertakten ihre Karte von Hand, das was werksmäßig anliegt wird von den meisten auch verwendet.
 
Richtig, die 980Ti ist dennoch eine gute karte und für mich auch aktuell die einzige wirklich gute seitens Nvidia auch wenn die aus P/L-Sicht nicht das gelbe vom Ei ist und Ihr 8GB Vram deutlich besser gestanden hätte
Dennoch würde ich die jetzt nicht wegen zwei DX12 Titel eintauschen. DX11 ist ja jetzt nicht einfach verschollen ;)
 
Zum Thema AMDs GPUs skalieren schlecht unter DX11 und gut bei DX12.
Es ist doch schon seit einiger Zeit so das GPUs von AMD mit einer starken CPU mehr leisten als mit einer schwachen, im Gegensatz zu den GPUs von nVidia. Unter DX11 wurden die GPUs scheinbar teilweise von den CPUs ausgebremst, unter DX12 wird die CPU wieder entlastet und somit können die Grafikkarten ihre volle Leistung ausfahren. Zusätzlich kommen dann noch die asynchronous shader zum Einsatz, was auch nochmal die Performance pusht.
 
duskstalker schrieb:
weil vsync bei 60hz inputlag verursacht.
Triple-Buffering hilft.
Wobei der Input-Lag bei den meisten Spielen eh total zu vernachlässigen ist.
Ist immer noch besser als Tearing, wobei du dann vielleicht ein halbes Bild mit etwas weniger Lag hast und die andere Bildhälfte mit mehr Lag.

Marcel55 schrieb:
Weil man bei der Benutzung von Free- und G-Sync kein V-Sync mehr braucht, was zu einem reduzierten Inputlag führt, trotz anhaltender Synchronisation.
Ja, ich weiß.
Hatte diese beiden Methoden auch bereits direkt in dem Abschnitt erwähnt, den du auch zitiert hast.



Wie gesagt:

Bin grundsätzlich der Meinung, daß man die Wahl haben sollte. Aber sehe keinen Grund, ganz ohne irgendeine Form von Synchronisation zu spielen.
 
Microsoft Arbeitet bereits daran, das VSync wieder deaktiviert werden kann. Und scheinbar soll es auch nur die Spiele aus dem Windows 10 Store betreffen, liest sich hier zumindest so.
 
Conceptions schrieb:
Der Energieverbrauch, die Abwärme und die Lautstärke steigen?

Na DAS kann man doch getrost jedem selbst überlassen, oder? Immer diese Dinge so zu überspitzen und als Kontra anzuführen, ist und war bei AMD genauso lächerlich.
 
Pisaro schrieb:
Also alles so wie es sich angebahnt hat. nVidia kann unter DX 12 gar nichts. Mal sehen wie lange meine 980 Ti noch drin bleibt. Wenn es so weitergeht glaube ich nicht mehr lange.

einen bench nimmst du als grundlage für den alltag:D. du musst wirklich arm sein....
 
kisser schrieb:
Die geringe Anzahl an Drawcalls ist kein Problem, wenn man eben entsprechend viele Befehle in jeden Drawcall reinpackt. Diese Programmierempfehlung (Batch, Batch, Batch) ist schon so alt wie die DX-API.
Naja, dein Artikel ist ja schon was älter und die Kernfeatures heute, um möglichst viel Arbeit mit einem Draw Call zu erledigen, sind Instancing (dieselben Vertexdaten mehrfach in einem Draw Call rendern) und Multi Draw (mehrere instanced draws in einem Draw Call). Dx11 unterstützt letzteres aber nicht, sodass man quasi immer mindestens genau so viele Draw Calls pro Renderpass hat wie Objekte mit unterschiedlicher Geometrie.

Mit Instancing kann man Gras und sowas effizient rendern, oder die Spieler, die einem in Battlefield 4 über den Bildschirm laufen, aber sonst? Wenn man viel Kleinzeug auf der Map hat, sieht es da ganz schnell schlecht aus, da kann man dann allenfalls noch versuchen, die Geometrie benachbarter Objekte hintereinander in einen Vertexbuffer zu schreiben. Was dann aber wiederum für Probleme sorgt, wenn diese Objekte quer über die Map bewegt werden können...
 
Wie sieht es denn bei Hitman mit der Effizienz, sprich Stromverbrauch aus? Auch Allgemein bei DX12 vs. DX11.

Der Stromverbrauch könnte einen Gradmesser für die Effizienz des Gespann aus GPU+CPU unter DX12 darstellen. Wenn der Quotient aus Performance pro Leistung (in Watt) bei DX12 deutlich schlechter wird, dann bringt DX12 vermutlich nur etwas, wenn die hier leider selten getesteten 6-8 Kern Prozessoren tatsächlich den Engines zu Leistungssprüngen verhelfen.
 
EXTREM schrieb:
Und warum genau wenn ich fragen darf? Die Frage ist ernst gemeint!
Du hast dir also die GTX 970 gekauft damit du nicht auf höchsten Details spielen kannst oder wie darf ich das Verstehen? Und wie genau willst du DX12 überspringen? DX 12 wird nicht in 8 Monaten wieder verschwinden sondern einige Jahre aktuell bleiben. Es sind jetzt schon die ersten DX 12 only Titel angekündigt die du dann gar nicht spielen kannst und das werden mit der Zeit immer mehr werden. Dafür hast du dir dann also für ~350€ eine Grafikkarte gekauft?

Sei mir nicht böse aber so ganz versteh ich deine Aussage unabhängig der Grafikkarte nicht.

soso man kann dx12 titel gar nicht spielen? wie manche wieder übertreiben. ich spiele auch dx12 titel mit einer gtx970, nicht auf ultra aber dafür auf hoch, reicht völlig und das mit maginalen qualitätsunterschied bei der grafik........
du solltest nicht soviel auf benchmarks geben, da benchmarksysteme nichts mit einem pc in alltäglichen gebrauch zu tun haben, es sei denn, du installierst dein system für jeden titel einzeln neu.
 
Zuletzt bearbeitet:
Ich habe den internen Benchmark mit meinem Rechner mal durchlaufen lassen:

- i5-2400@3.1Ghz
- 8GB DDR3 1333MHZ
- HD 7950@900MHZ


Alles Durchschnittswerte errechnet aus mehreren Durchläufen.
Render Target Reuse habe ich deaktiviert bei DX12, auf automatisch und aktiv ruckelt das Bild unaufhörlich, trotz guter FPS.


Ergebnisse:

Maximale Details/1080p (außer Texturen, lässt sich leider nicht höher als Mittel stellen, Begrenzung durch den Grafikkartenspeicher?, SSAO und SMAA):

DX 11: 41.00 FPS Durchschnitt

DX 12: 41.00 FPS Durchschnitt


Medium Details/1080p (SSAO aktiv und SMAA als Kantenglättung weiterhin):

DX 11: 50.00 FPS Durchschnitt

DX 12: 58.00 FPS Durchschnitt



Insgesamt bringt bei mir auf maximalen Details DX 12 nichts, auf mittleren Details dann aber 8 FPS mehr, was nicht schlecht ist. Ich nehme an, dass auf maximalen Details die Auslastung von Grafikkarte und CPU schon ans Maximum kommt und bei Medium Details die CPU dann besser ausgelastet wird.

Der Unterschied zwischen maximalen Details und Medium ist zwar vorhanden, aber nicht so groß, dass er gleich ins Auge springt mMn.
FXAA kann man aber total vergessen bei Hitman, das Bild wird dadurch so unglaublich unscharf. Was mich stört sind auch die stellenweise schlechten Texturen auf Medium.
 
Zurück
Oben