Test Hitman Benchmarks: DirectX 12 hebt das CPU-Limit massiv an

EXTREM schrieb:
Was ich nicht wirklich glauben kann bei einem Unternehmen welches 2014 9600 Mitarbeiter hatte und 5,5 Mrd $ Umsatz gemacht hat. Dann stellt man halt mal 50 Entwickler ein oder beauftragt ein Unternehmen welches auf so etwas spezialisiert ist.

Ich glaube einfach man hat auf eine damals falsche Entwicklung gesetzt, schaut bei den CPUs seit Jahren auch nicht besser aus. Erst mit DX 12 sieht man plötzlich welche Leistung eigentlich verborgen liegt.

Wenn man an die ersten 64 Bit CPUs denkt, da waren die AMD CPUs das NonPlus Ultra, hat dann aber die weitere Entwicklung verschlafen oder den falschen Weg gewählt.

soso 50 mitarbeiter einfach mal abstellen nur weil man meint, 5,5 milliarden $ umsatz rechtfertigen das......als unternehmer würd ichs nicht machen, vorallem wenn meine gewinne trotz diesen umsatzes, weggebrochen sind.....
 
feidl74 schrieb:
da benchmarksysteme nichts mit einem pc in alltäglichen gebrauch zu tun haben
Soll auch noch Leute geben, die nicht während des Spielens drei Filme schauen, im Internet surfen und 500 virenverseuchte Rar-Dateien auf einmal entpacken, sondern einfach nur spielen. Und genau das bilden Benchmarksysteme ab.

feidl74 schrieb:
ich spiele auch dx12 titel mit einer gtx970
Aber nicht mit D3D12-Renderpfad unter Windows 7. Ich glaube, das war gemeint.

Relaxo32 schrieb:
Render Target Reuse habe ich deaktiviert bei DX12, auf automatisch und aktiv ruckelt das Bild unaufhörlich, trotz guter FPS.
Ist das eine Treibereinstellung, die da versucht, irgendwas zu 'optimieren', oder eine vom Spiel? Hab weder ne AMD-Karte da, noch das Spiel, deswegen die Frage.
 
Zuletzt bearbeitet:
VikingGe schrieb:
Ist das eine Treibereinstellung, die da versucht, irgendwas zu 'optimieren', oder eine vom Spiel? Hab weder ne AMD-Karte da, noch das Spiel, deswegen die Frage.

Ist im Spiel bei den Einstellungen, der letzte Eintrag. Lasse ich das an oder auf automatisch, dann ruckelt das Bild. Erinnerte mich an die Ruckler bei meinem alten Laptop mit Crossfire, nur etwas auffälliger.
Daher habe ich es deaktiviert, da ist das Bild dann ruhig.

Was es auch bewirken soll, ka. Ich finde dazu auch nichts, außer, dass es bei NV Karten hilft die Crashes zu verhindern, laut PCGH.
 
Zuletzt bearbeitet:
Was es auch bewirken soll, ka.
Vom Namen her würde ich mal darauf tippen, dass Render Targets, also Tiefenpuffer und Texturen, in die ein Bild gerendert wird, so früh wie möglich wiederverwendet werden (ggf. mehrfach pro Frame), um insgesamt mit weniger davon auszukommen. Das spart Grafikspeicher, sorgt umkehert aber auch für mehr Synchronisationen und damit für schlechtere Performance. Ist aber nur eine Vermutung, genau wissen werden es wohl nur die Entwickler.
 
Ich hab jetzt nochmal Tests gemacht mit RTR aktiv, da ich gestern das nur mit maximalen Details gemacht habe und nicht auf die FPS geachtet.
Auf maximalen Details ruckelt es einfach, wirkt auf mich wie Mikroruckler bei Crossfire, vor allem am Anfang der Benchmarkszene ist das bemerkbar und in der Szene mit dem Treppenaufgang.
Auf mittleren Details werden die Ruckler weniger, immer noch hier und da bemerkbar, aber nicht mehr so schlimm.

Der interessantere Punkt ist aber: es kostet FPS. Auf maximalen Details kostet es ca 2 FPS im Schnitt, auf mittleren 4 FPS.


Ist aber nur eine Vermutung, genau wissen werden es wohl nur die Entwickler.

Nützlich wäre es wohl, wenn die Entwickler sich dazu äußern könnten. So lohnt es nicht, RTR zu aktivieren, wenn es scheinbar nichts bringt/nur Negatives zur Folge hat.
 
VikingGe schrieb:
Vom Namen her würde ich mal darauf tippen, dass Render Targets, also Tiefenpuffer und Texturen, in die ein Bild gerendert wird, so früh wie möglich wiederverwendet werden (ggf. mehrfach pro Frame), um insgesamt mit weniger davon auszukommen.

Bzw. das Löschen und Anlegen der Targets zu minimieren. Unter Dx12 fällt das nämlich alles in die Verantwortung der Programmierer. Wird ein Rendertarget für Aufgabe A nicht mehr benötigt kann man es ja für Aufgabe B wieder benutzen.
 
Schaby schrieb:
Was auffällt ist, das unter DX11 die 390X über FullHD schneller als eine 980TI DX11 ist! Das deutet für mich darauf hin, dass das Spiel wohl für AMD Karten optimiert wurde, oder gibt es sonst ein Spiel wo eine 390X schneller als eine 980TI, wohlgemerkt unter DX11, ist?

Die 390x ist unter DX11 auch in diesem Test langsamer als eine 980 Ti @ FHD - schau nochmal genau nach;)
Ergänzung ()

RealRainer schrieb:
Allerdings sollte man nicht vergessen dass der Release der 900er Reihe schon 1,5 Jahre zurück liegt und die DX12 Spezifikation noch garnicht final war.

Ist völlig irrelevant, da der Konkurrent noch "ältere" Hardware hat, die das kann...
Ergänzung ()

UltraWurst schrieb:
@Ex3cuter
Also ich bin ja immer dafür, dem Nutzer so viele Optionen wie möglich zu lassen, aber wieso sollte jemand ohne VSync (bzw. GSync/Freesync) spielen wollen?

Würdest du Counterstrike mit Vsync an spielen?:lol:
 
Hi

Omg , das ist doch klar das die Geforce Karten so derbe einbrechen , weil die können gar kein DX12 Hardware Seitig , überprüft mal mit GPU-Z , ob ihr DX12 angezeigt bekommt unter Windows 10.

Die Fury's werden in GPU-Z angezeigt mit DX12.

Überprüft das mal , mit der 9er Geforce und R9/Fury's .

mfg.
 
Da bitte meine GeForce mit DirectX 12 in GPU-Z :p

gpu z.PNG
 
Zuletzt bearbeitet:
Re

ok , Pizza danke dir !

nehme alles zurück in sofern , dann waren die Screenshots die ich gefunden habe wohl Falsch.

Was aber trotzdem noch seltsam ist , die 9er Series kann 12_1 FL , die R9/Fury's nur 12_0 laut Geizhals.

mfg.
 
Dürfte stimmen, NV kann eben solche Späßchen wie Rasterizer Order Views, AMD nicht. Was es bringt, wird man sehen, wenn irgendjemand anfängt, es zu nutzen - und bis das passiert, ist die Fury wahrscheinlich eh nur noch eine Randnotiz irgendwo im leistungstechnischen Mittelfeld.
 
EXTREM schrieb:
Die Leute ärgern sich halt weil man bei AMD eine 390X für 350€ und eine Nano für 450€ bekommt eine nicht viel schnellere 980ti kostet aber direkt 650€

Ein wenig verstehen kann ich das schon.

ich auch, aber dann muss die eigene Titelauswahl schon sehr beschränkt sein (AoS und Hitman?!). Schau ich mir grafisch bessere Titel an wie The Division oder auch einfach alle anderen 20 AA Titel aus 2015 dann ist die Sache nicht so knapp - gerade dann wenn die Taktraten realistisch sind.

Dass die Ti sicher nicht den P/L Sieger spielt ist klar, lineare Preisgestaltung war aber auch bei GPU jeher ein Wunschdenken. Da is jeder R9 390 heute meist vor der TI und vor der eigenen Fiji Serie. Die TI is nun ja auch schon wieder älter und hat bereits nun eine recht lange Zeit nahe zu immer das Feld angeführt, mitunter genauso oder gar deutlicher als AMD in Hitman 2016.

Die aktuelle Panikmache kann ich also nicht nachvollziehen. Wer gegen Ende eines Produktlifecycles bei GPU zuschlägt macht idR immer was falsch, heißt nun kurz vor 2 kleineren Fertigungsstufen noch 700€ für ne GPU berappt. Wirklich günstiger werden GPU während der besehenen Generation nämlich nicht. Wer halbwegs mitgedacht hat hat ne R9 390 / TI letzten Sommer gekauft ;)

Aktuell ist Abwarten was mit Polaris und Pascal kommt wohl das sinnigste.
 
Zuletzt bearbeitet:
TP555 schrieb:
Was aber trotzdem noch seltsam ist , die 9er Series kann 12_1 FL , die R9/Fury's nur 12_0 laut Geizhals.

Ja das ist richtig, auf dem Papier beherrschen die Geforce ein paar Features die AMD nicht mitbringt.

Das macht aber nichts, weil AMD die 12_0 Funktionalität in Hardware implementiert hat und auf den Konsolen diese auch seit Jahren genutzt wird.

nVidia hat so manches nur stiefmütterlich als Checklisten Feature implementiert und einige Funktionen werden sogar nur vom Treiber emuliert was bedeutet das sie auf der CPU laufen :freak:
 
Bei mir wurde gerade ein 231 MB Update geladen, werde ich aber erst morgen testen können.
Ergänzung ()

We’ve just released a 230mb update for HITMAN. This update will simply ensure that all users will have .NET 3.5 installed and should address some .NET related issues with the Launcher that have been reported to us.


More updates are on the way.

Also leider nichts am Game selbst verändert :(
 
tek9 schrieb:
.

nVidia hat so manches nur stiefmütterlich als Checklisten Feature implementiert und einige Funktionen werden sogar nur vom Treiber emuliert was bedeutet das sie auf der CPU laufen :freak:

Wie oft muss man diesen Mist eigentlich noch lesen? :freak:
Es wird auch bei NVidia nichts über die Treiber emuliert, alle Funktionen der API werden durch die Hardware ausgeführt.
 
Re

@Extrem

Genau , sonnst wäre ja Hitman nicht so lahm auf Geforce 9er Karten.

Sieht es irgendwie wohl so aus , der die Maxwell Karten überhaupt kein DX12 HW können , obwohl es auf der Nvidia Seite bei den Produkten angegeben wird ?

http://www.nvidia.de/object/geforce-gtx-980-ti-de.html#pdpContent=2

Hat uns Nvidia erneut verarscht , und deshalb bringen die jetzt schnell im Mai Pascal raus ???
Natürlich erstmal ohne HBM oder /2 Speicher ^^

mfg.
 
Zuletzt bearbeitet:
@kisser: NVidia-Karten beherrschen Async Compute eben NICHT hardwareseitig, dass wurde sogar von NVidia bestätigt und sollte so langsam auch bei dir angekommen sein...
 
Re

@Pisaro

Jo stimmt , aber Async Shaders / Compute ist doch ein bestandsteil von DX12 oder nicht ?

Damit ist es klar , Nvidia hat uns erneut verarscht , weil es steht klar auf der Seite von Nvidia das DX12 unterstützt wird , volles DX12 eben erst mit Pascal , unverschämtheit sowas !!!!!!!!!!!!

Und ein Wunder Treiber , wird da sehr wahrscheinlich auch nix mehr dran ändern.

Hoffentlich kauft keiner Pascal.

http://www.heise.de/newsticker/meld...karten-ein-vollkommenes-Desaster-2801497.html

mfg.
 
Zuletzt bearbeitet:
TP555 schrieb:
volles DX12 eben erst mit Pascal , unverschämtheit sowas !
.

Das ist noch nicht mal klar, weil so wie es ausschaut ist Pascal nur eine 14nm Version der aktuellen Karten! Dann ist es möglich das wieder kein AC möglich ist. Genau weiß man das aber natürlich erst wenn es die ersten Tests gibt.
 
Zurück
Oben