Test Hitman 2 Benchmarks: DirectX 12 ist gut für AMD, eher schlecht für Nvidia und Intel

Chillaholic schrieb:
Division ist ein Problem für sich.
Auch mit Intel und Nvidia.
Da muss Ubi noch ein wenig patchen.

Das läuft seit vorletztem Patch ohne Abstürze bei mir. Ubisoft Titel sind extrem empfindlich gegenüber instabilen OC-Einstellungen.
 
  • Gefällt mir
Reaktionen: FritzP und Scholle1309
SKu schrieb:
Das läuft seit vorletztem Patch ohne Abstürze bei mir. Ubisoft Titel sind extrem empfindlich gegenüber instabilen OC-Einstellungen.
Hab ich auch das Gefühl, da muss man sogar bei Anno 1602 den Absturz fürchten.
Haben aber mittlerweile wirklich immer mehr DX 12 Titel, teils laufen die Benchmarks stundenlang durch, und bei 70% GPU Load hast du bei nem neuen Titel ein OC Timeout, daher sollte man immer alle Profile im Afterburner und co. nach Möglichkeit ausschöpfen :freak:.
 
Ziemlich schlechter Test. Wird gar nicht deutlich welche CPU bei den beiden GPU tests genutzt wird. Bitte in den Graph schreiben als Text oder Überschrift.
 
  • Gefällt mir
Reaktionen: estros, Scholle1309 und Bänki0815
Zero_Point schrieb:
DX12 entpuppt sich abgesehen von vereinzelten Konfigurationen immer mehr zum Reinfall. Würde AMD beispielsweise endlich den DX11 Treiber optimieren, wäre DX12 praktisch obsolet. Bei Nvidia hat es auch geklappt und die Spieler haben wesentlich mehr davon, was sich wiederum positiv auf Nvidia auswirkt (Verkaufszahlen).

Directx12 hat es schwer mehr FPS zu liefern, denn das ist gar nicht die Hauptfunktion von Directx12.
Da geht es um die Entlastung der CPU, mehr Multithreading, deutlich mehr DrawCalls aufzurufen ohne die Renderpipline zu verstopfen. Directx12 ist ein Schritt nach vorne, obsolet ist es keineswegs.

Warum Nvidia fast 30% schlechtere Percentilwerte unter Directx12 erzielt ist unausgereiften Treibern geschuldet.
Bis das korrigiert wird, spielt man eben mit einer Nvidiakarte weiterhin mit Directx11.
 
  • Gefällt mir
Reaktionen: Schranz0815, Celinna, Mort626 und 2 andere
und ohne RTX ... , weil RTX nur mit DX12 .... :daumen:
NV muß endlich mal bei DX12 in die Pötte kommen wollen sie ihr neues RTX Feature nicht einstampfen
 
  • Gefällt mir
Reaktionen: Celinna und Unnu
Aldaric87 schrieb:
Ich hab ne GTX 1070 im Rechner, aber der Treiber von AMD ist dem von nVidia schon eine Weile überlegen.

Der AMD Treiber unter Directx11 ist schwächer, weil der Nvidia Treiber die Last besser auf mehrere Threads verteilt und somit oft Performancegewinne erzielt wenn ein Spiel Drawcall bzz. prozessorlastig ist.
Aldaric87 schrieb:
Unter anderem verwendet nVidia einen Software-Scheduler, der jedoch die CPU belastet, AMD hingegen verwendet einen Hardware-Scheduler.

Hast du dafür eine Quelle? Ich kann mir kaum vorstellen dass sich das so runterbrechen lässt.

MK one schrieb:
und ohne RTX ... , weil RTX nur mit DX12 .... :daumen:

Hitman unterstützt kein DXR.
 
  • Gefällt mir
Reaktionen: estros und Zero_Point
SKu schrieb:
Nvidia + Intel läuft aber bei Unreal Engine und Unity um Welten besser als AMD.

Das mit der Unreal Engine ist mir bekannt, aber Unity ? Hast du dazu quellen ?
 
KlaraElfer schrieb:
Warum Nvidia fast 30% schlechtere Percentilwerte unter Directx12 erzielt ist unausgereiften Treibern geschuldet.
Bis das korrigiert wird, spielt man eben mit einer Nvidiakarte weiterhin mit Directx11.

bezogst du dich da etwa nur auf das eine Game ? hörte sich nicht so an ...
 
Ein AMD FX 8350 wäre noch spannend um CPU Test gewesen!
 
  • Gefällt mir
Reaktionen: Der Paule
Zero_Point schrieb:
DX12 entpuppt sich abgesehen von vereinzelten Konfigurationen immer mehr zum Reinfall. Würde AMD beispielsweise endlich den DX11 Treiber optimieren, wäre DX12 praktisch obsolet. Bei Nvidia hat es auch geklappt und die Spieler haben wesentlich mehr davon, was sich wiederum positiv auf Nvidia auswirkt (Verkaufszahlen).


Dann hast du aber keine Vergleichsmöglichkeit mehr.
Zero_Point schrieb:
@Balikon
Das AMDs DX11 Treiber einfach nur Softwaremüll ist, sollte hinlänglich bekannt sein. Oder weshalb sind Nvidia Karten mit teils weniger Rechenleistung unter DX11 manchmal deutlich flotter und AMD braucht dazu DX12 (Hitman 2 ist doch ein schönes Beispiel)?
DX12 ist schon aufgrund der Plattformbindung und der schwierigen Programmierung ein Reinfall. Bei Vulkan (ja, das schreibt man tatsächlich mit "k") bleibt immer noch die schwierige Programmierung übrig, was ein Grund für die kaum vorhandene Akzeptanz bei Entwicklern sein dürfte.

Was du merkwürdig findest, ist das Versagen von AMD ein vernünftiges Gesamtpaket auf die Reihe zu bringen. Aber nein, die totale Nische DX12 ist das worauf sie AMD voll konzentrieren soll anstatt auf das was die überwältigende Mehrheit der Entwickler nutzt. Der beste Weg um die potentielle Kundschaft zur Konkurrenz zu schicken. :rolleyes:
Nvidia hat damals richtig reagiert als AMD Mantle rausgebracht hat und die wichtigen Stellen optimiert anstatt sich auf etwas Neues zu fokussieren, das kaum Akzeptanz findet. Oder anders gesagt: Nvidia hat effizient gearbeitet. Mit dem besseren Ergebnis für ihre Kunden.

Du kannst ja gerne vorzeigen wo Nvidia mit DX12 heute stehen würde, wenn sie voll darauf optimieren würden. Würden sie das heutige DX11 deutlich schlagen oder hat man aus DX11 so viel rausgeholt, dass da kaum noch Potential ist?
Scheinbar setzt du dich erst seit kurzem mit der Materie auseinander oder trägst eine dunkelgrüne Brille. Hier wird ja alles durcheinander argumentiert.

Lange Geschichte kurz:
NV hat die Leistungsfähigere - Hardware - stimmt! ..und zudem mehr Marktmacht.
AMD hatte lange Zeit die moderneren Schnittstellen, die aber vom von NV beeinflussten Markt nicht unterstützt wurden. Deshalb haben sich die neuern APIs kaum oder nur langsam durchgesetzt.
Wo soll den bitte bei einer Hardwarenahen-API ein Nachteil für irgendjemand von uns sein? Richtig nirgends! Höchsten für NV weil die AMD Hardware plötzlich besser da steht - aber NV immer noch die Krone (2080ti) hält.
Auch alle NV Nutzer die vielleicht nicht immer die neuste CPU (egal ob Intel oder AMD) am start haben werden von DX12 mittelfristig profitieren.
 
  • Gefällt mir
Reaktionen: eXe777, Baal Netbeck, Celinna und 5 andere
@fdsonne
Die Vega Architektur ist auf Compute Leistung zugeschnitten und weniger auf Rendering. Das war 2017 schon klar.
AMD hat(te) ein begrenztes Budget und musste trotzdem etwas liefern ohne den Consumer Markt hängen zu lassen. Das ist mit VII nicht anders. Im Grunde betreibt AMD Schadensbegrenzung und das eigentlich doch ganz gut.
 
  • Gefällt mir
Reaktionen: eXe777, Baal Netbeck, Celinna und 4 andere
Makso schrieb:
b.) sieht mal wie AMD in der Vergangenheit das richtige gemacht hat und davon profitiert.
-
Was lustig ist, sind deine Behauptungen gegenüber den Treibern.
Da ist AMD nVidia seit 2 Jahren weit voraus was an Stabilität des Treibers, Performance Verbesserung in diversen Spielen weit voraus.

Zu b eine Frage: Also hat ein Unternehmen richtig gehandelt was dafür sorgt das Kunden die heute kaufen am "Arsch" sind aber in 2 Jahren was "gutes" haben? Finde ich fraglich aber okay

Zu dem Treiber da habe ich gemischt Gefühle, ja der Treiber ist besser geworden auch wenn ich die Oberfläche schrecklich lahm finde und nicht hübsch und ich sie oft erst beim dritten oder vierten Versuch sich überhaupt öffnet. Aber die Treiber stürzten nicht mehr so oft ab wie früher das ist um ein vielfaches besser geworden dem muss man zustimmen. ABER für MICH im Vergleich kommt der Treiber von AMD noch lange nicht an Nvidia ran.

Dies soll kein Bashing sein sondern meine reine subjektive Meinung. Ich würde mich freuen wenn AMD wieder im High-End mitspielt es wäre für alle gut und wünschenswert damit die Entwicklung vorwärts geht!
 
@Zero_Point

Was nichts mit der API zu tun hat, sondern mit Entwicklern, die wenig Erfahrung mit der neuen API haben. Aber das wirst du vermutlich nicht verstehen.

@eselwald

Da hast du aber merkwürdige Erfahrungen. Der nVidia Treiber macht doch ständig Probleme. Bugs die erst nach nem Jahr gefixt werden, um zwei Versionen später wieder reingepatcht zu werden. Ständige Hotfix-Treiber, weil mal wieder ein paar Sachen nicht funktionieren. Ja, ganz toller Treiber bei nVidia.

Zudem der AMD Treiber viele Funktionen bietet, die man bei nVidia vergebens sucht. Stichwort Wattman.
 
  • Gefällt mir
Reaktionen: eXe777, Celinna, Thraker und 4 andere
Aldaric87 schrieb:
@Zero_Point

Was nichts mit der API zu tun hat, sondern mit Entwicklern, die wenig Erfahrung mit der neuen API haben. Aber das wirst du vermutlich nicht verstehen.
So wie du nicht verstehen wirst, dass es keinen Sinn macht, DX12 mit der Brechstange zu verbreiten?
 
Mich würde einmal die GPU Auslastung in den CPU limitierten Szenen im Vergleich DX11/12 interessieren. Prinzipiell profitieren wohl schächere CPUs enorm von DX12 und ich vermute sogar die von Intel.

Es ist zwar zu begrüßen, dass CB gundsätzlich (Nach)Tests veröffentlicht, dass jedoch ein 9900K wohl nicht so schnell ins CPU Limit fährt wie ein Ryzen 2700x oder ein älterer Core i5/7 sollte wohl jedem klar sein.

Insofern sagt der Test für mich erst einmal gar nichts im Hinblick auf Intel/Nvidia - Intel/AMD - AMD/NVidia - AMD/AMD aus (die wenigsten haben wohl einen 9900k zu Hause) und darum sollte es auch gar nicht gehen.

Zero_Point schrieb:
So wie du nicht verstehen wirst, dass es keinen Sinn macht, DX12 mit der Brechstange zu verbreiten?

Wenn DX12 ältere Hardware (z.B. CPUs) entlastet damit in neuen Titeln mehr FPS und bessere Framteimes liefert macht es keinen Sinn? Na wenn Du meinst. Mir hilft DX12 meine 60fps durchgehend auch in neueren Titeln zu halten, sieht man mal von wenigen Ausnahmen ab und eben in diesen Ausnahmen verreckt meine CPU unter DX11 während die Vega64 sich langweilt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: eXe777, Makso, FritzP und 3 andere
Ich zitiere mich hier mal selbst....passt zu dem was @Der Paule geschrieben hat:
Baal Netbeck schrieb:
Es ist leider viel zu oft Murks was CB macht wenn es um CPUs und Ram geht.
Ich habe heute angefangen eigene Benchmarks zu Hitman 2 zu machen...ich habe zwar nicht die Möglichkeiten andere aktuelle Inte/Nvidia Hardware zu testen, aber ich bilde mir ein, mir mehr Gedanken und vor allem mehr Mühe zu geben.

Wenn man sich Mühe gibt ein vollständigeres Bild zu zeichnen, bedeutet das leider sehr viel Arbeit....etwas das ich als Hobby nebenbei mache....CB sollte da eigentlich ganz andere "Manpower" haben um umfangreiche Tests zu machen, die dann am Ende etwas sinnvolles aussagen.

Warum sehen wir nicht die Testszenen mit einem umfangreichen MSI Afterburner/Rivatuner OSD, wie es hier von jedem Amateur verlangt wird, der fragt warum seine FPS nicht so gut sind.

Warum kennen wir bei den Ramtest nicht die wichtigen Subtimings und warum nicht die Bandbreiten und Latenzen?

Wenn man Hardware a und b vergleicht, wie sie im Werkszustand performen, mag das weniger wichtig sein....

Aber wenn sich die Frage nach generellen Zusammenhängen stellt, wie hier "DX11 vs 12" oder "was bringt schneller Ram".....dann muss man meiner Meinung nach genau hingucken, was sich wo und wie verändert hat.....und versuchen zu klären warum.....ohne das warum kann man es nicht allgemeingültig auf andere Hardware übertragen...ob dann die Vega64 besser als die 1080 ist oder nicht ist doch egal....custom Karten und referenzkarten sind doch eh anders....
...man sollte die Hardware auf möglichst reproduzierbare Leistung fixieren.
Die Vega in Taktlimit anstatt ins Powerlimit, das immer hoch und runter schwankt...und die CPUs auch auf fixe CPU Taktraten.....es soll ja kein Test des 9900K sein sondern der einer Intel CPU....und dann deaktiviert man ein paar Kerne und sieht wie die Leistung sich verändert mit weniger Kernen. Oder mit weniger Takt.....oder mit langsamerem Ram....

Da kommt dann natürlich raus, das Intel nicht von Ram profitiert, AMD aber schon, da AMD im CPU und Intel im GPU limit getestet wurde. ;)

Oder das ein ganzes Spiel nicht von CPU/Ram profitiert, weil man eine GPU limitierte Szene getestet hat anstatt eine wo die CPU wichtiger wird.

Und mir stößt der Fokus auf die reinen prozentualen Unterschiede auf....hier im Hitman 2 Test ist das sogar ok, aber oft werden Spiele getestet, die dann 100 zu 120FPS machen....juhu...20% mehr Leistung....aber 20% die man nicht merkt.
Wenn aber die eine Hardware auf 40 FPS runter sinkt und die andere an der gleichen Stelle 50 hält ist das ein spürbarer Unterschied, der eigentlich wichtiger sein sollte....sieht man aber nur wenn man sich auch die Frametimeverläufe anguckt.
CB gibt zwar auch die percentile Werte an, aber die zeigen auch nur einen Teil des Bildes und haben ihre Fehler.
 
  • Gefällt mir
Reaktionen: Thraker, fox40phil, Der Paule und 2 andere
DX 12 ist das beste für eine AMD CPU + AMD GPU weil DX11 veraltet ist und das meiste auf einen Thread packt
Das schmeckt weder einer AMD CPU , weil diese durch den GF 14 nm im Takt limitiert ist , noch einer AMD GPU , weil NV im Treiber die Last besser verteilt .
DX11 exestiert nur deshalb noch , weil NV darauf beharrt hat , das geht jetzt nicht mehr , DXR und damit RTX gibt es nur bei DX12
Damit ist das Ende von DX11 quasi besiegelt .
 
  • Gefällt mir
Reaktionen: Celinna, SVΞN und Baal Netbeck
Zurück
Oben