Test Hitman 2 Benchmarks: DirectX 12 ist gut für AMD, eher schlecht für Nvidia und Intel

Der Test stellt mehr Fragen, als er beantwortet. :D
 
  • Gefällt mir
Reaktionen: Whitebeard47, Baal Netbeck, Makso und eine weitere Person
fdsonne schrieb:
580 <> 1060 sieht da nicht anders aus... Sogar im zweiten Anlauf, der erste war bekanntermaßen ja die 480. Selbst mit 2GHz kommt eine 1060 auf gerade mal 5,1TFlop/s FP32 während die 580er >6TFlop/s liefert, je nach Takt auch mehr. Sie ist aber bei weitem keine 20% schneller.
Noch schlimmer wirds bei Vega56 <> 2060. 7,2TFlop/s bei 1,875GHz für letztere - 10,9TFlop/s für die Vega56 Stock... Das sind 65% mehr!! Das Teil müste Kreise um eine 2060 drehen. Tut es aber nicht...
Nur das TFlops und GHz nunmal nicht alles sind. So funktioniert Rendering nicht. Würde es so funktionieren, dann wäre z.B. die Vega 56 auch 65% schneller. Da gibt es viel mehr Faktoren auf Hardware und Software (Treiber & Engine) Ebene als nur GHz und TFlops. Ist bei CPUs aber auch nicht anders, darum halte ich von solchen Vergleichen wenig.

KlaraElfer schrieb:
Der AMD Treiber unter Directx11 ist schwächer, weil der Nvidia Treiber die Last besser auf mehrere Threads verteilt und somit oft Performancegewinne erzielt wenn ein Spiel Drawcall bzz. prozessorlastig ist.
Hier frage ich mich nur, wieso tut dies überhaupt der Treiber?
Wenn man wirklich nach Standard geht müsste es das Game tuen. Wobei Nvidia bei OpenGL meines Wissens nach auch mehrere Threads nutzt, habe aber bei OpenGL noch nichts im Standard gefunden der sagt dass Nvidia dies auf Treiberebene tuen soll.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Iscaran
ork1957 schrieb:
Interessant, dass die Vega 64 mit dem 2700 schneller als mit dem 9900K ist und mit den Frametimes plötzlich fast oben auf der Liste ist. Klar, irgendwie wird es auch leicht so sein, dass AMD + AMD aus absolut unersichtlichen Gründen besser läuft :p

Zufall eher.
AMD, Intel und Nvidia wollen verkaufen.
Da wird nichts absichtlich gebremst, wäre für alle nur kontra produktiv.
Gibt genug Spiele die diese These widerlegen.
Ergänzung ()

Zero_Point schrieb:
@Balikon
Das AMDs DX11 Treiber einfach nur Softwaremüll ist, sollte hinlänglich bekannt sein. Oder weshalb sind Nvidia Karten mit teils weniger Rechenleistung unter DX11 manchmal deutlich flotter und AMD braucht dazu DX12 (Hitman 2 ist doch ein schönes Beispiel)?
DX12 ist schon aufgrund der Plattformbindung und der schwierigen Programmierung ein Reinfall. Bei Vulkan (ja, das schreibt man tatsächlich mit "k") bleibt immer noch die schwierige Programmierung übrig, was ein Grund für die kaum vorhandene Akzeptanz bei Entwicklern sein dürfte.

Was du merkwürdig findest, ist das Versagen von AMD ein vernünftiges Gesamtpaket auf die Reihe zu bringen. Aber nein, die totale Nische DX12 ist das worauf sie AMD voll konzentrieren soll anstatt auf das was die überwältigende Mehrheit der Entwickler nutzt. Der beste Weg um die potentielle Kundschaft zur Konkurrenz zu schicken. :rolleyes:
Nvidia hat damals richtig reagiert als AMD Mantle rausgebracht hat und die wichtigen Stellen optimiert anstatt sich auf etwas Neues zu fokussieren, das kaum Akzeptanz findet. Oder anders gesagt: Nvidia hat effizient gearbeitet. Mit dem besseren Ergebnis für ihre Kunden.

Du kannst ja gerne vorzeigen wo Nvidia mit DX12 heute stehen würde, wenn sie voll darauf optimieren würden. Würden sie das heutige DX11 deutlich schlagen oder hat man aus DX11 so viel rausgeholt, dass da kaum noch Potential ist?
Würdest du statt DX12, ray Tracing schreiben und statt amd nvidia, würde es perfekt passen.
 
Zuletzt bearbeitet:
Baal Netbeck schrieb:
Wenn sich das Video bestätigen lässt, dann empfielt der CB Test für viele Leser mit älteren CPUs völlig falsche Sachen!

Der Schlussfolgerung würde ich mich anschließen, ältere [und noch immer stark verbreitete] 4C/4T und 4C/8T CPUs wie ein i5-2500K oder ein i7-3770K sollten zwingend nachgetestet werden, dazu ggf. einen der mittleren FX CPUs wie der FX-6300.

Ich denke man wird völlig andere Schlüsse ziehen können, denn was interessiert es mich, ob ein i9-9900K mal hier, mal da 2-3% schneller oder langsamer ist.

Wie verhält sich die Performance bei einem nativen Quad-Core, wenn der Flaschenhals CPU-Overhead mit DX12 entfernt wird?
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Dr. Chandra, Makso und 6 andere
MK one schrieb:
DX11 exestiert nur deshalb noch , weil NV darauf beharrt hat...

Nvidia hat nicht auf Directx11 beharrt, sondern selbst Directx12 und Vulkan vorangetrieben.
Nvidia hatte sogar lange das weiter ausgebaute Directx12 Feature Level.
 
  • Gefällt mir
Reaktionen: Infi88
Zero_Point schrieb:
Wenn du es als Vorteil empfindest, wenn die Performance oft schlechter wird (tw. sogar bei AMD), ok. Für mich ein gravierender Nachteil.
Nat. ist es kein Vorteil wenn die Performance schlechter wird. Das liegt aber nicht an DX12 an sich sondern an der schlechten Implementierung. Wenn NV die Technik endlich ernsthaft unterstützt/ unterstützen würde und auch in der Kooperation mit den Entwicklern darauf hin arbeiten würde, sähe/sieht das sehr bald ganz anders aus. Ich würde da aber nochmal ein ganz großes Fragezeichen setzen. Weil sie RTX,DLSS ja wieder in Eigenregie machen und quasi sls Alleinstellungsmerkal vermarkten. Warum also aktiv ein Engine suporten die es dem Konkurrenten ermöglichen würden ähnliche Techniken zu verwenden die dann als offene Standards kommen (DXR,ML)
 
Zero_Point schrieb:
Der geilt sich eben nicht an hypermoderner Hardware und Features auf, die in der Praxis nichts bringen.
Zero_Point schrieb:
DX11 ist also gut genug? Ist doch super. Weiß gar nicht was du willst.

Ja was denn jetzt? In anderen Threads schwärmst du von neuster Technik wie DLSS und Raytracing. Erzählst wie krass das doch ist, obwohl man meistens die Unterschiede mit der Lupe suchen muss. Dort schreibst du, wenn man nicht so euphorisch ist wie du, dass das halt die Zukunft ist und man sich nicht an alter Technik festklammern soll.

Jetzt ist auf einmal das alte DX11 so viel besser als DX12. Und das obwohl Raytracing DX12 vorraussetzt. :freak:

Ich dachte eigentlich bis jetzt immer, dass du einfach einer bist der fortschritt besonders mag und sich dann da gut reinsteigert.
Jetzt bin ich mir fast sicher, dass du einfach nur ein Fanboy bist, der das mit langen Texten die besonders ausführlich und technisch geschrieben sind versucht zu verschleiern.

Zero_Point schrieb:
Ich hatte auch schon rotrot und es hat seine gründe weshalb es ein "hatte" ist.

Ich hatte auch mal blaurot und vor kurzem rotgrün und es hat seine Gründe weshalb es ein "hatte" ist.
 
  • Gefällt mir
Reaktionen: CMDCake, Kodak, Dr. Chandra und eine weitere Person
eselwald schrieb:
Zu b eine Frage: Also hat ein Unternehmen richtig gehandelt was dafür sorgt das Kunden die heute kaufen am "Arsch" sind aber in 2 Jahren was "gutes" haben? Finde ich fraglich aber okay

Zu dem Treiber da habe ich gemischt Gefühle, ja der Treiber ist besser geworden auch wenn ich die Oberfläche schrecklich lahm finde und nicht hübsch und ich sie oft erst beim dritten oder vierten Versuch sich überhaupt öffnet. Aber die Treiber stürzten nicht mehr so oft ab wie früher das ist um ein vielfaches besser geworden dem muss man zustimmen. ABER für MICH im Vergleich kommt der Treiber von AMD noch lange nicht an Nvidia ran.

Dies soll kein Bashing sein sondern meine reine subjektive Meinung. Ich würde mich freuen wenn AMD wieder im High-End mitspielt es wäre für alle gut und wünschenswert damit die Entwicklung vorwärts geht!

Redest du über die aktuellen AMD Treiber?

Kann das nicht nachvollziehen, ich bin erst kürzlich von Nvidia auf AMD umgestiegen und der Treiber ist ein Segen! Die Oberfläche öffnet praktisch direkt ohne Verzögerung, hat massig Einstellmöglichkeiten und Features.
Sorry da kann Nvidia 0 mithalten.
 
  • Gefällt mir
Reaktionen: Dr. Chandra, Celinna und Thraker
Zero_Point schrieb:
Wenn du es als Vorteil empfindest, wenn die Performance oft schlechter wird (tw. sogar bei AMD), ok. Für mich ein gravierender Nachteil.

Ernsthaft? Du bringst jetzt ein Beispiel aus 2016?

Wir können uns auch nur die Spiele raussuchen, die enorm von DX12 profitieren. Cherrypicking ist was feines.

Wenn die Entwickler scheiße bauen, kommt halt auch scheiß Performance bei raus. Es gibt zig Spiele die unter DX11 einfach nur schlecht laufen.
Ich geh ja auch nicht hin und sag "ööööhhhhh schau dir ARK an wie kacke das läuft, DX11 ist einfach schlecht"
 
  • Gefällt mir
Reaktionen: Taxxor, Celinna, Iscaran und eine weitere Person
Zero_Point schrieb:
DX12 entpuppt sich ... immer mehr zum Reinfall. Würde AMD beispielsweise endlich den DX11 Treiber optimieren, wäre DX12 praktisch obsolet. Bei Nvidia hat es auch geklappt und die Spieler haben wesentlich mehr davon, was sich wiederum positiv auf Nvidia auswirkt (Verkaufszahlen).

So ein Schmarrn, denn Du da von Dir gibst, informiere Dich erst einmal bevor Du so eine groben Unsinn verzapfst/schreibst.

DX 12 ist (zusammen mit Vulkan) deutlich maechtiger und die Zukunft (bspw. neben VRS auch fuer RTX und das sollte selbst zum Vorzeige-/Poster-RTXler wie Dir vorgedrungen sein) und ja, einige Entwickler bekommen den Umgang mit Low Level APIs besser und andere weniger gut gebacken.

Bei letzteren ist es eben so, dass da entweder das Know-How (noch) nicht langt oder es wurde eben nicht von Grund auf im Spiel sondern erst nachtraeglich implementiert.

Sonst bist Du doch auch nicht so kurzsichtig und propagierst die angebliche Zukunft (bzgl. RTX bspw., da Du ja nicht an ein PhysX-aehnliches versickern im Sande glaubst), entpuppst Dich mit Deinem Festhalten an DX 11 aber als Ewiggestriger :rolleyes:.

Es ist schon ziemlich offensichtlich, dass Du Dir im Fall Hitman 2 wieder alles schoen reden muss, weil die Quasi-Monopolisten-Kombo davon ausnahmsweise einmal (wieder) preis-leistungstechnisch nicht besser dabei weg zu kommen scheint.

Ja und (?), ist das ein Weltuntergangszenario fuer Dich oder ist es so schwer, sich auch 'mal darueber zu freuen, dass es sich langsam auszahlt, dass AMD/RTG verhaeltnismaessig deutlich mehr Ressourcen als (bis vor RTX bewusst stagnierender Weise) nVidia in DX12 gesteckt hat und daher die Karten besser laufen/mithalten und der Markt i.a. zum Vorteil des Kunden ausgeglichener ist?

Von anderen "goennen koennen" fange ich besser erst gar nicht an, denn (falsche) Lobhudelei und Selbstbeweihraeucherung scheint Dir wohl besser zu gefallen ... solch ein hanebuechenes Festhalten an einer bekanntermassen unterlegenen High-Level API nur um Deine Markentreue/-werbung auszuleben, sorry, aber dieses Mal liegst Du argumentativ leider komplett daneben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CMDCake und Celinna
Zero_Point schrieb:
Bei einem 9900k mit 8C/16T merkt man davon wenig. Eigentlich nichts.
Mit einem Quad oder gar Dualcore mit der gleichen Taktung womöglich auch nicht aber so ist das nunmal mit einer ineffizienten API. Sie ist nicht in der Lage die verfügbaren Ressorcen sinnvoll zu nutzen, weshalb der genutzte Teil der CPU an die Kotzgrenze getaktet werden muss um die Unzulänglichkeiten halbwegs zu kaschieren.
Nvidia hat hierfür zudem auf die normale Treiber Struktur gepfiffen um den Teil schonmal vorzukauen an dem DX11 aufgrund seiner ineffizienten Hardware Nutzung sonst hoffnungslos ersticken würde und somit dafür gesorgt dass das tote Pferd noch weiter geritten wird wärend die Konkurrenz sich um einen Nachfolger ohne diese Probleme gekümmert und daraufbei der Produkt Entwicklung auch gesetzt hat.

Und natürlich trabt man hier wieder mit dem angeblich höheren Overhead der Raden Treiber an ohne dass es auch nur einen ernsthaften Beleg dafür gegeben hätte dass deren Treiber eine höhere CPU Last erzeugen würde.
Meiner Erfahrung nach ist eher genau das Gegenteil der Fall, die geforce Karten erreichen bei DX11 ihre höheren Frameraten indem das Workaround per Treiber mehr CPU Ressourcen nutzbar macht und damit auch die CPU Last höher ausfällt. Was hier bejubelt wird ist die Stagnation und das versauern auf einem technisch unzulänglichen Produkt weil die Konkurrenz damit aufgrund der Ineffizienz der hoffnungslos veralteten API schlechter läuft.
 
  • Gefällt mir
Reaktionen: Iscaran
Im übrigen ist es halt wirklich so das der DX11 Treiber von AMD nicht der beste ist. Dazu gibt es viele Tests, selbst CB hatte damals was dazu geschrieben.

Völlig egal die das die Fanboys und Hater wieder auslegen wollen. Es bleibt dabei, dass AMD nicht wirklich gut mit DX11 umgeht... Man man man..

Edit: Bzw nicht der Treiber, eher die Scheduler etc. Ändert dennoch nichts daran, dass AMD mit DX11 nicht wirklich gut umgehen kann.
 
Zuletzt bearbeitet:
Ich finds immer spannend wenn jemand mit "Es hat seine Gründe" globalisiert, dann aber mit den Details nicht rausrückt weil entweder erst gar keine vorhanden sind oder ihm vorab klar ist das sie auf jeden Fall diskutiert werden würden. :D
 
NikoNet schrieb:
Auf der zweiten Seite wurden die Farben der Vega und RTX2070 vertauscht.
Anhang anzeigen 767901
Wahrscheinlich, weil aus der Gewöhung heraus, dass die RTX immer vorne liegen^^:p
Wieso, die 2070 liegt doch immer noch vorne.
Solange DX11 und 12 die selben Details liefern ist ja egal welche Schnittstelle. Dann würde ich die schnellste Variante bei der 2070 gegen die schnellste bei der Vega64 vergleichen und dann ist die 2070 noch weit vorne (20%).

Generell zum Thema CPU DX11 und DX12. War doch schon immer so, das die schwächeren CPUs stärker profitieren und ganz klar hätte der CPU Vergleich mit einer RTX2080TI und einer Radeon VII gemacht werden müssen.
Ergänzung ()

ork1957 schrieb:
Interessant, dass die Vega 64 mit dem 2700 schneller als mit dem 9900K ist und mit den Frametimes plötzlich fast oben auf der Liste ist. Klar, irgendwie wird es auch leicht so sein, dass AMD + AMD aus absolut unersichtlichen Gründen besser läuft :p

Was ist "fast oben auf der Liste" für dich. Ich sehe keinen Benchmark der das widerspiegelt.
 
HAse_ONE schrieb:
Ja was denn jetzt? In anderen Threads schwärmst du von neuster Technik wie DLSS und Raytracing.
Ich glaube Du verwechselst Zero-Point mit Zero-Zerp.
Zerp ist derjenige, der generell scharf auf neue Techniken ist.
 
  • Gefällt mir
Reaktionen: Colindo und HAse_ONE
@Unnu oh das kann sein. Da kommt man aber auch durcheinander. Dann macht das schon mehr Sinn. Und point hasst einfach AMD
 
  • Gefällt mir
Reaktionen: Unnu
Ein Test mit anwendernahen Systemkomponenten ist deutlich interessanter als n abgehobenener CoreI9 9900 (Ryzen 7 2700x) in Verbindung mit einer 2070, -80 oder Vega64.

Wie wäre es mal mit CPU's zwischen 200-300 €, Grakas unter 400+ € und Vergleiche mit Hardware der letzten Generation.

Anwendernähe vermisse ich seit geraumer Zeit bei CB...
 
nicK-- schrieb:
Redest du über die aktuellen AMD Treiber?

Kann das nicht nachvollziehen, ich bin erst kürzlich von Nvidia auf AMD umgestiegen und der Treiber ist ein Segen! Die Oberfläche öffnet praktisch direkt ohne Verzögerung, hat massig Einstellmöglichkeiten und Features.
Sorry da kann Nvidia 0 mithalten.

Ja von dem ist bei mir die Sprache. Wie gesagt ich habe es leider bei mir noch nicht erlebt und ich habe das System nur aus diesem Grund schon einige "platt" gemacht. Aber es freut einen dann doch zu hören dass es auch anderes geht und ich wohl eine "Ausnahme" bin.
Was das Design und die Bedienbarkeit angeht ist es ja so oder so subjektives empfinden.
 
nicK-- schrieb:
Kann das nicht nachvollziehen, ich bin erst kürzlich von Nvidia auf AMD umgestiegen und der Treiber ist ein Segen! Die Oberfläche öffnet praktisch direkt ohne Verzögerung, hat massig Einstellmöglichkeiten und Features.
Sorry da kann Nvidia 0 mithalten.

"Der Treiber" und "Die Treiberoberfläche" sind aber schon zwei verschiedene paar Schuhe. Leider wird da nie wirklich differenziert.

Chismon schrieb:
DX 12 ist (zusammen mit Vulkan) deutlich maechtiger und die Zukunft

Diese Zukunft wird nun aber schon seit 2015 beschworen. Das sind 4 Jahre. Und noch immer sind gute DX12 Titel eher die Ausnahme als die Regel. Wann genau wird denn diese Zukunft zur regelmäßig vorteilhaften Gegenwart?

Zukünftig werden übrigens auch noch weitere DX11 only Titel erscheinen, und zwar einfach deshalb weil sie für Entwickler viel Komfortable zu nutzen ist als DX12. Man hat weniger Verantwortung, weniger Zuständigkeit und mehr Arbeit die einem der Treiber abnimmt.
Abgesehen von den Entwicklern die eine Grafikengine Vanilla benutzen, also ohne sie selbst anzupassen oder anpassen zu müssen, ist DX11 immer noch ein Thema.
 
Zurück
Oben