Test Hitman 2 Benchmarks: DirectX 12 ist gut für AMD, eher schlecht für Nvidia und Intel

Ich glaube das der Test eher Zeigt wo AMD sein Focus drauf hat und das ist dx12.
Wenn NVIDIA und Intel mal an ihren Treiber arbeiten würden, wer weiß was da noch an potenzial drin ist.
Gerade Intels Treiber sind ja noch mehr oder weniger aus der Steinzeit!
 
  • Gefällt mir
Reaktionen: Schranz0815
DonL_ schrieb:
Ich kann noch weiter machen, überall dort ist die Vega 64 gleichauf oder wesentlich schneller als eine 1080 FE, genauso wie die VEGA 56 die 2060 voll im Griff hat und die RX 580 durchgängig die 1060 abzieht.

Eine Vega64 hat die Shader-Rohleistung ähnlich der 1080TI und erreicht diese in Games aber idR bei weitem nicht.
Deine Aussage bekräftigt eher sein Argument als dein eigenes. Denn preislich verkauft AMD die Modelle logischerweise aufgrund der fehlenden Performance eben unter dem was sie sonst hätten aufrufen können, wären die Modelle gleichwertig in der Endleistung wie in der Hardware auf dem Papier vorhanden.

Eigentlich ein Umstand, der nicht erst seit heute existiert. Das jetzt krampfhaft ausschließlich preislich zum Konkurrenten festzumachen ist logische Konsequenz, wenn man unbedingt der Sache eine Positive Note geben will. Aber im Endeffekt schadet das, was AMD da preislich nachlassen muss am Ende eher ihnen selbst als das es ihnen was bringt.
Die von dir genannten AMD Modelle sind/waren alle samt bedeutend größer, haben deutlich mehr Shader-Rohleistung und sind auch vergleichsweise teuer in der Produktion. Von so Späßen wie HBM ganz zu schweigen. Eigentlich ist es eher ein Bestätigen des Problems hier mit dem Preis zu argumentieren. Weil man ne GPU braucht, die eigentlich viel mehr leisten könnte/müsste um die Winzlinge der Konkurrenz zu schlagen.

Es ist ja ganz nett, dass eine fast 13TFlop/s liefernde Vega64 ne nichtmal 10TFlop/s liefernde 1080FE, ein paar Jahre nach Release zu schlagen im Stande ist, aber ist das wirklich ein Argument?? Das Ding hat irgendwas über 30% mehr Rohleistung auf den Shadern - und schiebt sich in ein paar ausgesuchten Titeln mal gerade so vorbei... Echt tolle Leistung.
580 <> 1060 sieht da nicht anders aus... Sogar im zweiten Anlauf, der erste war bekanntermaßen ja die 480. Selbst mit 2GHz kommt eine 1060 auf gerade mal 5,1TFlop/s FP32 während die 580er >6TFlop/s liefert, je nach Takt auch mehr. Sie ist aber bei weitem keine 20% schneller.
Noch schlimmer wirds bei Vega56 <> 2060. 7,2TFlop/s bei 1,875GHz für letztere - 10,9TFlop/s für die Vega56 Stock... Das sind 65% mehr!! Das Teil müste Kreise um eine 2060 drehen. Tut es aber nicht...


AMD tut sich mit der Ablieferung solcher Leistung mMn absolut keinen Gefallen. Wir werden sehen wo das noch hinführt...
 
  • Gefällt mir
Reaktionen: KlaraElfer, Averomoe und CMDCake
Liebes CB Team,

Eine Alterskontrolle bei GFX Themen würde Sinn machen;).

Lg
 
  • Gefällt mir
Reaktionen: Rockstar85, hurcos, Otsy und 3 andere
Auf 1080 vs Vega 64 bezogen:

DonL_ schrieb:

Jahre lange Partnerschaft mit Dice, zudem nichts überraschendes, das war bei jedem BF bisher so.

DonL_ schrieb:

Lange Zeit im AMD Spielebundle, dementsprechend gut auf AMD optimiert (zudem mit Vulkan), nichts überraschendes.

DonL_ schrieb:

Laut CB Test liegt Nvidia hier vorne (Spielebundle von Nvidia)

DonL_ schrieb:
Resident Evil 2
The Division 2
Sniper Elite 4

Ebenfalls alles Bundletitel, auch hier keine Überraschung (Sniper Elite von Anfang 2017 btw)

DonL_ schrieb:
Monster Hunter World
Kingdom Come Deliveance

Hier ist laut CB im Schnitt die 1080 schneller.

DonL_ schrieb:
Anthem
Metro Exodus

Beides Nv Bundle Titel, Performance in etwa gleich.

Von den paar Spielen (wovon die meisten auch noch Bundle Titel waren) jetzt auf ein "so ziemlich alle" zu kommen ist schon sehr interessant.
Im Schnitt hat sich die Vega 64 gegen die 1080 vielleicht um 2-4% verbessert. Zu den ganzen 20% + Vorsprüngen gibts auch immer wieder ein Negativbeispiel mit -20%.

SKu schrieb:
BF5 mit DX12 läuft besser als mit DX11 (8700K + 2080Ti)

Kann ich nicht ganz bestätigen (weder mit 6800k + 2080ti noch R5 1600 + 1080). Auf den meisten Maps läufts ordentlich. Habe teils aber immer noch Hänger, andere Maps sind fast unspielbar (Arras 64 Player, zumindest mit der R5/1080 Kombi). Hat sich aber schon wesentlich verbessert im Vergleich zu damals.

Zum Thema: Sehr interessant. Für gewöhnlich kann Turing mit DX 12 oder Vulkan ähnlich stark zulegen wie die AMD Karten (s. Doom). Auch das Ergebnis vom 9900k ist in DX12 i.V.m. der Vega merkwürdig.

Also wenns ein guter DX12 Port wäre, würde jede Kombi davon profitieren.

fdsonne schrieb:
580 <> 1060 sieht da nicht anders aus... Sogar im zweiten Anlauf, der erste war bekanntermaßen ja die 480

Wobei die RX480/580 von der Chipgröße her durchaus Konkurrenzfähig zur 1060 waren. Zwar auch hier die größere (und nicht umgesetzte) Rohleistung, aber von den Produktionskosten her ähnlich. Schlimmer sahs da beim GP104 vs Vega aus...
 
Ohne den Artikel gelesenzu haben - weil die grünen noch nie parallele Prozesse auf ihren GPU's unterstützt haben.
(Ja ich habe früher viele Jahre mit OpenCL rumgespielt und krampfhaft versucht das sch**s Ding parallel aufgaben aus mehreren Queues zu nehmen - das hat es nicht vertragen).
So wie es aussieht haben sie es auch nicht mit Doom 2018 hinbekommen - sch*ß laden mit sch*ß treibern.

@CB:
Schade das ihr nicht die CPU Auslastung irgendwo erwähnt. So ist es nicht klar ob das Spiel nicht parallel genug ausgeführt wird oder ob die Engine suboptimal programmiert wurde oder ob die GPU die Leistung limitiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Der Paule und Iscaran
Der Paule schrieb:
EDIT: Hab was.
Man beachte die GPU Auslastung.
Also in diesem Video läuft eine Intel+Nvidia Kombination deutlich besser mit DX12.

Ich weiß ja nicht was CB da so testet, aber so krasse Abweichungen kann es doch kaum geben.

Ich nehme an, der Unterschied ist die Art der CPU....der 9900K hat 16Threads und eine geile single thread Leistung.
In dem Video hat die CPU nur 4 Kerne aber immerhin 8 Threads und wurde auf 4,4GHz übertaktet.

Warum CB nur 8 Kern CPUs vergleicht ist doch irgendwie komisch wenn es um die API und damit eher auf CPU Leistung ankommt....Wenn sich das Video bestätigen lässt, dann empfielt der CB Test für viele Leser mit älteren CPUs völlig falsche Sachen!
 
  • Gefällt mir
Reaktionen: Cpt.Willard, HageBen, SVΞN und 2 andere
fdsonne schrieb:
Eine Vega64 hat die Shader-Rohleistung ähnlich der 1080TI und erreicht diese in Games aber idR bei weitem nicht.
Deine Aussage bekräftigt eher sein Argument als dein eigenes. Denn preislich verkauft AMD die Modelle logischerweise aufgrund der fehlenden Performance eben unter dem was sie sonst hätten aufrufen können, wären die Modelle gleichwertig in der Endleistung wie in der Hardware auf dem Papier vorhanden.

Was für ein vollkommener Schwachsinn, der Performanceunterschied war bei Spielen von 2017 und davor wesentlich besser zugunsten von Nvdia als bei den Spielen von 2018 und danach!
 
  • Gefällt mir
Reaktionen: Oceanhog
Da hat Baal Netbeck recht.

Meine RTX 2080 hat im Paris-Level cirka 65 % Auslastung und mit DirectX 12 sind es 95 %. Die FPS stiegen somit auch deutlich an.

In meiner Signatur steht auch, welche CPU ich dazu verwende ein 5820k der auf allen Kernen mit 4 GHz läuft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna und Baal Netbeck
Hab auch gebenched. Laut Ergebniss war Directx11 besser, aber ich hatte das Gefühl das die AVG-FPS bei Directx12 stabiler waren. Denke da wird noch gefeilt. Übrigens schön zu sehen das nun Hitman 2 auf dem aktuellen Stand ist, da das Spiel echt lustig ist. :)
 
  • Gefällt mir
Reaktionen: Oceanhog
DonL_ schrieb:
Was für ein vollkommener Schwachsinn, der Rückstand von AMD war bei den Spielen von 2017 und davor wesentlich Größer als bei den Spielen von 2018 und danach!

Was ist daran schwachsinn?
Weil AMD vor 2017 noch abgeschlagener war? Weil sie noch weniger von ihrer Leistung auf dem Papier beim Endanwender auf den Schirm gebracht haben? -> das wissen die selbst. Dafür haben sie die Preise entsprechend niedrig angesetzt.

Dein Argument war doch, dass AMD mittlerweile in den genannten Titeln bei gleichem Preis heute schneller ist als die Konkurrenz.
Das ist leider eine logische Konsequenz daraus, wenn man Monate- bis Jahrelang seine Produkte unter dem eigentlich angestrebten "Wert" vertreibt, damit der Endkunde überhaupt zugreift. Über die Zeit bessert sich das... Die Anforderungen steigen, das kommt AMD zugute. Deswegen haben sie aber trotzdem reichlich wenig verdient durch diese niedrigpreis Politik.

Wer ernsthaft drüber feiert, dass ne GPU, die 20, 30 und teils 50%+ mehr ALU-Rohleistung auf die Waage stellt ggü. einem Konkurrenzprodukt, dieses nach Jahren mit ach und krach schlägt, der hat irgendwo das Grundproblem nicht verstanden...

Oneplusfan schrieb:
Wobei die RX480/580 von der Chipgröße her durchaus Konkurrenzfähig zur 1060 waren. Zwar auch hier die größere (und nicht umgesetzte) Rohleistung, aber von den Produktionskosten her ähnlich. Schlimmer sahs da beim GP104 vs Vega aus...

OK, das stimmt wohl. 200mm² für GP106 zu 232mm² für Polaris 10. Sind trotzdem immerhin 15%. Dazu kommt nach die gesteigerte Komplexität auf dem PCB (256Bit SI vs. 192Bit SI) und 1/3tel mehr Speicher drauf. Letzteres bringt ihnen heute, gut 2,5 Jahre nach Release der ersten Polaris 10 GPU so langsam aber sicher auch Pluspunkte. Seinerzeit hingegen wars das nur auf dem Papier.

Die Polaris 8GB Modell-Besitzer freuts, die müssen nix neues erstehen. Aber real schneller wird die Hardware deswegen immernoch nicht. Ich persönlich hätte sogar damit gerechnet, dass es viel schneller geht/ging. Aber ne 1060 hält sich irgendwie erstaunlich gut. Wer das Ding seinerzeit bisschen nach Release für 250€ oder so erstanden hat, hat mMn absolut nix falsch gemacht.
 
Zuletzt bearbeitet von einem Moderator: (Zitat korrigiert)
TheTrapper schrieb:
Warum testet man so etwas immer mit HighEnd CPUs?
Ein alter 4 Kerner zb ein i5 4690k oder ein älterer AMD FX wäre doch perfekt um zu schauen was DX 12 wirklich bringt. Ich kann mir durchaus vorstellen das DX12 erst bei einer etwas älteren CPU wirklich seine Vorteile ausspielen kann!

Absolut, der Test ist so eigentlich gar nicht nach dem Sinn von DX12 gerichtet. Was kümmert es mich, ob ich mit einem 9900K und RTX 20XX 3-5fps schwanke? Ich habe keine Erfahrung mit Hitman 2 und DX11 vs 12, aber bei BF V habe ich einen enormen Unterschied festegestellt!

Mein System:
i5 4570 (3.2/3.6GHz Boost)
Vega 56 UV
16GB RAM 1600MHz
1920x1200 60Hz Monitor

Preset Ultra Settings

Habe das Spiel seit einigen Tagen und schon direkt DX12 eingestellt weil Barney sagt: "Neu ist immer besser". Es ist mir gar nicht aufgefallen, aber vorhin habe ich mal aus Interesse auf DX11 umgestellt und hatte darauf üble Einbrüche. Alle paar Sekunden waren heftige, unspielbare Schnitzer drin und die Frames fielen teilweise in die unteren 30fps. CPU Auslastung auf 64er Server permanent 99-100%.

Danach wieder auf DX12 gestellt und es war wieder Ruhe. Recht stabile 55-60fps, Einbrüche bei Action, aber nie unter 45fps. CPU Auslastung war bei 85-95%.

Auf GPU- Auslastung habe ich nicht geachtet.

Fazit: Mit DX11 könnte ich BF V gar nicht auf Ultra spielen weil es wirklich (!) unangenehm ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oceanhog, HageBen, LukS und 6 andere
@fdsonne

Mich interessiert als Kunde Null wie die Leistung zustande kommt, mich interessiert einzig und alleine welche Performance ich zu welchem Preis bekomme.
Da ich eine Vega 56 Custom (Red Dragon) für 309€ plus 3 Spiele bekommen habe, halte ich das für einen spitzen Deal gegenüber jeder RTX 2060 oder GTX 1660Ti!
Was will ich als Kunde mehr?
 
  • Gefällt mir
Reaktionen: Celinna, Makso und Kodak
Wie sieht es denn mit der Stabilität aus? Auf meinem Ryzen mit RX580 stürzt The Division 2 schneller ab als man DX12 sagen kann.
 
RabShaque schrieb:
Wie sieht es denn mit der Stabilität aus? Auf meinem Ryzen mit RX580 stürzt The Division 2 schneller ab als man DX12 sagen kann.
Division ist ein Problem für sich.
Auch mit Intel und Nvidia.
Da muss Ubi noch ein wenig patchen.
 
RabShaque schrieb:
Wie sieht es denn mit der Stabilität aus? Auf meinem Ryzen mit RX580 stürzt The Division 2 schneller ab als man DX12 sagen kann.

Geht mir mit DX12 und einem 4790k + GTX 1070 nicht anders. Da muss man auf Ubisoft warten.
 
  • Gefällt mir
Reaktionen: Celinna
Wobei ich auch den AMD Treiber im Verdacht habe....Shadow of the Tomb Raider stürzt bei mir mit DX12 in letzter Zeit öfter ab...Hitman 2 ist auch einmal abgeschmiert......RotTR auch beim testen.

Ich dachte erst es läge an der Radeon VII und meinem undervolting..oder am Ram OC.
Aber ich habe die Radeon VII vom 1831 auf 1620MHz bei gleichbleibender Spannung heruntergetaktet...den HBM2 unter Werkstakt getaktet....die Lüfterkurve höher eingestellt...den Ram mit HCI Memtest überprüft und zur sicherheit trotzden runter getaktet.....hat alles nichts geändert...SoTTR stürzt mit DX12 einfach ab und zu ab.

Daher nehme ich an es ist ein Windows/DX12 update oder ein Problem der aktuellen AMD Treiber....wegen der Radeon VII kann ich aber keine älteren Treiber testen.
 
Balikon schrieb:
@Zero_Point
DirectX 12 ist ein Reinfall, weil Nvidia damit nichts anfangen kann? Das nenne ich mal eine interessante Logik. Warum sollte AMD "endlich" mal DirextX 11-Treiber optimieren? Seit Jahren ist klar, dass AMD sowohl in Hardware als auch Software auf DirectX 12 und Mantle Vulcan setzt. Ich finde, Nvidia sollte mal endlich anfangen, ihre DX12-Implementierung auf Vordermann zu bringen. Dann hätten nämlich endlich alle was von DX12.

Viel spannender ist die Frage, warum Hitman 2 wegen DX11 only erst einmal schön fette Dellen in das AMD-Performance-Rating bei CPU- und GPU-Tests schlagen durfte. Seltsam, oder? Jetzt, fast 5 Monate später, wo das Game in Benchmark-Pacours nur noch eine untergeordnete Rolle spielt, darf AMD per nachgeschobenen DX12 zeigen, dass sich das Spiel sehr wohl vernünftig auf deren Hardware spielen lässt. Also ich finde das merkwürdig.

Aber gut, besser spät als nie. Die Leute, die es aktuell mit AMD/Nvidia, Intel/AMD oder AMD/AMD spielen, werden sich über den Schub zu freuen wissen.
Jo Nvidia hat das DX12 und damit DLSS und RTX bei Hitman verzögert damit AMD in DX11 Benchmark-Pacours schlechter da steht . Wie kann man so einen Durchfall ernsthaft glauben :heul:.
 
  • Gefällt mir
Reaktionen: Schranz0815
DonL_ schrieb:
Was will ich als Kunde mehr?

Möglicherweise möchtest du aber in ein paar Monaten/Jahren auch eher aktive Konkurrenz im GPU Markt haben anstatt eine Monopolstellung ausschließlich eines Herstellers??

Bitte versteh mich nicht falsch, ich versteh natürlich genau diesen Ansatz. Es würde wohl jeder genau so handeln - vor allem wenn das Angebot passt. Es sei dir gegönnt - auf Dauer ist das trotzdem nicht gut. Sich dann wie ein Schnitzel drüber zu freuen, dass die theoretisch auf dem Papier viel schnellere AMD GPU Jahre nach Release durch starke Preisnachlässe endlich in der Position ist, ein guter Deal zu sein ist mMn das falsche Signal. Das dann sogar noch als positive Eigenschaft oder Eigenart von AMD GPUs zu verargumentieren sogar gleich doppelt.
Theoretisch müsste eine OC Vega56 irgendwo knapp unterhalb einer 1080TI FE agieren... Dazu fehlt aber doch ne ganze Menge. Ne 1080TI mit halbwegs brauchbarer Kühlung gibts heute idR auch nicht für 309€. Selbst gebraucht dürfte das nix werden.
Die Karte ist halt dann irgendwo ihre 309€ wert - mehr aber auch nicht. Würde der Spaß so passen wie es auf dem Papier steht, müssten da eher 500€+ stehen...
 
  • Gefällt mir
Reaktionen: Blueline56
Miami Directx12 Durchschnitt 63,42, Directx11 61,29. Mumbai DirectX12 87,27, Directx11 72,58. DirectX12 läuft auch gefühlt besser.
Nachtrag: Habe die Auflösung vergessen, es sind 2560x1440.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Infi88 schrieb:
Jo Nvidia hat das DX12 und damit DLSS und RTX bei Hitman verzögert damit AMD in DX11 Benchmark-Pacours schlechter da steht . Wie kann man so einen Durchfall ernsthaft glauben :heul:.

Vor allem um dann mit DX12 immernoch 20% weniger FPS als ne poplige 1080 zu liefern??

Das Argument, NV muss bei DX12 nachlegen/nachbessern usw. ließt man ja immer wieder - aber wo müssen sie das denn wirklich? Sie liefern auch in DX12 die schnellsten Ergebnisse. Das da nun Nachbesserungspotential da ist, möchte vllt niemand abstreiten, aber eine Notwendigkeit ist da nun nicht zwangsweise zu erkennen.
 
  • Gefällt mir
Reaktionen: Infi88
Zurück
Oben