Test Tomb Raider Benchmark: DirectX 12 ist da, aber mehr Leistung gibt es nicht

Es sollte wohl kein Geheimnis sein, dass Nvidia Programmierer bereitstellt, die bei Entwicklern helfen, die Engine entsprechend zu optimieren. Allerdings sollte man schon etwas aufpassen, hier gleich die absichtliche Schädigung des Konkurrenten vorzuwerfen, denn das Bild von Tomb Raider ist eben unter DX12 eines, was wir in Zukunft häufiger zu sehen bekommen werden, wenn die Entwickler eben halbherzig den Renderpfad unterstützen.

Es verlagert wie eingangs von mir erwähnt massiven Aufwand weg von der DX11 allinwonder Pipeline hin zum hardwarenahen Programmcode, wo man sich nicht nur um alle Dinge selbst kümmern kann, sondern es auch explizit muss, damit es sauber läuft und das Performance-Potential entsprechend freigibt. Dass es vielleicht noch unterschiedliche Game-Engines bei Hitman vs. TombRaider sind aus den jeweiligen Spiele-Support-Reihen der entsprechenden Hersteller, sorgt wohl für das übrige. Jedoch profitiert Nvidia keineswegs von DX12, in bisher keinem Spiel.
 
Die Leute müssen kapieren dass DX12 nichts anderes als DX11 mit Multi-Core Support ist.
Primär ist DX12 damit darauf ausgelegt, um langsamme Prozessoren von ihrem Flaschenhals-Dasein zu befreien.

Was an diesem Benchmark stört ist die Tatsache, dass die Leistung unter DX12 bei beiden Herstellern geringer ist, als mit DX11.
Das schließt mal wieder auf einen billigen Wrapper, d.h. "Hey im DX11, ermm i mean 12" - im Hintergrund beschränkt sich diese Änderung wie oben beschrieben darauf, den Single-Threaded CPU Flaschenhals zu entfernen.

Von Asyncrous Shaders sieht man hier leider nichts, mal sehen ob hier noch was nachgereicht wird ;)
Ansonsten ist dieser Romb Raider für mich kein richtiger DX12 Titel, nur ein relativ optimierter DX11 Titel mit DX12 Wrapper.

GoW lässt grüßen, *gähn.

mfg,
Max
 
Die Leute müssen kapieren dass DX12 nichts anderes als DX11 mit Multi-Core Support ist.
Eigentlich sollte DX11 schon Multicore können, geliefert haben es nicht mal eine Handvoll Spiele.
 
Palmdale schrieb:
Es sollte wohl kein Geheimnis sein, dass Nvidia Programmierer bereitstellt, die bei Entwicklern helfen, die Engine entsprechend zu optimieren. Allerdings sollte man schon etwas aufpassen, hier gleich die absichtliche Schädigung des Konkurrenten vorzuwerfen
Zumindest ich hab auch nichts von "Absichtlicher Schädigung" gesagt, aber es geht hier immer um Relationen (wie schnell is Graka X im Vergleich zu Y) und natürlich schädigt es die Konkurrenz (in Relation), wenn die Entwicklung (aus gutem Grund) stärker auf Nvidia Karten fokussiert ist. Ob man das nun als unmoralisch oder einfach nur als wirtschaftliches Denken ansieht kann jeder für sich entscheiden. Etwas anders sähe es evtl. aus, wenn Nvidia ein echtes Monopol hätte - dann gelten strengere Regeln, aber soweit sind sie noch nicht (insbesondere wenn man den Konsolenmarkt miteinbezieht).

Ein ganz interessanter Absatz aus diesem Artikel (bei dem es allerdings um OpenGL geht):
This vendor is extremely savvy and strategic about embedding its devs directly into key game teams to make things happen. This is a double edged sword, because these devs will refuse to debug issues on other vendor's drivers, and they view GL only through the lens of how it's implemented by their driver. These embedded devs will purposely do things that they know are performant on their driver, with no idea how these things impact other drivers.

Historically, this vendor will do things like internally replace entire shaders for key titles to make them perform better (sometimes much better). Most drivers probably do stuff like this occasionally, but this vendor will stop at nothing for performance. What does this mean to the PC game industry or graphics devs? It means you, as "Joe Graphics Developer", have little chance of achieving the same technical feats in your title (even if you use the exact same algorithms!) because you don't have an embedded vendor driver engineer working specifically on your title making sure the driver does exactly the right thing (using low-level optimized shaders) when your specific game or engine is running. It also means that, historically, some of the PC graphics legends you know about aren't quite as smart or capable as history paints them to be, because they had a lot of help.

Vendor A is also jokingly known as the "Graphics Mafia". Be very careful if a dev from Vendor A gets embedded into your team. These guys are serious business.
 
Also ich muss jetzt auch meinen Senf hinzugeben !


Betrachtet man Tomb Raider und den Verlauf der Leistung wie nah AMD an die Nvidia Karten in den hohen Auflösungen kommt. Dann fragt man sich wirklich wie in aller Welt kann Nvidia in Full HD unter DX12 im Vergleich zwischen Fury X und 980Ti fast 50% schneller sein ? :D
Die Fury X ist zB. in Hitman unter DX 12 nur 14% schneller in Full HD, bei einem Gaming Evolved Titel ?

Also Bitte, da muss man nicht einmal darüber nachdenken, dass etwas Faul ist.
Abgesehen davon ist die AMD bei Hitman selbst in der Paradedisziplin, nämlich den hohen Auflösungen maximal 20% schneller als die Nvidia.

Betrachtet man nun die 10% Mehrleistung der Nvidia unter 4K in Tomb Raider, machen die Leistungsverhältnisse schon wesentlich mehr Sinn.

Ich habe den Eindruck, dass Nvidia die Implementierung von AS bewusst unterdrückt hat um die eigenen Karten in DX11 Manier besser dastehen zu lassen und die Auslastung der AMD Karten in niedrigen Auflösungen zu Drücken und die Leistung zu verringern ( schließlich profitieren die AMD Karten nur von DX 12 wenn die AS-Einheiten alle Shader vollständig auslasten)
Das ist meiner Ansicht nach die einzige logische Erklärung dafür, dass sich die AMD-Karten so unerwartet verhalten^^

Die Werte erinnern mich ziemlich Stark an die Benchmarkergebnisse von Project Cars, ein Schelm wer böses denkt.
 
Zuletzt bearbeitet:
Also jetzt weiß ich, wieso MS nur die 980 GTX TI gepostet hat. Es ist offensichtlich die einzige Karte die von dem DX12 Treiber profitiert.
Man könnte meinen, man hat den Patch nur mit dieser Karte entwickelt und getestet.

Also recht spannend, speziell soll das Spiel nicht eigentlich Async Compute verwenden ? Oder gibt es da vllt sogar noch einen Bug ?
Ich würde nur als 980 GTX TI hier DX12 aktivieren, der Rest verliert ordentlich, speziell was passiert da mit der 770 GTX ?

Andere Frage, könnte es sein, dass es vllt am VRAM liegt ? Zu mindestens bei den NV Karten ? Gibt es da auch einen Bericht zur Befüllung des VRAMs ? (also ob DX12 da mehr benötigt) ?
Wobei dann sollte die R9 390(X) mit 8 GB auch an Performance gewinnen und nicht abnehmen.
 
Zuletzt bearbeitet:
was solls...

in einem Jahr kräht kein Hahn mehr danach...

erinnert mich irgendwie wie damals der Umstieg von Dos nach Windows...das geht nicht..nicht zu gebrauchen usw...und heute will keiner mehr Dos... :lol:

also abwarten und Brötchen essen und Kaffee trinken...das wird schon mit DirectX12 :D
 
Raucherdackel! schrieb:
Ganz klar: aufgrund der bisherigen DX12 Tests, in denen Nvidia furchtbar schlecht abschnitt, mussten sie was unternehmen. Also wird hier durch Gameworks wieder mal AMD ausgebremst. Dies ist das einzige Spiel, bei dem AMD unter DX12 langsamer ist als unter DX11, da KANN UND MUSS was nicht stimmen.

Pfui NVIDIA!
Vllt waren das andere auch nur "AMD Techdemos"und die Realität ist hier wieder da?!?

aivazi schrieb:
Die Werte erinnern mich ziemlich Stark an die Benchmarkergebnisse von Project Cars, ein Schelm wer böses denkt.
Du meinst die Faulheit AMDs?
 
paunaro schrieb:
Du meinst die Faulheit AMDs?

Wenn du meinst dass eine Fury X die unter Full HD genauso schnell ist wie eine GTX 970 aufeinmal in 4K mit der GTX 980Ti mithalten kann, dann gute Nacht :D

Da fehlt die Implementierung von AS ob du es wahrhaben willst oder nicht xD

Die Shader werden ausgelastet, aber nur in hohen Auflösungen wie in DX11 ^^

Obwohl es sich hier um DX12 handelt.
 
paunaro schrieb:
Vllt waren das andere auch nur "AMD Techdemos"und die Realität ist hier wieder da?!?
Stimmt, deswegen skaliert auch Nvidia hier (im Vergleich zu Hitman) deutlich schlechter, wenn es mit schwächeren CPUs ins Limit geht.
 
@ampre
Hast Du das was Du verlinkt hast eigentlich gelesen und auch verstanden oder warum kommst Du zu so einem komischen Schluß?
 
Leider finde ich den original Link nicht mehr. Der wurde komischer weiße gelöscht. Aber der Text bei HT4u deutet es ja schon an. Gib mir Zeit dann finde ich Ihn

Bitte schön unten den hervorgehobenen Text:
http://www.guru3d.com/news-story/nv...12-benchmark-to-disable-certain-settings.html

Certainly I could see how one might see that we are working closer with one hardware vendor then the other, but the numbers don't really bare that out. Since we've started, I think we've had about 3 site visits from NVidia, 3 from AMD, and 2 from Intel ( and 0 from Microsoft, but they never come visit anyone ;(). Nvidia was actually a far more active collaborator over the summer then AMD was, If you judged from email traffic and code-checkins, you'd draw the conclusion we were working closer with Nvidia rather than AMD wink.gif As you've pointed out, there does exist a marketing agreement between Stardock (our publisher) for Ashes with AMD. But this is typical of almost every major PC game I've ever worked on (Civ 5 had a marketing agreement with NVidia, for example). Without getting into the specifics, I believe the primary goal of AMD is to promote D3D12 titles as they have also lined up a few other D3D12 games.
 
Zuletzt bearbeitet:
@ampre:

Nvidia hatte auch Oxide Games kritisiert, weil sie AS auf Nvidia Karten mit dem selben Standard haben laufen lassen, wie auf AMD-Karten. ( Der Standard ist DX12 Standard in der API das hat MS entwicklet und kein Gameworksgedöhns)

Weil Nvidia Karten dadurch einen hohen Leistungseinbruch hatten und AMD Karten dagegen massiv profitiert hatten, hat Nvidia AS auf den eigenen Karten deaktiviert, damit diese nicht zu schlecht darstehen.

Anschließend hat sich Nvidia mit Oxide Games in Verbindung gesetzt damit AS auch auf AMD Karten deaktiviert wird, die Entwickler hatten auch erwähnt dass Nvidia "finanzielle Mittel" angeboten hätte.

Und die Moral von der Geschicht AS läuft auf Nvidia immer noch nicht :D

Quelle:http://www.heise.de/newsticker/meld...karten-ein-vollkommenes-Desaster-2801497.html

Nach Angaben von Oxide Games habe Nvidia einige falsche Aussagen getroffen. Die PR-Abteilung von Nvidia habe auf die Entwickler Druck ausgeübt, damit sie bestimmte Einstellungen im Ashes-of-Singularity-Benchmark deaktivieren. Oxide Games habe diese Forderungen abgelehnt, was Nvidia "ein bisschen zu persönlich genommen habe".
 
Zuletzt bearbeitet:
Was mich ja schon gewundert hat ist, als mitgeteilt wurde, das der Patch 130.MB beträgt und in diesem DX12 wie auch VXAO nachgereicht wird. Irgendwie hätte ich da schon ein größeres Volumen erwartet, ich denke das ein von vornherein auf DX12 programmiertes Game deutlich mehr als 130.MB für DX12 an Volumen benötigt. Werden denn in diesem DX12 Patch auch schon FL_12.1 Features für Nvidia Grafikkarten mit Maxwell V2 Chip genutzt?
 
"DirectX12 ist da, aber mehr Leistung gibt es nicht" ... ist doch gut, wenn es nicht mehr Leistung gibt. Das heißt ja, dass es abseits von DirectX12 nicht mehr Leistung gibt und DirectX12 somit top ist, oder? ^^
 
Lars_SHG schrieb:
Meine Güte, was muss man verblendet sein wenn man annimmt, dass Games ABSICHTLICH unterschiedlich optimiert werden um einen Graka Hersteller zu benachteiligen und den anderen zu bevorteilen?
Man stelle sich mal vor so etwas würde der Spiele Entwickler / Vertreiber mitbekommen, dass sein Game extra mies gepatcht wurde um hier einer dritten Partei einen unterzujubeln! Gerade in den USA - die würden die Leute die das machen verklagen das die den Laden dicht machen können!
Und nein, die Spiele-Hersteller würden da auf keinen Fall mitmachen, denn die verdienen ja damit ihr Geld bzw. verlieren Geld wenn es für einen Teil der Kunden schlecht gepatched wird oder auch nur schlechter läuft!

Naiv oder dumm?
Warum macht Nvidia dann Grafikeffekte oder Physik, welche nur auf ihren Karten laufen? Warum gibts die, wenn Entwickler Grafikkartenhersteller nicht explizit unterstützen? Warum greift Nvidia mit entsandten Entwicklern Spieleherstellern unter die Arme.
Die Spielehersteller verdienen mit jedem verkauftem Spiel. Zusätzliche Einnahmen gibts von Grafikkartenherstellern für die Optimierung. Interessant wirds dann bei Scheinrechnungen, Schmiergeld, etc... Dazu sag ich nur: Jeder hat seinen Preis!
Aber das gibts ja für dich alles nicht...
*facepalm*
 
Zurück
Oben