Test Tomb Raider Benchmark: DirectX 12 ist da, aber mehr Leistung gibt es nicht

ChrisMK72 schrieb:
Sind das echt ansonsten die gleichen Einstellungen ?



edit:

Moment ... im ersten Teil sah das Wetter aber doch deutlich heftiger aus von den Effekten, oder irre ich mich ?


https://youtu.be/3j7w8XMn7IE

hier mal etwas bessere quali, andere szene, 1080p und mit einsehbaren settings.

vram laut gpuz unter dx11 bei ~3,3gb und unter dx12 bei ~3,7gb.


ich muss allerdings auch dazu sagen das ich das gefühl nicht los werde dass das spiel unter dx11 schon mal besser lief.
ich kann mich jedenfalls nicht dran erinnern beim durchspielen vor paar wochen mal unter 40 fps gesehen zu haben.
 
Zuletzt bearbeitet:
@ echoez

Habe ja nicht behauptet dass ich es überhaupt auch nur versucht hätte. Die Sache ist dass wenn ich mir die kommis durchlesen mir jegliche Lust vergeht es auch nur zu versuchen...

OK also dann probier ich es mal und stelle eine Frage!

Diese da lautet: Wurde zum Maxwell 2.0 Release nicht laut und stark verkündet dass dies die erste GPU mit voller dx12 Unterstützung sei?
Und dass AMD dagegen nur das feature level 11.2 beherrsche?

Denkt mal scharf nach...
 
Die Ironie an dem ganzen ist das Intel derzeit die fortschrittlichste gpu anbietet in Hinblick auf die Features ,wenn auch nicht die schnellste :D .
Noch 3 Wochen dann kommt das erste AAA DX12 only Game mal schaun was uns da an Effekten oder Performance erwartet.
Und nach Tomb Rider wie der DX12 support in Deus Ex umgesetzt werden kann, da haben sie ja noch 1 Jahr Zeit für Optimierungen.

Bin im Hinblick auf dx12 und Zen auch schon gespannt, wie sich die 8 Kerner von AMD dann schlagen werden in den DX12 Games wenn die 8 Kerne auch optimal angesprochen werden können.
 
Komischerweise wusste square enix bereits ein Jahr zuvor wie man dx12 programmiert wie sie mit final fantasy auf der dx 12 tech demo von Microsoft auch eindrucksvoll zur schau stellten.

Und hitman konnten sie auch.

Und ich habe selbst eine nvidia für all diejenigen die mir nun fanboytum unterstellen möchten.

Und wieder mal keine ernstzunehmende Antwort zu erwarten!
 
Zuletzt bearbeitet:
@toni77 Square Enix ist erstmal Publisher und nicht Entwickler. Hitman und Tomb Raider kommen von zwei völlig verschiedenen Studios, und ich glaube kaum, dass hier gewollt war, dass Dx12 so abstinkt. Da kommt garantiert irgendwann noch ein Patch hinterher.
 
Rein subjektiv läuft ROTTR bei mir inzwischen mit DX12 besser als mit DX11. In der Summe läuft es einfach nahezu ohne hackeln und ist meiner Meinung nach wesentlich schöner anzusehen.
Leider stürzt das Spiel bei mir mit aktiviertem "Exklusives Vollbild" andauend ab !? Ist es deaktiviert läuft es problemlos.
 
toni77 schrieb:
OK also dann probier ich es mal und stelle eine Frage!

Diese da lautet: Wurde zum Maxwell 2.0 Release nicht laut und stark verkündet dass dies die erste GPU mit voller dx12 Unterstützung sei?
Und dass AMD dagegen nur das feature level 11.2 beherrsche?

Nein, wurde es nicht.
 
toni77 schrieb:
Komischerweise wusste square enix bereits ein Jahr zuvor wie man dx12 programmiert wie sie mit final fantasy auf der dx 12 tech demo von Microsoft auch eindrucksvoll zur schau stellten.

Und hitman konnten sie auch.
"Square Enix" ist der Publisher. Gehst du wirklich davon aus, dass sämtliche Entwickler, die unter dem SquareEnix-Logo veröffentlichen (SE Tokio, SE US, SE Europe, SE China, Crystal Dynamics, Eidos Montreal, Eidos Shanghai, IO Interactive, Nixxes Software, Avalanche Studios, Dontnot Entertainment,...) alle auf dem selben Technik- und Wissensstand sind und alle Zugriff auf die interne SE-Engine und deren DX12-Optimierungen haben?

Bei Rise of the Tomb Raider kann es ja schon zu Problemen führen, dass die verschiedenen Versionen von unterschiedlichen Teams stammen (XBO + PS4 = Crystal Dynamics, Xbox360 + PC-Version = Nixxes Software)
 
toni77 schrieb:
Wie wäre es denn mal das Kind beim Namen zu nennen? Denn der eigentliche Name dafür ist immer noch kartellisierung ...
Oh ja ... das große Anti-AMD-Kartell ... mit ganzen 2 Teilnehmern, NVidia und Intel.

Ich bleibe dabei:
Chillt mal ne Runde und seht die Dinge etwas objektiver.
Wer hier hat denn wirklich Ahnung davon, wie DX11, DX12 und die unterschiedlichen Architekturen von NVidia und AMD funktionieren?
Wer von euch hat denn selbst schon mal eine Grafik-Engine programmiert und dabei eventuell festgestellt, daß die Performance auf bestimmter Hardware nicht den Erwartungen entspricht?

Kleinere Fluktuationen sind eh normal, so große wie bei AoS, Hitman oder Assetto Corsa (mit aktiviertem MSAA) eher selten.
Kann aber vorkommen, und hat sicher nicht damit zu tun, daß ein Hersteller Entwickler besticht, damit ihr Spiel auf der Hardware des anderen Herstellers schlecht läuft, sondern viel eher damit, daß ein Entwickler eine sehr spezielle Technik verwendet hat, die auf bestimmten Architekturen eben nicht so gut läuft.
 
II n II d II schrieb:
Damit sollten eigentlich alle Titel, die auf den neuen Konsolen entwickelt werden, schon vom Entwickler massiv auf Multicore getrimmt sein. Allein schon deswegen ist DirectX12 überfällig.
Eben nicht. Genau das Gegenteil ist der Fall. Spiele für die neuen Konsolen sind fest auf 6 oder sogar 7 Kerne ausgelegt und erst mit DX12 ist es den Entwicklern möglich diese Parallelisierung auch auf dem PC zu realisieren. Mit DX11 hast du als Entwickler sehr wenig Kontrolle darüber, wie die Aufgaben auf die Kerne verteilt werden und kannst es gar nicht auf so viele Kerne verteilen. Dort entscheidet der Treiber wie das passiert und der ist maximal in der Lage es auf 3-4 Kerne zu verteilen. Deshalb brauchen wir DX12. Besonders da den PCs so langsam auch schon wieder mehr Kerne als den Konsolen zur Verfügung stehen.

@ZeT
Aber ehrlich. Kaum zu glauben, was hier für'n Stuss erzählt wird.
Da wird eine brandneue API released und von den Entwicklern wird erwartet, dass sie sofort die perferkte Ergebnisse abliefern. All diese Titel die jetzt veröffentlicht wurden, waren alles nur Trainingsprojekte an denen Entwickler ein wenig herumgespielt haben.
Das ist in etwa so, als ob man einem Java Entwickler jetzt auf einmal das .NET Framework vor die Nase setzt und ihm sagt, dass er eine Java Anwendungen auf .NET Portieren sollen.
Das Ergebnis wird garantiert immer sein, dass die neu portierte Anwendung schlechter ist als die vorherige. Ist ja logisch. Erst hat 10 Jahre lang mit Java entwickelt und eine perfekte Java Anwendung vorliegen gehabt und soll jetzt auf einmal das gleiche Ding in .NET schreiben mit dem er noch nie etwas zu tun gehabt hatte. Das kann nur schlechter werden.
Ziel der Ganze Sache war aber, dass er sich mit .NET vertraut gemacht hat, sodass er schon etwas Erfahrung für die nächste Anwendung sammeln konnten, damit die etwas besser wird.

Bezogen auf Spiele bedeutet das: Die Patches für Tomb Raider, Hitman, GoW und all diese Spiele sind Übungsprojekte, damit man Anfängerfehler nicht in echten Projekten begeht, die demnächst. Das waren praktisch interne Sculungen der Mitarbeiter, die man später noch an den Kunden verkaufen kann oder in Microsofts Fall teilweise verschenkt um Promotion für Win 10 zu machen.
 
Zuletzt bearbeitet:
Erstaunlich wie viele Aluhutträger hier unterwegs sind. Was DX12 hier zeigt ist vollkommen normal, herrscht kein CPU Bound ist DX11 optimierter und schneller. Gibt genug Cases in denen die langzeitoptimierte DX11 Fassung längere Balken zeigt, vollkommen normal. Eine neue API macht perse nicht alles besser, nur unter bestimmten Umständen die bei DX12 eben be schwachen CPU oder gezielter extremer CPU Last wie AoS zu tragen kommen.

Was hier erwartet wird ist teilweise lächerlich. Viele Games hier haben sicher vereinzelte Szenen in denen die CPU limitiert, da bringt der Port auf DX12 was. Wirklich viel bringen wird DX12 erst wenn es der einzige Pfad ist und die Umsetzung in DX11 kaum möglich wäre da.

Mit Nvidia, Gameworks, AMD und sonstwelchen Verschwörungstheorien hat das nichts zu tun...
 
Zuletzt bearbeitet:
Conceptions schrieb:
Man sieht doch ganz simpel bei Gameworks wie nvidia AMD benachteiligen kann. Nicht nur das AMD vor Release nichts optimieren kann, und nach Release auch nur bedingt, sondern es werden einfach Tesselationlevel eingestellt, die sichtbar nichts bringen und nur Leistung fressen sollen.

Das sieht man dann besonders schön wenn nvidia die Kepler Architektur "opfert" nur um Maxwell zu pushen und die AMD Karten schlechter dastehen zu lassen. (Man sieht ja die Auswirkungen wenn man per AMD Treiber eine geringere Tesselationstufe erzwingt)

Das man seine Kepler Kunden damit schlechter dastehen lässt als nötig und deren Hardware ebenfalls künstlich altern lässt nimmt man in Kauf bzw. forciert man vielleicht sogar. Im besten Falle rennt dann der Kepler Besitzer los und kauft sich Maxwell.

Jetzt wird vermutlich gleich jemand mit (AotS und) Asynchronous Shader kommen, allerdings reden wir hier von einem Feature von DX12, woran nvidia seit Jahren mitarbeiten konnte und Einsicht hatte.

Weisst du was aber das schöne daran ist? Wir sind mitten im Entwicklersterben von 1980-1989.. Der Markt reinigt sich selber, und es wird sich zeigen, dass Hardwarehersteller keinen Eingriff in Engines haben sollten.. Die UT Engine, die Crtek Engine aber auch die Frostbite Engine was man erwarten kann, WENN kein Hersteller drin rumpfuscht.
Ich sehe das aber wie du. Aber bei 80% Marktanteil ist die Gier nach Profit eben höher als der logische Menschenverstand. Warum machen wohl Entwickler wie Roberts, Meier ua. den Mist nicht mehr mit? Weil Spiele für Spieler sind und nicht für Großkonzerne. Aber ich glaube auch dass EA noch verschwindet.

@ Topic:
Der Test zeigt, dass das CPU Limit angehoben wurde, auch bei AMD.. Was aber massiv nach modifizierten DX 12 Stinkt ist der Unterschiedliche Zuwachs. Selbst eine BETA wie AoTS sieht da besser aus, und ich vermute aber dass das Thema DX12 und TR auch noch nicht gegessen ist. In Redmont müsste man sich grade schämen.. Sowas ist dann auch noch ein Vorzeigetitel für DX12 :D Ich muss lachen

Intressanterweise müsste aber DX12 beide GPU AVG Frames anheben.. Tut es aber nur bei Nvidia.. Naja sowas kann man schonmal übersehen ;)

@ Krautmaster:
Das Widerspricht schon der Logik.. Wenn die CPU entlastet wird, muss die GPU mehr FPS liefern, weil sich die Grenzen nach oben verschieben.. Du willst wohl kaum behaupten eine FuryX Limitiert, eine 980Ti aber nicht ;)
 
Zuletzt bearbeitet:
Die Qualität von DX12 misst sich weniger an der Performance, es geht in erster Linie um Beseitigung von CPU overhead. Das sind 2 paar Stiefel. Schaut euch die Auslastung eurer CPU an, DX12 macht das was es soll. Auch bei Tomb Raider. Wenn MS von Mehrleistung spricht dann eben auch nur dann wenn der CPU Overhead ausbremst, tut er das nicht ist die Mehrleistung = 0, oder wie man sieht leicht negativ. Absolut normal. AoS bringt viel weil das Game eben auf CPU overhead getrimmt ist, quasi ein Best Case Szenario für DX12.

Kommt weg von dem Gedanken dass DX12 immer schneller sein muss als DX11. Das ist unlogisch und wird nicht der Fall sein.

EDIT : Die Entwickler können Dank DX12 sorgloser mit der neuen API bezüglich CPU Overhead umgehen, das ist der wesentliche Vorteil (wirklich davon Gebrauch werden die wenigsten aktuellen Titel machen, das dauert Jahre) . Gerade bei NEXT Gens an GPU mit 2-10 mal so vielen Shader war der Schritt nötig die API dahingehend anzupassen. All die Dinge lassen wenig oder aktuell schwer rein an Benchmarks festhalten...
 
Zuletzt bearbeitet:
Wer seine Beiträge sucht -> Aqua.
Zur Sicherheit habe ich jedoch Erinnerungskärtchen geschickt.
 
den titel des artikels finde ich nicht gut gewählt.

das dx12 in tomb raider was bringen kann zeigt ihr in eurem artikel sogar selber auf, der fx8370 kann bis zu 30% zulegen.

passender fände ich zb diesen titel: Tomb Raider Benchmark: DirectX 12 ist da, bringt aber nur selten mehr Leistung.
 
Krautmaster schrieb:
EDIT : Die Entwickler können Dank DX12 sorgloser mit der neuen API bezüglich CPU Overhead umgehen, das ist der wesentliche Vorteil (wirklich davon Gebrauch werden die wenigsten aktuellen Titel machen, das dauert Jahre) . Gerade bei NEXT Gens an GPU mit 2-10 mal so vielen Shader war der Schritt nötig die API dahingehend anzupassen. All die Dinge lassen wenig oder aktuell schwer rein an Benchmarks festhalten...

Kann dem nur zustimmen aber anscheinend glauben alle hier DX12 müsste vom Stand direkt bessere Leistungen bieten und Vulkan wird gleich sogar die ganze Welt retten.

DX12 wird in erster Linie erst einmal Räume schaffen um Spiele mit mehr Objekten, mehr Details oder zusätzlicher AI auszurüsten. Nichts anderes wurde bereits von Microsoft in diversen Videos gezeigt. Wer sich so eine Entwicklung mal ansehen möchte, sollte mal den kleinen Bericht von Bioware durchlesen als man vor 5 Jahren mit DirectX11 anfing.
http://blog.bioware.com/2011/03/03/the-technology-of-dragon-age-ii-–-part-2/

Es wird noch ein paar Jahre dauern bis die kommenden Spiele vollständig von DirectX12 profitieren werden, man sollte sich alleine mal ansehen wie viele Jahre es gedauert hat bis Spiele wie Tomb Raider kamen die sowohl einen x Kern Prozessor als auch eine 8 GB Grafikkarte vollständig auslasten können.

Nicht einmal Microsoft erzählt irgendwelche Märchen in dem Werbevideo und spricht klar von bis zu 20% besserer Grafikleistung und bis zu 50% besserer CPU Leistung und wenn man die jetzigen ersten Gehversuche sich so anschaut, so dürfte das auch gut zutreffen.
https://www.youtube.com/embed/oLWamwzhQ34

Im Umkehrschluss bedeutet es aber auch, dass man mit einem übertakteten i7-6700 oder einen ähnlich schnellen Prozessor erst einmal keine Vorteile zu erwarten hat. Ebensowenig sollte man irgendwelche Wunder erwarten wenn man bisher ein Spiel in 4K auf Ultra spielen wollte und nur Standbilder gesehen hat.

Die geniale Directx12 Demo von Square Enix letztes Jahr lief auch auf VIER potenten Grafikkarten und zeigte vor allen etwas, was mit DirectX 11 so noch nicht möglich war - die viel höhere Parallelisierung. Für sowas müssen nun erst einmal wieder Grafikkarten und Prozessoren herauskommen die mehr Kerne bieten.
https://www.youtube.com/watch?v=ePBGO8h5OJQ

Was DX12 also vor allem für die Zukunft bringt ist der sinnvolle Einsatz von CPUs mit 8, 16 oder gar 24 Kernen die es im Serverbereich schon seit Jahren gibt und auch der sinnvolle Einsatz von mehreren GPUs ohne die bisherigen Probleme mit Mikrorucklern, suboptimaler Auslastung und Kompatibilität. Erst dann wird man eine wirklich neue Generation von Spielen bewundern können.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Erstaunlich wie viele Aluhutträger hier unterwegs sind. Was DX12 hier zeigt ist vollkommen normal, herrscht kein CPU Bound ist DX11 optimierter und schneller. Gibt genug Cases in denen die langzeitoptimierte DX11 Fassung längere Balken zeigt, vollkommen normal. Eine neue API macht perse nicht alles besser, nur unter bestimmten Umständen die bei DX12 eben be schwachen CPU oder gezielter extremer CPU Last wie AoS zu tragen kommen.

Was hier erwartet wird ist teilweise lächerlich. Viele Games hier haben sicher vereinzelte Szenen in denen die CPU limitiert, da bringt der Port auf DX12 was. Wirklich viel bringen wird DX12 erst wenn es der einzige Pfad ist und die Umsetzung in DX11 kaum möglich wäre da.

Mit Nvidia, Gameworks, AMD und sonstwelchen Verschwörungstheorien hat das nichts zu tun...

*lach* DX12 ist die eindeutig "schneller" API, wer dies anders sieht hat schlicht keine Ahnung. Das DX11 hier schneller ist bedeutet lediglich, dass der DX12 "Port" beschissen geplant/umgesetzt wurde.
Und da ist es eben doch schon bezeichnend wie DX12 GameWorks und DX12 Gaming Evolved Titel hier abschneiden.

GameWorks => Spiel wird unter DX12 eher langsamer
Gaming Evolved => Spiel wird unter DX12 eher schneller

Nvidia ist entzaubert, einen WunderTreiber gibt es nicht. Es gibt schlicht DX11 Nvidia Hardware und DX12 AMD Hardware.
Während AMD durch ihre guten DX11 Treiber zumindest noch mithalten konnte (zB Pref index 390vs970) scheint Nvidia mit ihren schwachen DX12 Treiber stark kämpfen zu müssen.
 
UltraWurst schrieb:
Oh ja ... das große Anti-AMD-Kartell ... mit ganzen 2 Teilnehmern, NVidia und Intel.

Ich bleibe dabei:
Chillt mal ne Runde und seht die Dinge etwas objektiver.
Wer hier hat denn wirklich Ahnung davon, wie DX11, DX12 und die unterschiedlichen Architekturen von NVidia und AMD funktionieren?
Wer von euch hat denn selbst schon mal eine Grafik-Engine programmiert und dabei eventuell festgestellt, daß die Performance auf bestimmter Hardware nicht den Erwartungen entspricht?

Kleinere Fluktuationen sind eh normal, so große wie bei AoS, Hitman oder Assetto Corsa (mit aktiviertem MSAA) eher selten.
Kann aber vorkommen, und hat sicher nicht damit zu tun, daß ein Hersteller Entwickler besticht, damit ihr Spiel auf der Hardware des anderen Herstellers schlecht läuft, sondern viel eher damit, daß ein Entwickler eine sehr spezielle Technik verwendet hat, die auf bestimmten Architekturen eben nicht so gut läuft.

Schon alleine das es nur 3 Firmen gibt in einem solchen Markt sollte Dir doch zeigen wie ernst die Lage ist -.-
 
Krautmaster schrieb:
es geht in erster Linie um Beseitigung von CPU overhead.
Das ist sicherlich ein wichtiger Punkt aber eben nicht der einzige. Der direktere Zugriff auf die Graka erlaubt (zumindest theoretisch) auch eine effizientere Nutzung der Grafikkarte. Aber das kommt natürlich nicht von selbst, sondern die entsprechenden Optimierungen (die in vielen Fällen sicher nicht trivial sind) müssen auch erst mal durchgeführt werden. Unter DX11 machen das in vielen Fällen die Treiberhersteller bei DX12 liegt das aber in der Verantwortung der Spieleentwickler.
 
janeeisklar schrieb:
*lach* DX12 ist die eindeutig "schneller" API, wer dies anders sieht hat schlicht keine Ahnung
...

Quelle dafür dass DX12 immer die schnellere API ist? Diverse API Funktionen sind sicher fixer, aber nicht zwangsläufig. Dein comment zeigt eher das du keine Ahnung hast was ne API ist und dein Tellerrand recht beschränkt ist.

Die Entlastung der CPU und Reduzierung des Overheads kann auch "Kosten". Das kann man nicht zwangsläufig mit "schneller" gleich setzen. Zeigen Tests mit schnellen CPU im GPU Limit zur Zeit recht deutlich.

@dirkekteren Zugriff auf GPU

Da ist auch viel Marketing Bla Bla dabei. Ein Port wäre dann schon sehr komplex und GPU Architekturabhängig würde man das heute ausreizen. Wird heute kaum ne Engine oder Port tun. AoS vllt als Techdemo noch am ehesten.
 
Zuletzt bearbeitet:
Zurück
Oben