Test Tomb Raider Benchmark: DirectX 12 ist da, aber mehr Leistung gibt es nicht

Ich sage es jetzt einmal aus der Sicht von jemandem, der seit 3 Jahren am liebsten NVidia kauft.

Ist doch alles super! AMD zeigt NVidia, dass es auch besser geht und NVidia kann sich nicht auf seinen Lorbeeren ausruhen sondern muß sich anstrengen um die Marktanteile zu behalten. Das ist es doch genau, was Leute wollen, die auf keinen Fall ein Monopol habe wollen. Konkurrenz belebt das Geschäft.
1. Quartal 2017 kaufe ich wieder eine Neue GPU und da wird halt geschaut, wer was hat und wer was kann. Ich freue mich heute schon darauf Anfang 2017 die Testberichte zu studieren und meine Neue GPU auszusuchen.
 
leipziger1979 schrieb:
Welcher Wahnvorstellung muss man eigentlich unterliegen um der Meinung zu sein das nur durch eine neue API Version mehr Leistung herauskommt ?

[x] Keine Ahnung von Overhead

leipziger1979 schrieb:
Ich habe eher den Eindruck das die Entwickler, die bisher DX12 Spiele herausbrachten die mehr Leistung gegenüber < DX12 haben, durch Microsoft "speziell" motiviert wurden die < DX12 Engine absichtlich schlecht zu programmieren nur damit DX12 und damin Win10 sich besser verkaufen soll.
Wäre doch nicht das erste mal...

Ja alles von langer Hand vor Jahrzehnten von M$ geplant um jetzt nun Windows 10 besser verkaufen zu können. Und die ganze Fachpresse ist auch noch Komplize, Lügenpresse und so. Vulkan ist auch nur ein Trick von M$.

leipziger1979 schrieb:
Ein Ferrari den ich mit anderem Treibstoff betanke fährt auch nicht 50% schneller dadurch.

Nicht alles was hinkt ist ein Vergleich.
 
aus dem anderen Thread

sTOrM41 schrieb:
habe mal nen vergleichsvideo gemacht, 90% höhere minimum-fps unter dx12!

https://youtu.be/Yv9wVSdLq8k

da sind die Unterschied zugunsten DX12 schon recht gewaltig. Vielleicht ist der interne Bench einfach nichts was iwi CPU limitierend ist, man muss es wohl wirklich in einzelnen Szenen je nach Wetter usw anschauen.

Rechts unten sieht man ja die FPS.

Allerdings fehlt bei DX12 irgendwie dieser diffus über der Landschaft liegende Nebel etwas.
Ergänzung ()

Miuwa schrieb:
Das ist doch jetzt wirklich Wortklauberei. Man kann vielleicht nicht direkt von Geschwindigkeit der API sprechen, wohl aber von Effizienz, die wiederum direkt die Geschwindigkeit der SW beeinflusst. Je nach dem, wie eine API aufgebaut ist lassen sich bestimmte Aufgaben eben mehr oder weniger effizient bearbeiten und hier ist DX12 nun mal klar im Vorteil. Darüber hinaus erlaubt Dx12 Zugriff auf HW Features, die nicht via Dx11 angesprochen werden können (AC), was sich ebenfalls positiv auf die Geschwindigkeit der SW auswirken kann. Von einer schnelleren oder langsameren API zu reden finde ich daher durchaus OK, auch wenn es technisch natürlich nicht ganz akkurat ist.

Das Markierte ist das Entscheidende. Ich denke wenn man einfach eine deprecated API Funktion durch die neue DX12 Funktion ersetzt wird man im seltensten Fall eine einfache Verbesserung in der Performance sehen, auch wenn wir dann DX12 konform umgesetzt haben.

Die neue API Funktionen skalieren aber besser mit der GPU Leistung, ergo können API Aufrufe zB öfters erfolgen ohne Overhead wie in DX11 zu verursachen - was aber ein generelles Ändern der GameEngine bedeuten würde.

zB Drawcalls. Mag sein dass ein DX12 Drawcall leicht länger dauert als unter DX11, in DX12 aber locker 100k/s davon möglich sind während bei DX11 die CPU ab 20k am Anschlag rennt. Genau so treibt es AoS auf die Spitze.

-> Performance Gain bei DX12 sieht man also genau dann wenn die Engine das auch ausreizt oder zumindest mit der API anders umgeht als bei DX11, also kein einfacher Port der Fall ist.


Edit: Um dieser "Peinlich Diskussion" vorzubeugen wäre vielleicht auch mehr Aufklärungsarbeit seitens CB nötig, oder mal nen Kommentar ;)
Es gibt genug Experten wie Nai hier die sich auch etwas besser mit Grafik API usw auskennen... und ich finde auch mit etwas Blick übern Tellerrand sind die bisherigen DX12 Resultate durchaus verständlich.
 
Zuletzt bearbeitet:
@Krautmaster:

Wenn jemand wirklich interesse hat zu erfahren was die DX-API ist, wie sie funktioniert und was die Unterschiede zwischen DX11 und DX12 sind und dazu noch etwas englisch kann und 1 Stunde Zeit übrig hat, kann sich gerne mal diesen Rundgang durch DX12 (mit Unterschieden zu DX11) anschauen -> BUILD 2014

Detailliertere Informationen bietet das Folgevideo (ebenfalls rund 1 Stunde): BUILD 2015

Es ist explizit nur für die Personen geeignet die echtes Interesse daran haben. Alle die nur etwas brauchen wo sie draufschlagen können weil ihre Lieblingsgrafikkarten in einem Spiel nicht so laufen wie sie es erwarten, brauchen die Zeit nicht zu investieren.
 
zieh ich mir vllt heut Abend rein, dankeschön.

Wichtig ist halt zu erwähnen, dass eine einfache Portierung des DX11 Content auf DX12 je nach Aufbau und Eigenheit der Engine keinerlei höhere Durchschnittsperformance auf allen Systemen bringen muss. Auch wenn im Video oder von MS +20% mehr Performance erwähnt wird, dann nur unter bestimmten Rahmenbedingungen die erfüllt sein müssen, aber erstmal nichts über die Qualität eines Ports oder so aussagen.

Ich kann mir gut vorstellen das selbst Tomb Raider in gewissen Szenen eben genau diese +20% bringt, nur eben nicht in jeder.

Gerade auch dann wenn die CPU Leistung unter DX11 kritisch ist (siehe schwache CPU Benches) - dann sieht man schnell 20 oder gar mehr %. Unabh. von Marke und Farbe der GPu oder irgendwelchen persönlichen Präferenzen.
 
Zuletzt bearbeitet:
Einfach gute strategische, gewinnorientierte Planung bei Nvidia.
Genau so schauts aus, NV weis wie man mit GPUs Gewinn einfahrt, aber so richtig. Vram Krüppel sind seit 2007 Standard bei NV, Kunden zum Aufrüsten zu bewegen obwohl die Karte nicht kaputt ist, bzw. die Rohleistung noch ausreichen würde, fast so genial wie die 2 Glasplatten vom IPhone, damit die doppelte Chance vorliegt das das Glas splittert beim runter fallen, natürlich ohne Garantie Anspruch.

Für Leute die auf den Heilsbringer Pascal warten könnte es aber übel ausgehen. Im Moment ist es nicht sicher ob HW DX 12 Support also A. Shader vorliegen. Und NV passt sehr ungern die Architektur an, bei einem Shrink. Wenn man Pech hat ist erst Big Volta wieder eine top GPU in grünen Lager.

Wie schauts eigentlich mit dem Vram Verbrauch DX 11 v. DX 12 aus? Identisch? Oder gibts da Unterschiede?
 
Zuletzt bearbeitet:
Es gibt Unterschiede. Bei meiner GPU mit gleiche Settings ~600-800MB und das hatten wir auch schon beim Infiltrator-Bench.
Und jaa ...NV weiß ganz genau wie man Begehrlichkeiten weckt & dicke Gewinn generiert.^^ Ich denke mal, wenn Big-Maxwell/TI (sehr) gut egalisiert wird, dann haben "Sie" schon ihr Ziel erreicht und die Voraussetzungen mit neuem Fertigungsprozess sind gar nicht soo schlecht (Kepler/Maxwell 28nm).
Mal schauen, was uns wirklich erwarten wird. Ich gehe jedoch davon aus, dass Pascal "heiß wird" & somit folglich der Hetero zum Homo mutieren könnte. :D
 
Ja ...und das mit Texturen High, restliche Settings fast gemaxed mit SMAA @1440p ...:-)
 
Kasmopaya schrieb:
Mehr Vram Verbrauch unter DX 12?

?

Irgendwo müssen die Daten, die unter DX11 von CPU und CPU-RAM abgearbeitet wurden, ja auch unter DX12 liegen...

leipziger1979 schrieb:
Ein Ferrari den ich mit anderem Treibstoff betanke fährt auch nicht 50% schneller dadurch.

Wenn Du im Steuergerät die Verbrennungszeiten, Zündpunkt, das Klopfen anpasst sowie das Fahrwerk abstimmst, ist das sehr wohl möglich.
Und dann passt der Vergleich auch wieder.

DX12 als API ist nicht nur anderer Sprit, sondern auch eine andere Motorkonfiguration.
 
Zuletzt bearbeitet:
ich habs nicht nochmal gesondert getestet aber ausgehend von meinen Taskmanager Screenshots zieht Tomb Raider in DX12 auch deutlich mehr normalen Ram.
Ergänzung ()

SuddenDeathStgt schrieb:
Es gibt Unterschiede. Bei meiner GPU mit gleiche Settings ~600-800MB und das hatten wir auch schon beim Infiltrator-Bench.

was neues aus der UE4 Ecke wäre eh mal wieder nett ;)

https://www.youtube.com/watch?v=tqtxdUpo3mk

rennt ganz gut in 4K mit ner GTX 980 - und sieht lecker aus find ich
 
Zuletzt bearbeitet:
Vllt stimmt etwas mit der DX12 Portierung und CPU <-> GPU Aufgabenteilung nicht..? Würde mich bei einem nachträglichen Patch nicht wundern und ggf auch die "gleiche" Leistung wie unter DX11 erklären...
 
Bzgl. VRAM:
Den höheren Verbrauch hat man bei Mantle sehen können. Ich denke das DX12/Vulkan grundsätzlich einen höheren Speicher Verbrauch haben wird.
 
Einfach gute strategische, gewinnorientierte Planung bei Nvidia.
NVidia macht da eigentlich nur das, was die Kunden wollen. Öfters einmal etwas Neues, weil der Bedarf und der Wunsch zum kaufen ist beim Kunden vorhanden. Selbst mein Auto wird alle 2 Jahre Neu gekauft obwohl das alte Auto noch ohne Probleme fährt.
 
Irgendwo müssen die Daten, die unter DX11 von CPU und CPU-RAM abgearbeitet wurden, ja auch unter DX12 liegen...
Dx12 ist übrigens immer noch eine Grafik-API mit Compute-Support und keine, die automatisch das gesamte Spiel auf der GPU ablaufen lässt.

Ich weiß jetzt nicht, ob sich DX12 hinsichtlich des Speichermanagements groß von Vulkan unterscheidet, aber wenn nicht, dann gibt es da keinen prinzipiellen Speicher-Overhead, schon gar nicht in der Größenordnung - in der Praxis wird man aber nicht für jede Textur eigenen Speicher reservieren, sondern einen Block, in dem man mehrere Texturen unterbringen kann. Aussehen tut das dann natürlich wie benutzter VRAM, aber durch die explizitere Kontrolle kann es durchaus sein, dass ein Vulkan/Dx12-Renderpfad trotz scheinbar höherem VRAM-Verbrauch weniger Probleme mit 2GB-Karten hat als das OpenGL/Dx11-Gegenstück.

Aber wie gesagt, das hängt immer von der jeweiligen Implementierung ab.
 
Zuletzt bearbeitet:
Morphy2k schrieb:
Den höheren Verbrauch hat man bei Mantle sehen können. Ich denke das DX12/Vulkan grundsätzlich einen höheren Speicher Verbrauch haben wird.
Eher das Gegenteil wird der Fall sein. Texturen dürften demnächst etwas weniger Speicherplatz im VRam einnehmen. DX12 und Vulkan beherrscht jetzt nämlich auch die ASTC Textur Kompression, die um einiges effizienter sein kann als bisherige. DX12 unterstützt theoretisch sogar Jpeg, obwohl das sicherlich noch nicht mit aktuellen GPUs funktionieren wird. Das ist wohl eher was für die Zukunft.
Voraussetzung dafür ist natürlich, dass die Spiele Voll und Ganz auf DX12 setzen und keine DX11 Abwärtskompatibilität mehr bieten, sonst müsste der Entwickler die Texturen ja in mehreren Formaten doppelt und dreifach zur Verfügung stellen.
 
Zuletzt bearbeitet:
sonst müsste der Entwickler die Texturen ja in mehreren Formaten doppelt und dreifach zur Verfügung stellen.
Oder On-the-Fly-Kompression einbauen. Ich weiß jetzt nicht, wie die ASTC-Algorithmen aussehen, aber normalerweise ist Texturkompression relativ simpel und schnell, weil die Verfahren ja auch irgendwie in Hardware umgesetzt werden müssen, ohne dabei gleich hunderte Millionen von Transistoren darauf zu verschwenden.

Aber danke für den Link, da höre ich jetzt zum ersten Mal von (und stelle mit Freude fest, dass man das auch unter OpenGL nutzen kann, mit entsprechender Extension).

Edit: Okay, ASTC ist doch deutlich komplizierter zu codieren als die anderen Formate. Wird dann wohl doch nichts mit on-the-fly. :freak:
 
Zuletzt bearbeitet:
noxon schrieb:
Eben nicht. Genau das Gegenteil ist der Fall. Spiele für die neuen Konsolen sind fest auf 6 oder sogar 7 Kerne ausgelegt. ...

Häh? 6 oder 7 Kerne bedeutet doch Multicore, oder hab ich da was falsch verstanden?
 
Zurück
Oben