Test Ashes of the Singularity: DirectX-12-Benchmarks mit Grafikkarten von AMD und Nvidia

Es ist viel zu früh um zu sehen was DX12 kann und was nicht. Sowas kann man auch nicht anhand eines Alpha Tests bewerten. Ist zwar schön das man sich die Mühe gemacht hat, aber ich warte da lieber ab bis die ersten Spiele wirklich auf dem markt sind.
 
Auf Vulkan gebe ich persönlich gar nichts, diese API wird sicher effizient sein aber im Consumer Bereich auch ein Nischendasein fristen für populäre Spiele und Anwendungen.
(meine persönliche Meinung)
 
Besten Dank für den Test @ CB und Lob dafür, dass die GTX770 als Kepler Karte getestet wurde und (sorry @ Zeedy ;) ) nicht die GTX780(Ti), deren Käuferschicht damals wohl um einiges kleiner gewesen sein dürfte (und natürlich spielt ein wenig Eigennutz mit, denn meine GTX 670OC ist auch besser mit der GTX770 vergleichbar :D ).

Gute Zeiten für AMD, so wie es ausschaut, kratzen dürfte die bessere Auslastung von AMD CPUs Intel (noch) nicht, aber ein Vergleich von Intel iGPUs würde mich interessieren (wie diese mit DX12 anstatt DX11 zurecht kommen), aber vermutlich gibt es von Intel noch keine speziell an AotS angepassten Treiber und der Vergleich wäre wohl eher unfair. Bei nVidia sieht das schon anders aus und möglicherweise werden die zurück rudern müssen mit Pascal und eine zu AMD ähnlichere Architektur an den Start bringen.

Irgendwie war es zu erwarten, dass Kepler mit DX12 Einführung nicht wirklich gewinnen würde, aber abwarten, ob sich bei nVidia in Sachen Treiberoptimierung noch etwas tun wird (ich gehe nach dieser kleinen Niederlage/Ernüchterung für nVidia, auch in Anbetracht des höheren Forschungs-Etats bzw. der gegenwärtigen Marktstellung, schwer davon aus). In jedem Fall sehe ich AMD für DX12 bisher besser aufgestellt (wobei revolutionär dann doch anders aussieht und die eher dürftige DX11 Optimierung von AMD Fragen aufwerfen könnte bis sich DX12 etabliert hat, was noch ein Weilchen dauern dürfte), wobei das nicht heißt, dass dort auch weitere Optimierung wünschenswert wäre, insbesondere bei den Fiji Karten.

Dass man sich die Unterstützung von MS mit der XBOne Ausrüstung an Board geholt hat, scheint sich doch am Ende ein wenig auszuzahlen für AMD, nicht profittechnisch, aber im Hinblick auf die DX12 Optimierung der GPUs. Es bleibt allerdings abzuwarten, ob sich das auch markttechnisch widerspiegeln wird, bzw. potentielle Kunden das erzählt oder mit bekommen, und in den kommenden 18 Monaten ein Zuwachs des AMD GPU Marktanteils zu beobachten sein wird (denn nVidia wird alles tun um am Status Quo nichts zu ändern oder die Marktführerschaft auszuweiten mit Aussicht auf ein Quasi-Monopol).
 
Zuletzt bearbeitet:
Wenn man bedenkt, eine 100 Jahre alte 290X hält mit der 980Ti mit. Alter was hat NV die Jahre gemacht?
 
Zotac2012 schrieb:
Und schaust Du hier, wurde das gleiche Game gestestet und es sieht schon wieder ganz anderst aus:
Anhang anzeigen 510231

Der Gamestarbench den du hier verlinkst war waber in 1920*1080, der verlinkte CB Bench war in 3840*2160. So schlecht wie im Gamestar Bench war bei CB weder die Fury noch die 980ti :D

CB sagt dazu im Benchmark: "Das Spiel ermöglicht zwar noch etwas höhere Details, diese verringern die Leistung aber massiv und werden daher beim Test nicht genutzt.", die höheren Details werden bei Gamestar wohl angeschaltet gewesen sein und bei AMD massiv an der Leistung knabbern. Vielleicht hat da Gameworks wieder irgendwo Haare platzieren können :lol:
 
cruse schrieb:
Dich verarscht !

Ich würd die 980ti sofort zurückschicken - kann ja wohl nicht wahr sein !

xD



Bin vom Test überrascht.
Es gab ja schon Ankündigungen dahin, dass AMD sich mit DX12 richtig entfalten kann.
Das bestätigt der Test jetzt, hatte aber nicht mit so großen Anstiegen gerechnet.
Aber klar ist auch, dass man am Test noch nichts festmachen kann.
Dazu bedarf es noch einige weitere Spiele.
Kann ja auch sein, dass AMD noch viel mehr erreichen würde.
Wer weiß was bei anderen Spielen passiert.
Vielleicht lässt die Fury X dann eine 980 TI auch plötzlich mit klarem Abstand liegen.
Möglich ist da vieles.
Auch andersrum, wobei AMD wohl eher von DX12 profitieren wird.
Finde es gut und freue mich für AMD.
Die haben es echt nötig, aber mMn. auch verdient.
Irgendwann muss die fortschrittliche Entwicklung ja mal belohnt werden.
Schließlich ist AMD die Firma mit den ständigen Neuentwicklungen.
z.B. als erstes GDDR5 im Einsatz gehabt,Mantle, jetzt den HBM Speicher mit Hynix entwickelt....
AMD entwickelt sehr viel in alle Richtungen und andere bedienen sich auch gerne daran, aber AMD fehlt es auch an Merketing
und die CPU Sparte reißt aktuell ebend alles runter.
Da hoffe ich, dass ZEN jetzt noch ein KRacher wird und dann kann es vielleicht endlich wieder aufwärts gehen.
Das wäre supi, dann gibt es endlich wieder spannende Konkurrenzprodukte und die Preise werden ggf. wieder mehr gedrückt.
 
Shrimpy schrieb:
Aber bei RTS oder Aufbau spielen (die ich gerne zocke) wird wohl mehr drin sein als 5%.
Zumindest wenn ich mir anschaue was GCN allgemein schon unter mantel in DAI oder BF gemacht hat....wenn der Vram reicht.

vor allem aber dann wenn man zB unendlich viele Einheiten gleichzeitig bedienen will was ich oftmals etwas Chaotisch finde. DX12 entlastet ja nicht die CPU bei normalen Berechnungen wie KI usw... es ist eine reine API seitige Entlastung. Was man hier im Benchmark sieht ist eher schon das Maximum was man produzieren kann um Unterschiede aufzuzeigen. Programmiert man in DX11 auch vernünftig gehen die Unterschiede gegen 0 da vorher die GPU an sich oder die CPU eben ohne API Limit limitieren.

Es ist etwas spannend wie viel besser Nvidia mit diesem DX API Flaschenhals umgehen konnte / kann.

Klar, es geht ja auch vor allem darum künftigen GPU Möglichkeiten zu geben sich zu entfalten und bei DX11 fällt das zunehmend schwer. Bis die DX12 API aber wie hier übergreifend komplett ausgelastet wird dürfte es noch Jahre dauern.
 
Zotac2012 schrieb:
Keine Treiberoptimierung, nur ein Spiel, mehr als ein kurzer flüchtiger Eindruck der aber nichts aussagt. Wenn DirectX12 erst mal richtig in Fahrt kommt und die Treiber dafür Optimiert wurden werden wir sehen, was die Grafikkarten von AMD und Nvidia wirklich im Stande sind mit DirectX12 zu leisten. Lasst doch AMD wenigstens für einen flüchtigen Moment mal die Nase vorne haben, damit Nvidia wieder angetrieben wird Innovativ zu sein, kann uns als Käufer und Nutzer von Grafikkarten dieser beiden Hersteller nur freuen.;)

Ja,

Man sieht aber deutlich das die Ergebnisse des DX12 Benchmarks näher an der tatsächlichen Rohleistung der Karten liegen.

Mit der Rohleistung einer 390 und 8 GB Ram dürfte man für ne Weile gut aufgestellt sein für DX12 Games.
Ziemlich viel "Grafikkarte" für 338 Euro:evillol:
 
Ein schöner Test aber was ich überhaupt nicht verstehe ist dieser Abschnitt:
Die Einzelergebnisse verraten erneut: Je weniger Draw Calls in der dargestellten Szene vorhanden sind, desto mehr gerät die GeForce-Karte unter DirectX 12 in Schwierigkeiten. Mit vielen Draw Calls ist DirectX 12 mindestens DirectX 11 ebenbürtig, meist schneller. Schon bei den mittleren Draw-Call-Szenen ist dagegen DirectX 11 schneller. Bei AMD sieht die Situation erneut anders aus. Die Radeon-Beschleuniger sind unter DirectX 12 durchweg schneller, auch bei wenig dargestellten Draw Calls.

Das Einzige was ich aus den Testergebnissen ableiten kann ist das die Radeon vermutlich aufgrund mangelhaftem Multithreading unter DX11 frühzeitig im CPU Limit landet und erst bei DX12 zeigt was sie kann.
Gerade bei dem "Ashes of the Singularity" Test sieht man das recht deutlich da sie in allen 3 Einstellungen irgendwo im Bereich zwischen 24 und 28 fps hängt und sich die anderen 3 Ergebnisse mit zunehmender GPU Last sich immer mehr annähern.

Damit wären wir genau so schlau wie bei Mantle.
Hängt die Karte unter DX11 im CPU Limit fest bringt die neue API enorme Vorteile, rutsch sie aber mehr und mehr in das GPU Limit schmilzt auch der Vorteil dahin, was auch kein Wunder ist wenn der primäre Vorteil der API die CPU Entlastung ist.
 
Ein Benchmark ganz ohne Gameworks Sabotage.
Schön zusehen wie NVIDIA Karten schlechter sind als AMD's :)
 
Es geht ja nicht nur darum die CPU zu entlasten sondern auch die GPU noch besser auszulasten bzw zu nutzen, ne GPU ist nen Parrallelarbeitendes Monster und man kann es sich ganz grob die Intels HT vorstellen wo man durch optimale Auslastung noch Leistung rauskitzeln kann.
 
wow für die AMD Firma. Endlich Mal etwas positives für das Unternehmen :D
Nach so vielen schlechten News über AMD/Ati kann man sagen, ja, gute Arbeit geleistet mit Fury_X;
Der grund dafür ist einfach: AMD Mantle. Weil dahinter die gleiche Technologie sich versteckt wie DX12. Und AMD konnte ohne Probleme die eigene Graka für DX12 anpassen :=)
Nvidia wird nachholen, es ist nur Frage der Zeit :)
cheers
 
@KenshiHH
Das eine zieht doch das andere nach sich.
Stockt der Render Vorgang weil die CPU nicht ausgelastet ist weil das Spiel dafür nicht alle Kerne nutzt bekommst du auch die Grafikkarte nicht ausgelastet.
Nun gibt es 2 Möglichkeiten dieses Problem bei der gleichen Anzahl an Draw Calls zu lösen. Du schaffst es mehr Kerne nutzbar zu machen (was nvidia offenbar bei den DX11 Treibern geschafft hat) oder du nutzt sie effizienter wodurch du in der gleichen Zeit und bei gleicher CPU Auslastung mehr abarbeiten kannst.
unter dem Strich scheinen die APIs (Mantle, Vulkan, DX12) beide Wege zu beschreiten.
 
Was man hier im Benchmark sieht ist eher schon das Maximum was man produzieren kann um Unterschiede aufzuzeigen. Programmiert man in DX11 auch vernünftig gehen die Unterschiede gegen 0 da vorher die GPU an sich oder die CPU eben ohne API Limit limitieren.
Sehe ich wie hier vorhin schon kurz geschrieben ähnlich. GPUs beherrschen seit Jahren sogenanntes Instancing (https://en.wikipedia.org/wiki/Geometry_instancing). Bei Instancing kann die CPU der GPU mit einem einzigen Draw-Call befehlen sehr oft das gleiche Objekt zu zeichnen. Gerade dieses Instancing eignet sich sehr gut für RTS-Spiele bei denen man ja sowieso nur ne Handvoll von Einheitentypen hat, die dafür sehr häufig auf dem Bildschirm auftreten, wodurch die Engine wiederum mit Instancing nur wenige Draw-Calls braucht. Mit ein etwas mehr an Aufwand kann eine Engine Instancing auch für unterschiedliche Objekte verwenden, sofern die Objekte eine ähnliche Polygonzahl und Shader besitzen. Deswegen finde ich das etwas verwunderlich, dass die Entwickler entweder hier kein Instancing verwendet haben oder dass sie trotz Instancing viele Draw-Calls benötigen.
 
Okay, obwohl das getestete Spiel noch Beta ist, kann man wohl zusammenfassend sagen:
* DX12 kommt der GCN-Architektur und dem Treiber entgegen
* das Fury [X] Frontend scheint das Shaderbackend dennoch nicht auslasten zu können
* Nvidia scheint bereits mit DX11 die Funktionseinheiten optimal ausnutzen zu können
* AotS scheint nicht mehr als 4 Threads zu nutzen (vgl. PC Perspective Test i3-4330 und FX 8370)
 
tic-tac-toe-x-o schrieb:
Naja "ohne etwas zu machen" gehts ja auch nicht. AMD hat mit DICE an Mantle gearbeitet und die GPUs auf diese Features ausgelegt, die nun endlich mit DX12 genutzt werden können (da Mantle sich nicht durchsetzen konnte...).
Ja klar. nVidia hat seine GPUs damals voll auf Mantle ausgelegt und deswegen lassen sie sich heute mit DX12 ansprechen. :freak:
Eine GPU wird doch nicht auf eine Softwareschnittstelle zugeschnitten. Umgekehrt wird ein Schuh drauß.


konnichi schrieb:
wow für die AMD Firma. Endlich Mal etwas positives für das Unternehmen :D
Findest du? Der Test bestätigt vorerst nur einmal, dass AMD bei gleich schneller Hardware in DX11 Spielen deutlich schlechter ist als nVidia und mit DX11 Spielen werden wir noch einige Jahre zu tun haben. DX12 wird erst einmal eine Ausnahme bleiben. So tolle News sind das für AMD also erst einmal nicht. Zumindest nicht für die nächsten paar Jahre in denen DX11 Titel noch in den Graka-Benchmarks auftauchen.

Bei den DX12 Treibern wird sich allerdings auch noch einiges tun, was auch die Typen von Oxide in ihrem Blog zu Bedenken geben. In dem Bereich kann es also nur noch besser werden und wir werden noch mehr Performancegewinne erwarten dürfen als hier in den ersten Benchmarks zu sehen sind.
nVidia wird dort allerdings nicht mehr so einen Vorsprung herausholen können, wie sie es jetzt bei DX11 Spielen erreicht haben. Dafür ist der Treiber in DX12 zu irrelevant geworden.
 
Zuletzt bearbeitet:
Zurück
Oben