Test Ashes of the Singularity: DirectX-12-Benchmarks mit Grafikkarten von AMD und Nvidia

Die anderen Test's weltweit decken sich aber mehr mit CB als PGHW.

Mfg David
 
Wolfsrabe schrieb:
Entweder hab ich jetzt die Ironie nicht verstanden oder.... jedenfalls lese ich das das erste mal und eine spontane Suche bei Google hat auch nichtsdergleichen ergeben...?



...


Guck mal hier...
https://www.computerbase.de/2015-03/directx-12-im-test-vor-mantle-und-amd-vor-nvidia/#diagramm-3dmark-intel-core-i7-4770k


...speziell die Benches mit dem i7 und Mantle. ;)


Auf der AMD Webseite ( https://community.amd.com/community/gaming/blog/2015/05/12/amd-enables-incredible-directx-12-performance-in-new-3dmark-api-overhead-feature-test )ist zu sehen, daß DX 12 kein Plus bei den OctaCores (bis jetzt) zu erwarten ist .... :(

Bleibt also die Hoffnung auf Vulkan...dann kann man auch getrost bei Windows 7 bleiben und muß sich diese Datenschleuder nicht antun. :rolleyes:


Viele Grüße,
stolpi
 
Du hast Recht mit den > 6 Kernen ! :eek:

Bleibt die Frage warum das so ist. Es würde keinen Sinn machen, wenn das eine künstlich eingebaute Grenze ist. Denn Parallelität wird ja, trotzdem Singlecore-Performance immernoch gefragt ist, immer weiter ausgebaut.

Und wenn Mantle zeigt(e), daß man auch mit mehr als 6 Kernen die allgemeine Performance steigern kann, wäre es Käse, wenn DirectX 12 da stehen bliebe.
 
Zuletzt bearbeitet: (Rechtschreibtohuwabohu...)
Lars_SHG schrieb:
Könnt Ihr mal schreiben wie die CPU von euch im Test getaktet war und wie die Kernauslastung war? Mir erscheint es so zu sein, als ob AotS wieder mal ein echter CPU-Brüller ist, der nur zwei Kerne nutzt, die sollten dann aber mit hohem Takt laufen! Wäre es so, könnte es sogar sein, dass die starken Grakas hier im Limit waren!?!

Die Nitrous Engine wurde von Grund auf für Multithreading designed.
 
Strikerking schrieb:
War aber eigentlich klar das AMD besser mit DX12 umgehen kann und ihre Treiber besser sind weil sie ja Erfahrung schon mit Mantle sammeln konnten.
Logisch, dass jemand mit einem AMD Logo als Avatar diese Schlussfolgerung aus dem Ergebnis ziehen musste. :lol:
 
Wenn es wirklich so sein sollte, dass AMD jahrelang aufgrund der Treiber die Rohleistung der Karten nicht ausnutzen konnte und deswegen ins Hintertreffen geraten ist, dann frage ich mich 1.) wie das überhaupt sein kann und 2.) wieso man nicht bessere Software-Entwickler geholt hat?
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
Du hast Recht mit den > 6 Kernen ! :eek:

Bleibt die Frage warum das so ist. Es würde keinen Sinn machen, wenn das eine künstlich eingebaute Grenze ist. Denn Parallelität wird ja, trotzdem Singlecore-Performance immernoch gefragt ist, immer weiter ausgebaut.

Und wenn Mantle zeigt(e), daß man auch mit mehr als 6 Kernen die allgemeine Performance steigern kann, wäre es Käse, wenn DirectX 12 da stehen bliebe.


Natürlich macht das Sinn...die haben uns Jahrelang verarscht und können auf einmal nicht so einen Knaller raushauen.
Die wollen Geld verdienen, in meinen Augen ein klares Zugeständnis gegenüber Intel.
Stell dir mal vor, wie viele FX Besitzer über die teuren i5 herziehen würden...das wäre ein Riesen Image-Schaden für Intel.


Viele Grüße,
stolpi
 
karamba schrieb:
Aufwachen! ...
DX12 und entsprechende Spiele reduzieren jetzt das CPU Limit in Szenen mit hohen Drawcalls. Davon profitiert AMD (ohne eigenes Zutun!) besonders stark, weil NV für DX11 das Problem schon in den eigenen Treibern weitgehend gelöst hatte.

Mit anderen Worten, AMD braucht DX12 und entsprechende Spiele, um in Spielen mit hohen Drawcalls hohe Leistung zu liefern, NV schafft das unter DX11 und DX12. Wer da jetzt die Hausaufgaben gemacht hat und wer nicht, kannst du dir aussuchen.

Bin wach, den Ball spiele ich dir gerne zurück. :) Bitte selber aufwachen, AMD profitiert nicht wegen DX12 sondern hat seine Produkte schon seit Einführung von GCN darauf ausgerichtet. Erst DX12 und die Vorarbeit mit Mantle schöpfen dieses Potential jetzt völlig aus.

Nvidia ist im Nachteil und versucht durch Gameworks und andere proprietäre Lösungen seinen großen Teich abzustecken, doch dieser Nachteil wird 2016 noch stärker ins Gewicht fallen. ;)
 
Wolfsrabe schrieb:
EDIT: Ich hab gerade ein bisschen nachgegoogelt, es gab ja im Mai tatsächlich eine Ankündigung seitens AMD, sich um den DirectX-11-Treiber zu kümmern. Dann stimmt es wohl doch mit der softwareseitigen Problematik.

Wenn mich nicht alles täuscht, stammt die Meldung wahrscheinlich aus dem AC:U-Kontext, hier wurde das Thema mit den Draw-Calls zum ersten mal wirklich offen diskutiert. Ich glaube Ubisoft sagte damals das AMD bisher nur 'gezielt' optimieren kann - NVIDIA aber bereits eine generelle Lösung im Treiber integriert hat. Eventuell lässt GCN unter DX11 einfach keine generelle Lösung zu und benötigt hierfür zwangsläufig eine Low-Level API. Wurde jedenfalls damals in der Richtung angedeutet.

Würde auch erklären wieso diese so früh mit Mantle angefangen haben und weshalb jetzt die wirklich dicken Sprünge mit DX12 folgen.

Würde aber auch bedeuten, dass sich das Preisgefüge ändern wird sobald es das Klassement tut. Sobald AMD leistungstechnisch auf Augenhöhe ist, werden die Preise angeglichen. Fury oder auch die damalige Radeon 9800 lassen grüßen..
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
Und schaust Du hier, wurde das gleiche Game gestestet und es sieht schon wieder ganz anderst aus:
Anhang anzeigen 510231

Es ist halt auch wie wichtig mit welchem Treiber und welchen Einstellungen man testet, CB hat doch kein Monopol auf die Richtigkeit der Ergebnisse solcher Test`s, schon gar nicht wenn wichtige Informationen fehlen mit welchem Treiber z.B. gestestet wurde und mit welchen genauen Einstellungen im Game. ;)

Sehe da wenig Unterschied zum CB Test ehrlich gesagt...
Diese Palit ist nunmal keine Standard 980ti ;D

Zudem ist jedes mal eine andere CPU im Einsatz... und andere Treiber wohl (AMD evtl.)...schonmal für mich zuviele Faktoren, um hier die 2 Tests vergleichen zu können...
 
Zuletzt bearbeitet:
@nospherato
Ach ist die Palit GTX 980Ti zu stark:D Darum geht es ja auch nicht, letztendlich liegt mal die eine ein paar FPS vorn mal die andere und das in einem Game was Pre Beta ist mit AMD als Partner und dann abzuleiten Nvidia kommt mit DX12 nicht klar. Wie müssen sich denn die Fury [ohne X] Käufer fühlen, die gerade einmal 3.FPS mehr haben mit DX12 als ich mit meiner GTX 970 und die ja deutlich teurer ist. Im Game ist das dann sowieso ohne Belang, weil das Game bei mir mit 26.FPS genauso bescheiden läuft wie auf der Fury mit 29.FPS.

Ich denke DirectX12 wird erst so richtig in Fahrt kommen mit den neuen Grafikkarten von AMD und Nvidia mit HBM 2.0 und dann werden die Karten neu gemischt. Dann wird man sehen, was die neuen Chips und der effizentere HBM 2.0 Speicher in der lage ist zu leisten. Und dank DirectX12 sollte es ja dann auch möglich sein, potentere Graka`s auch mit leistungsmäßig etwas schwächeren CPU`s zu befeuern, was ja dann auch AMD wieder zu gute kommen würde.;)
 
karamba schrieb:
AMD profitiert von DX12 und entsprechenden Spielen, ohne etwas gemacht zu haben.

Naja "ohne etwas zu machen" gehts ja auch nicht. AMD hat mit DICE an Mantle gearbeitet und die GPUs auf diese Features ausgelegt, die nun endlich mit DX12 genutzt werden können (da Mantle sich nicht durchsetzen konnte...). Dafür hat Nvidia ihre Karten auf DX11 optimiert aber an DX12 kaum bis gar nichts dran gemacht.

Eins ist sicher: Nvidia gewinnt Kunden weil sie IM MOMENT besser stehen, aber 1 Jahr später dann nicht mehr. Siehe Kepler, siehe nun DX12. Und trotzdem wird jährlich von Nvidia zu Nvidia geupgraded.

2015 ist bis auf DX12 sowieso total langweilig was Grafikhardware angeht... Hoffen wir, dass 2016 mit 16nm und HBM 2.0 wie ne Bombe einschlägt.
 
Zuletzt bearbeitet:
Gpu-murks schrieb:
Wegen DX12 brauchste dir keine Sorgen zu machen....da kommt bald ernste Konkurrenz....Plattformübergreifend...hier mal ein Auszug aus der Webseite:

Hier mal was...,....zum lesen...und fragt euch mal ob DX12 ein Grund ist zu Win 10 zu wechseln.

Hier was zu Vulkan (Auszug aus der Webseite)

"Khronos zufolge soll die Schnittstelle in Hinblick auf ein verbessertes Multithreading und einen geringeren Overhead von Grund auf neu gestaltet worden sein. Vulkan soll außerdem eine gemeinsame Shading-Programmiersprache enthalten und die Möglichkeit der expliziten Anwendungskontrolle über GPU- und CPU-Workloads. Im Unterschied zu DirectX und Mantle funktioniert Vulkan plattformübergreifend und kommt mit weniger komplexen Treibern als bisher aus."

Und jetzt kommts.....schaut mal wer Vulkan schon alles unterstützt:

"Khronos sieht Vulkan daher deutlich im Vorteil; besonders auch in Hinblick auf die Tatsache, dass man schon einige Branchenschwergewichte als Unterstützer gewinnen konnte. Auf einer Folie finden sich mittlerweile 27 Firmen: AMD, Nvidia, Intel, ARM, Apple, Epic Games, Qualcomm, Valve, Mediatek, Sony, Lucasfilm, Samsung, EA, Oculus VR, Blizzard, Codeplay, Imagination, Vivante, Mobica, Transgaming, RTT, Continental, OMP, Unity, Oxide, Broadcom und Pixar. Es fehlt Microsoft; kein Wunder, versucht die Firma doch das bröckelnde DirectX- und folglich Windows-Monopol für PC-Gamer aufrecht zu erhalten."


Hier die Webseite/Link: http://www.heise.de/newsticker/meld...hschnittstelle-fuer-alle-Systeme-2565777.html

Danke für die Information! Wenn das so ist, kann mir Windows 10 erst recht gestohlen bleiben. Soll Microsoft doch schei..en gehen mit ihrem Updatezwang und exklusivem DX12.
 
MasterWinne schrieb:
"Als Treiber ist eine spezielle Catalyst-Version sowie der GeForce 355.66 installiert. "

Allein schon deshalb disqualifiziert sich dieser Test und ist ohne jede Bedeutung. Hier kann "speziell" exakt und genau auf dieses Spiel (für Demozwecke z.B. ) optimiert gemeint sein, womit der Test sehr sehr zweifelhaft ausgelegt ist.
Ist doch Quatsch. Was meinst du denn was "Game-Ready" Treiber sind. Da wird genau auf das Game hin optimiert.

Im Falle von AotS haben beide GPU Hersteller Zugriff auf den Source Code des Games und daraufhin optimiert.
 
Hallo,
es wird immer wieder der gleiche Fehler gemacht:

Die Vergleiche: Vulkan vs DirectX
Mantle vs DirectX
OpenGL vs DirectX

Diese Technologien können nicht direkt verglichen. Werden. Während Vulkan, Mantle und OpenGL "lediglich" Grafik APIs sind, bietet DirectX noch Sound-, Netzwerk- und Controller APIs.

Warum sollte sich ein Herstellter sich mit x APIs oder Frameworks plagen nur um eine Minderheit (Linux, Mac) auf dem Spielemarkt bedienen zu können. DirectX bietet alles in einem Paket für die Mehrheit des Marktes (PC und bald XBOne).

Lediglich die PS4 als erwähnenswerte Plattform fällt raus. Und ob sich Sony dem Vulkan Zug anschliesst (alleine schon aus Kompatiblitätsgründen), bleibt abzuwarten. Sony wollte Mantle schliesslich auch nicht haben.

Greetz
hroessler
 
Strikerking schrieb:
Beim nächsten mal bitte mit einem FX 8350/8370 und einer R9 390X Testen damit man auch sieht wie ein AMD System von DX12 profitiert.

War aber eigentlich klar das AMD besser mit DX12 umgehen kann und ihre Treiber besser sind weil sie ja Erfahrung schon mit Mantle sammeln konnten.
Und es freut mich natürlich riesig das AMD mit DX12 so einen guten Leistung Sprung kriegt aber wie schon gesagt eigentlich ja keine Überraschung das AMD da besser ist.:king:


Freue mich schon sehr auf die ersten großen DX 12 Spiele Titel, so weit ich weiss ist ja DeusEx Mankind Divided, Hitman und Tom Raider mal schauen was die Benchmarks dann sagen. AMD For the Win!:D

Naja ich sehe das so, die NV Treiber wurde so weit optimiert das ein optimales Ergebnis unter DX11 zustande kommt, da hier viele Drawcalls benötigt werden was wiederum die AMD Treiber nicht schaffen weshalb die Leistung bei AMD deutlich schlechter war. Mit DX 12 wird das ganze über den haufen geworfen da hier einfach nicht mehr soviele Drawcalls benötigt werden, das heißt allerdings im Umkehrschluss das NV die Treiber nicht nur anpassen muss sonder neu Entwickeln muss da jetzt die Drawcalls effizienter gentutzt werden und nicht mehr die schiere masse genügt.
 
Lix schrieb:
Aber toll, dass sie dank DX12 nun mit NV mithalten können.
Warum tut man hier eigentlich so, als ob AMD erst jetzt seit dieser DX12 Demo mit Nvidia mithalten kann? :lol: total lächerlich. Der Benchmark ist ganz nett und zeigt vor allem, dass der AMD Treiber unter DX11 gewaltige Probleme mit sehr vielen Draw Calls hat. Schlecht ist der Treiber deswegen jedoch nicht, das sieht man doch daran, dass AMD in den Leistungsratings nach wie vor ganz gut mithält. Ich habe jedoch ein wenig mehr erwartet, aber gut, ist ja noch eine Pre-Beta. Sieht man auch an der insgesamt inakzeptablen Framerate. Keine 60fps mit einer Fury X oder 980ti @1080p?

Was Nvidia da präsentiert ist allerdings ganz schön peinlich. DX11 ist DX12 was Draw Calls angeht total unterlegen, und das ist eine extreme Demo, die eben diesen Vorteil von DX12 verdeutlichen soll. Dass Nvidia in DX12 oft sogar langsamer ist, kann ja gar nicht sein. Einen tollen "Game-ready" Treiber haben sie da kreiert.

Die pcper Analyse ist wohl eine der interessantesten. Zwei Überraschungen: 390X schlägt GTX980, FX8 Vishera langsamer als i3 trotz DX12. Wie kann das denn sein? In Mantle war so ein FX kaum langsamer als ein 3770K...
Beim Fiji gibt es wohl noch eine Menge Optimierungspotential. Das ist ein 4096 shader Kraftwerk, das Dingen müsste mindestens 40% schneller sein als eine 390(X).
Der Hawaii Chip ist aber echt beeindruckend. 2 Jahre alt und immer noch vorne dabei. Schade, dass eine 780(ti), die eigentliche Konkurrenz der Hawaii Karten, nicht mitgebencht wurde.

Was ich übrigens sehr interessant finde: R9 390 hat 23% mehr Shadereinheiten als 280X ist aber 34% schneller. Liegt das an den zusätzlichen ACEs von Hawaii?

VAN DOOM schrieb:
Für mich wäre es natürlich nicht so schön wenn das so bleiben würde, da ich mir vor ein paar Tagen eine GTX 980 TI gekauft habe :(

Wo ist denn das Problem? Die 980ti ist doch selbst in UHD kaum langsamer...
 
zeedy schrieb:
Der Benchmark ist ganz nett und zeigt vor allem, dass der AMD Treiber unter DX11 gewaltige Probleme mit sehr vielen Draw Calls hat. Schlecht ist der Treiber deswegen jedoch nicht
AMD's Treiber war insofern unterlegen, dass hier unter DX11 schnellere CPUs nötig waren, um aus dem CPU Limit herauszukommen - auch wenn nicht massig Drawcalls ausgeführt wurden.

Dass die GPUs von der Leistung her ebenbürtig sind, sollte keiner bestreiten.
 
Zurück
Oben