Test Ashes of the Singularity: DirectX-12-Benchmarks mit Grafikkarten von AMD und Nvidia

noxon schrieb:
Ja klar. nVidia hat seine GPUs damals voll auf Mantle ausgelegt und deswegen lassen sie sich heute mit DX12 ansprechen. :freak:
Eine GPU wird doch nicht auf eine Softwareschnittstelle zugeschnitten. Umgekehrt wird ein Schuh drauß.

Z.B. Die ACEs können mit DX12 endlich voll genutzt werden und das boostet nunmal kräftig. Mit DX11? Nö. Natürlich hat AMD auf die Schnittstelle geachtet beim entwickeln. Die fahren doch schon länger zukunftsorientiert (was jedes mal in die Hose geht, nicht auf DX11 wert gelegt, Bulldozer, etc.).
 
noxon schrieb:
...
Findest du? Der Test bestätigt vorerst nur einmal, dass AMD bei gleich schneller Hardware in DX11 Spielen deutlich schlechter ist als nVidia und mit DX11 Spielen werden wir noch einige Jahre zu tun haben. DX12 wird erst einmal eine Ausnahme bleiben. So tolle News sind das für AMD also erst einmal nicht. Zumindest nicht für die nächsten paar Jahre in denen DX11 Titel noch in den Graka-Benchmarks auftauchen.

Bei den DX12 Treibern wird sich allerdings auch noch einiges tun, was auch die Typen von Oxide in ihrem Blog zu Bedenken geben. In dem Bereich kann es also nur noch besser werden und wir werden noch mehr Performancegewinne erwarten dürfen als hier in den ersten Benchmarks zu sehen sind.
nVidia wird dort allerdings nicht mehr so einen Vorsprung herausholen können, wie sie es jetzt bei DX11 Spielen erreicht haben. Dafür ist der Treiber in DX12 zu irrelevant geworden.

Ach hör doch auf.
Bei den ganzen Grafikkarten (DX11) Benchmarks der letzten Zeit kann man doch schon lange sehen, mal hat AMD mehr FPS und dann mal Nvidia. Die geben sich in der Summe nicht viel.
Lediglich kann man erkennen dass AMDs Karten die eigentlichen Nvidia Kontrahenten immer weiter überholt. (zB 290 vs 780TI usw)

Zudem spielt es sich in der Regel unter DX12 (wie unter Mantle) auch bei nahezu gleicher FPS unter DX12 (Mantle) DEUTLICH "smoother" als unter DX11.
 
Komisch, bin wohl der einzige der hier kein WOW AMD sieht.. bei mir hat die fury x gradmal 1 fps mehr als die gtx 980ti. Keine Ahnung was da wow sein soll.

Naja egal, Hauptsache Diskussionsstoff ist da. Bin halt ein Nvidia Fanboy, was weis ich schon :D
 
-Ernesto- schrieb:
Komisch, bin wohl der einzige der hier kein WOW AMD sieht.. bei mir hat die fury x gradmal 1 fps mehr als die gtx 980ti. Keine Ahnung was da wow sein soll.

Naja egal, Hauptsache Diskussionsstoff ist da. Bin halt ein Nvidia Fanboy, was weis ich schon :D

1fps mehr unter Dx12 während Nvidia noch unter Dx11 läuft, momentan ist der gesamte Benchmark noch sehr merkwürdig.
 
janeeisklar schrieb:
Ach hör doch auf.
Lediglich kann man erkennen dass AMDs Karten die eigentlichen Nvidia Kontrahenten immer weiter überholt. (zB 290 vs 780TI usw)

Zudem spielt es sich in der Regel unter DX12 (wie unter Mantle) auch bei nahezu gleicher FPS unter DX12 (Mantle) DEUTLICH "smoother" als unter DX11.

Das AMD Karten meist erst nach einiger Zeit ihren Gegenpart ein- oder überholen ist nichts wirklich neues..
https://www.computerbase.de/2012-05/test-nvidia-geforce-gtx-670/3/#abschnitt_leistung_ohne_aaaf
--> (Ausgehend von HD ohne AF und AA) liegt die 7970 auf Niveau einer 670.

Jetzt lassen wir etwas Zeit verstreichen:
https://www.computerbase.de/2015-05/geforce-gtx-470-570-670-770-970-vergleich/2/
--> Als Vergleichsbasis: Die 770 ist ca. 18% schneller als eine 670.

So und nun nehmen wir einen recht aktuellen Test:
https://www.computerbase.de/2015-05...ergleich/2/#abschnitt_leistungsratings_spiele
--> 280x (aka 7970) ist 4% schneller als die 770.

Je nach Spieleauswahl also usw. haben wir hier auch einen Sprung von anfangs ausgeglichen bis später xx% Vorsprung...
Bringt nur AMD nix, weil das Marketing so schlecht aufgebaut werden kann und die Treiber ohne ähnliche Optimierungen, wie bei Nvidia@DX11/multithreading.
Kommt eben nicht gut an zu sagen: Hey Leute... Jetzt sind wir etwas hintendran, weil die Treiberarbeiten mies sind, aber in 6-12Monaten ziehen wir davon ;D

EDIT:
Natürlich kann man auch cerrypicking betreiben, dann sind die Nvidia Karten xx% schneller oder eben die AMD Karten...
Allerdings bis Dx12 (wo der Unterschied sicherlich nie so groß wie bei dem Benchmark ausfallen wird) wirklich relevant werden wird, sind wir schon weit in 2016, wo die Leute auf die neue Gen warten werden.
Die Leute die momentan Karten kaufen wollen, wollen auch jetzt spielen und orientieren sich eher am "Hier und Jetzt" und da find ich die Treiberoptimierungen von AMD etwas zu gering.
Die Hardware mag stark sein, aber ohne Treiber ist Dx11(oder gar Dx9), welches sicher bis in 2017 noch mindestens relevant bleiben wird, einfach zu wenig drin...
Klar wird sich AMD (wie Nvidia) momentan eher auf Dx12 konzentrieren, aber mehr als eine gute Werbung ist das mit AotS momentan einfach nicht.
Ich frage mich eh schon lange, warum AMD es über Jahre nicht hinbekommt ähnlich wie Nvidia ein ordentliches Multithreading in den Treiber zu bekommen :-/


Was mich allerdings interessieren würde:
Wie kommst du darauf, dass das Gameplay "smoother" wäre?
Ich habe da weder bei Battlefield4, noch bei Thief einen Unterschied feststellen können...
 
Zuletzt bearbeitet:
nospherato schrieb:
Was mich allerdings interessieren würde:
Wie kommst du darauf, dass das Gameplay "smoother" wäre?
Ich habe da weder bei Battlefield4, noch bei Thief einen Unterschied feststellen können...

Je nach Spiel sind die Frametimes besser und haben nicht so starke Ausreißer, das ist bei Dragon Age Inquisition unter Mantle gut sichtbar. Nachteil war dann aber auch das nur die "schnellen" Karten ab 290 wirklich davon profitiert haben weil der Ram zu schnell voll lief.
 
Igoo schrieb:
Je nach Spiel sind die Frametimes besser und haben nicht so starke Ausreißer, das ist bei Dragon Age Inquisition unter Mantle gut sichtbar. Nachteil war dann aber auch das nur die "schnellen" Karten ab 290 wirklich davon profitiert haben weil der Ram zu schnell voll lief.

Stimmt, meine mich auch zu erinnern, dass bei Thief Mantle recht wenig gebracht hat bei der 7970/280x (obwohl diese ja nicht vom 2GB "bug" betroffen war, auf Grund der 3Gb).
 
Fire'fly schrieb:
Auf Vulkan gebe ich persönlich gar nichts, diese API wird sicher effizient sein aber im Consumer Bereich auch ein Nischendasein fristen für populäre Spiele und Anwendungen.
(meine persönliche Meinung)

Da irrst du dich aber gewaltig, zumindest stehen alle anzeichen darauf das es erfolgreicher wird wie du hier glaubst/ darstellst. Steamos Nutzerbasis ist zwar noch gering, da man es als Hardwarebundle noch nicht kaufen kann aber linux/steamos support ist A nun quasi in allen Engines verfuegbar seit neuestem und viele alte spiele werden sogar noch extra portiert trotz der noch niedrigen nutzerbasis, da haben wohl die entwickler ein einsehen das beim henne und dem Ei Problem sie erstmal die Eier legen muessen.
Des weiteren siehts bei neuen Titeln noch besser aus da man sie gleich so entwickeln kann das sie auch unter Linux laufen, was auch in ein paar AA Titeln und vielen nicht AA Titeln zu bestaunen ist und in einigen ankuendigungen. Und da kann mittelfristig, wenn Vulkan etabliert ist als opengl nachfolger eben die einzige auswahl sein.

Aber selbst fuer Linuxkritiker die durch keine 1400 Spiele fuer Linux die in letzten 2 Jahren portiert oder raus gekommen sind nicht ueberzeugt sein sollten und die dann glauben das zig tausende steamrechner im Mediamarkt bald stehen werden und kein einziger Mensch die dann kaufen wird, gibts noch 2 andere starke Gruende auf Vulkan zu setzen.

Ersteren gabs auch schon bei Vista/ Windows 7 aber der Wunsch der Kunden zu wechseln auf eine neue Windows version war sicher staerker da windows xp ja z.B. kaum mehr fuer ssds geeignet war und anderes, also man kann alte windowsversionen bedienen. Denke es werden laenger viele Leutee bei Windows 7/8 bleiben wie sie bei windows xp blieben, ausser DX und staerkerer ueberwachung bietet gerade fuer gamer windows 10 ja nix ausser das es kostenlos ist fuer upgrader.

Also kurz gesagt man kann neue besserees experience auch fuer windows update verweigerer an bieten.

Dann kommen aber noch 2 Gruende dazu, 1. Android wird auch auf Vulkan setzen, da Android bei spielegeraeten logischerweise bei immer staerkeren tablets/boxen smartphones an bedeutung gewinnt, ist hier ein support auch interessant und wenn man nur sein spiel 2 jahre spaeter in leicht abgespeckter Version nochmal fuer Android 2. verwerten will.

Auch ist was weiteres neu, DX12 ist wohl ne art rewrite und sehr lowlevel mal mehr wie die alten versionen, um eben mehr speed zu kriegen, anders wie bei DX10 oder DQ11 muss der Entwickler also quasi sich komplett frisch eein lernen, der aufwand von DX11 auf Vulkan umzusteigen oder auf DX12 duerfte aehnlich gross sein, das war frueher auch nicht gegeben.

Opengl kommst dank steamos ne spaete erfolgswelle im Moment, wieso sollte eine neue von Entwicklern bevorzugte version davon die nicht mehr so viel probleme hat wie die alten versionen dann nicht auch profitieren.

Es spricht also viel dafuer das Vulkan wichtiger/erfolgreicher wird wie du glaubst.



THEMA MANTLE:


wenn die Benchmarks hier auch gezeigt wuerden waere das sehr interessant, dann wuerde man sehen ob die optimierungen schon auf DX12 erreicht wurden oder ob AMD noch spielraum hat fuer verbesserungen, sicher auch bei gleichen fps waere das nicht moeglich aber waere hier mit Mantle AMD weiter vorne wuesste man definitiv das noch spielraum da ist. Oder wenn Mantle langsamer waere, wuesste man das es damit vollens sinnfrei wuerde ausser fuer alte Windowsversionen.

Waere also sehr aufschlussreich, auch wenn das beim AMD vs NVIDIA Hardware vergleich nicht so viel bringen wuerde aber das ist ja nicht das einzige was interessant ist ich denke eh das sofern die preisleistung bei beiden ungefaehr gleich ist, das die wenigsten Leute ihren Grafikchiplieferanten nach Benchmark aus waehlen, das hat dann irgendwelche Treiber/Featuree gruende und auch neigungen Sympatien.
 
Die fahren doch schon länger zukunftsorientiert
....wohl kaum, als die 290/390(x) und auch Fury entwickelt wurden, gab es mit Sicherheit noch keine Details zu DX12 - wurde ja relativ kurzfristig angekündigt und raus gebracht!

Da es keine Erklärungen gibt die Umfassend die aufgeworfenen Fragen erklären können, gehe ich auch eher davon aus, das etwas mit dem Bench nicht stimmt - es berichten ja auch einige Tester von Abstürzen der AMD Grakas und zusammen mit der durchaus schlechten Leistung von nVidia werden die Fehler wohl eher im Programm liegen!
Ist ja auch nicht ungewöhnlich, dass das eine Programm mal bei AMD besser funktioniert und das andere eben bei nVidia!

Aber das ist auch nicht die einzige Baustelle - wenn das Game tatsächlich Multithread programmiert ist und dann ein i3 oft genauso schnell ist wie ein i7, dann stimmt da einiges nicht! Aber vielleicht sind da auch nur Limiter aktiviert gewesen was die ganzen Messungen eh ad absurdum führt - ich weiß es nicht, die Ergebnisse sind weitgehend unlogisch!
 
Igoo schrieb:
1fps mehr unter Dx12 während Nvidia noch unter Dx11 läuft, momentan ist der gesamte Benchmark noch sehr merkwürdig.

Sehe ich ähnlich. Ich denke da warten wir mal bis es Mitte 2016 gescheite Games gibt und testen dann nochmal. Das ganze wird eh erst interessant wenn Tripple A spiele auf DX12 gehen. Angbelich bekommt ja Project Cars auch DX12, bin gespannt
 
tic-tac-toe-x-o schrieb:
Z.B. Die ACEs können mit DX12 endlich voll genutzt werden und das boostet nunmal kräftig. Mit DX11? Nö.

Die ACEs werden selbstverständlich auch mit DX11 genutzt, sie laufen dann eben synchron. Ich glaube auch nicht, dass Ashes of the Singularity asynchrone Shader benutzt, denn dafür scheinen mir die DX11 Ergebnisse zu stark aus.
 
Die ACEs werden selbstverständlich auch mit DX11 genutzt, sie laufen dann eben synchron.
Ich vermute einfach stark, dass AMD die ACEs bereits in asynchroner weise in DX11 nutzt. DX11 besitzt selbst zwar nur eine (implizite) Queue für Befehle an die GPU. Innerhalb dieser Queue kann der Treiber aber prinzipiell beliebig optimieren, sofern die Abhängigkeiten in der Queue es zulassen. Somit könnte der GPU-Treiber von AMD theoretisch bereits diese Queue auf seine ACEs unter berücksichtigung der Abhängigkeiten aufteilen. Ich finde gerade leider keine Dokumentationen dazu ob dies tatsächlich so ist. In OpenCL ist diese Technik jedoch mit Out-of-Order-Queues standard, wie man in den Specs nachlesen kann.
 
blackiwid schrieb:
...
Es spricht also viel dafuer das Vulkan wichtiger/erfolgreicher wird wie du glaubst.

Es hat sich um meine persönliche Meinung gehandelt, du kannst dich irren, ich kann mich irren. Ich sehe das relativ einfach, solange keine populäre Konsole mit Vulkan befeuert wird solange wird es eher ein Nischendasein für alle normalen Monitor/TV Gamer fristen. Alle Welt wird auf DX12 oder vorherige Versionen setzen.

Vulkan macht vorallem im Tablet/Smartphone Bereich Sinn und sorgt für einfachere Portierungen, die Grafik APIs in dem Lager sind ja auch eher "Kraut und Rüben", was ich so gehört habe.

Natürlich wäre es cool wenn man auch aktuelle Games dann per Vulkan nutzen kann aber primär wird weiterhin auf DirectX gesetzt werden. DX12 wird hier auch die Messlatte ordentlich nach oben legen.

Daher sehe ich für Vulkan eher eine Chance in anderen Bereichen aber weniger in der Gaming Industrie für alle WiiU/PC/PS4/One Titel. Vielleicht klemmt sich Sony mehr rein und möchte es evtl. für die PS4 nutzen aber Genaues weiß man nicht.
 
@Fire'fly:
Vulkan hat einige gewichtige Argumente, etwa die neuen Entwicklerwerkzeuge, und sollte sich Apple zu Support durchringen dann kann es für einen Entwickler durchaus reizvoll sein, auf Vulkan zu setzen. Wenn man für Win7/8/8.1/10, Linux, Mac OSX und gegebenenfalls noch für Mobiltelefone plattformübergreifend entwickeln kann, dann sehe ich Microsoft bezüglich DX12 im Nachteil. Valve etwa hat für die Source 2 Engine nur Vulkan-Suppport angekündigt, von DX12 haben sie nicht gesprochen. Aber gut, Valve hat wohl mehr Interesse an Linux als die anderen grossen Entwickler.

Allgemein kann ich keinen Vorteil für die Nutzer sehen wenn man DX12 statt Vulkan die Daumen drückt.
 
Lars_SHG schrieb:
....wohl kaum, als die 290/390(x) und auch Fury entwickelt wurden, gab es mit Sicherheit noch keine Details zu DX12 - wurde ja relativ kurzfristig angekündigt und raus gebracht!

Ja und? Meinst du Microsoft alleine machte die Vorgaben für DX12? Die werden selbstverständlich mit den Grafikexperten zusammengearbeitet haben und ihre Ideen/Vorschläge umgesetzt und integriert haben. Beispiel: was kam zuerst, ACEs oder deren Support? Oder was kam zuerst, Tessellator-Einheiten oder deren Support? ;)

Ich finde es schade, dass keine Angaben zur CPU Auslastung gemacht wurden, das gehört eigentlich in jedem Spiele Benchmark dazu.
Ergänzung ()

kisser schrieb:
Ich glaube auch nicht, dass Ashes of the Singularity asynchrone Shader benutzt, denn dafür scheinen mir die DX11 Ergebnisse zu stark aus.
Auch ich denke nicht, dass das Spiel jetzt schon DX12 im vollen Umfang unterstützt. Ich dachte erst der große Abstand zw 390 und 280X sei durch die zusätzlichen ACEs zu erklären, aber dann habe ich mir ein paar aktuelle Reviews angeguckt, und Hawaii Pro scheint mittlerweile tatsächlich locker 30% schneller zu sein als Tahiti XT.
 
Vetinari schrieb:
Allgemein kann ich keinen Vorteil für die Nutzer sehen wenn man DX12 statt Vulkan die Daumen drückt.

Richtig, aber die Vergangenheit hat doch schon zu oft gezeigt, daß sich offenere Standards nie so durchsetzen können wie man das gerne hätte.
Es wäre zwar wünschenswert aber der "Impact" der aktuellen Konsolengeneration ist einfach zu groß.
 
@Fire'fly
Vulkan ist wohl eher für praktisch alle multi Plattform Titel interessant da es einfach auf allen Plattformen verfügbar wäre.
Es ist aber au.ch möglich das es wie früher läuft, DirectX unter Windows gefordert aber nur für die Funktionen abseits des Renderns genutzt wird. Gerendert wird dann halt per Vulkan.
 
SchaGur schrieb:
Wenn man bedenkt, eine 100 Jahre alte 290X hält mit der 980Ti mit. A

Ja ich habe meine 290x von meiner Ur-Großmutter geerbt.
 
Zurück
Oben