Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

SchaGur schrieb:
Fast jeder hat ja eine NV im Rechner und wären die benchs früher gekommen wäre Win 10 ein noch größerer Flop.

Also für mich als Nv Nutzer wird Win 10 jetzt wohl definitv auf den Rechner wandern. Den unabhänig der gpu geht es auch bei den CPUs voran und ein Bottleneck im Pc weniger ist nie verkehrt.
Und mit der neuen Gen wird auch gpu seitig dann wohl dx12 effektiver genutzt werden können.
Noch ist ja Zeit bis Juni und mal schaun was die anderen dx12 Games die rauskommen so in den Benchmarks zeigen aber wenn sich das Bild so festigt dann wird definitv noch auf Win 10 umgerüstet auch mit einer Nv Karte .

TrabT schrieb:
AMD Rockt :D da bin ich ja froh das ich immer auf die "roten" gesetzt habe und Nvidia seit extremen Treiberproblemen mit meiner Gefroce2MX aus meinen Computern verbannt habe :)
Immer auf die roten gesetzt .. sosos wiso seh ich dann einen i7 6700k in deiner Signatur gg
 
Zuletzt bearbeitet:
TrabT schrieb:
AMD Rockt :D da bin ich ja froh das ich immer auf die "roten" gesetzt habe und Nvidia seit extremen Treiberproblemen mit meiner Gefroce2MX aus meinen Computern verbannt habe :)

Meine Geforce2 mx 400 lief damals ohne Probleme :D.
Auch bei der 8800er Serie nicht mal richtung grün geschaut?
 
Zotac2012 schrieb:
Ja dann erkennen wie mal die Umstände an, das ein von AMD gesponsertes Game mit Asynchronous Shader unter DX12 derzeit besser läuft als mit Nvidia Grafikkarten.
AotS ist kein von AMD gesponsortes Game. Genausowenig wie Witcher 3 oder was weiß ich ein von nvidia gesponsertes Game ist. So wie "Bestechungsgeld", meine Güte... :freak: Wenn doch mal jemand die Förderprogramme "AMD gaming evolved" und "nvidia Gameworks" aufklären würde...! :rolleyes: Könnte CB das nicht mal übernehmen um diesem unsinnigen Halbwissen ein Ende zu setzen?

Zotac2012 schrieb:
Warum soll man jetzt Nvidia kritisieren, weil ein DX12 Game im Moment besser mit AMD läuft? Warten wir doch einfach mal ab was so die nächsten Games zeigen und dann kann man sich eine Meinung bilden und kritisieren, wenn es nötig ist. Vielleicht hört man von Nvidia auch deshalb nichts, weil man vielleicht an einer Lösung arbeitet, wir Wissen es nicht. Die nächsten Monate werden es zeigen, aber wegen einer Momentaufnahme muss man noch lange nicht in Panik verfallen und schon gar nicht bei einem Game, das außer den Benchmarks und einem Showeffekt als erstes DX12 Game nicht wirklich begeistern kann. ;)
Ausflüchte. Wie das Spiel und insbesondere DirectX-12 und Async Compute funktioniert, ist weder für AMD noch für nvidia unbekannt. Außerdem kommt die Aussage, daß die nvidia-Karten kein Async Compute beherrschen, von nvidia selbst. Eine Lösung gibt es nur in der Einführung neuer Grafikkarten, die man als Kunde neu bezahlen muß. Per Treiber liefert man sowas nicht nach. Da gibt es kein "vielleicht arbeiten sie ja dran". Per Treiber kann man nur optimieren um ein paar Prozentpunkte mehr in Benchmarks zu erreichen, nicht um Async plötzlich möglich werden zu lassen.
 
Der Punkt ist nur, dass SLI und CF obsolet sind - die Anwendung kümmert sich um die Aufteilung, niemand anders. Nach meinem Verständnis muss das Board gar nichts unterstützen und man könnte theoretisch auch zwei verschiedene AMD-GPUs, eine Nvidia-Karte und die Intel-iGPU gleichzeitig verwenden - nur, dass damit wahrscheinlich kein Spiel jemals vernünftig klarkommen wird.

Sowohl NVIDIA als auch AMD erlauben ja nur direkte Kopiervorgänge von GPU zu GPU auf professionellen Karten wie Quadros oder Firepros. Radeons und Geforces sind in dieser Hinsicht ja verkrüppelt und verwenden bei solchen Kopiervorgängen einen CPU Roundtrip. Es wäre schon zu sehen, wenn diese künstliche Limitierung fällt.
 
@Zotac2012: NVidia.GPU´s untersützen allerdings den wichtigen DX12 Pfad Async Compute von der Hardware her gar nicht! Deswegen gehe ich stark davon aus das aktuelle NVidia-GPUS immer "Probleme" mit DX12 Spielen haben werden. Warum kannst du nicht einfach mal einsehen das NVidia hier Mist gebaut hat? Das tue ich doch auch und verfluche meine GTX 980 Ti jetzt.. naja.. ein bisschen :)
 
Zotac2012 schrieb:
Warum soll man jetzt Nvidia kritisieren, weil ein DX12 Game im Moment besser mit AMD läuft? Warten wir doch einfach mal ab was so die nächsten Games zeigen und dann kann man sich eine Meinung bilden und kritisieren, wenn es nötig ist.

Ich begebe mich nun einmal auf das Niveau, wie es damals war, als CB die Performace von Early-Access-Spielen testete.
Da war man einheillig der Meinung, dass man AMD kritisieren muss, weil die Performance schlechter war und der Fakt des Early-Access oder Beta-Status sollten nicht zählen. Nun ist es umgekehrt, dass NVidia etwas hinterher ist und nun soll man Kritik erstmal zurückhalten, weil es ja nur ein Spiel erstmal ist?
Das ist mit zweierlei Maß messen nach der Devise, was mir gefällt, das akzeptiere ich, was mir nicht passt, das ignoriere ich/rede ich klein.
Das geht nicht, bei beiden Firmen nicht. Wenn AMD oder NVidia irgendwo Performance-Probleme haben, dann sollte man der Sache auf den Grund gehen und nicht kleinreden.

Wenn man so fies wäre, dann würde man jetzt noch Hitman und The Division heranziehen (wenn auch als Betaversionen, aber das macht ja die Gegenseite auch), bei dem die AMD 390 sich jeweils besser schlägt (stellenweise 10fps+) als die GTX 970.
Quelle: Digital Foundry Hitman und The Division

Digital Foundry geht übrigens davon aus, dass sich die AMD Karten so gut schlagen, weil besser für diese Optimiert wurde wegen der Hardware in den Konsolen. Es sollte also von der Spielehersteller-Seite her noch möglich sein, mehr für die NVidia Karten zu optimieren.

Ja dann erkennen wie mal die Umstände an, das ein von AMD gesponsertes Game mit Asynchronous Shader unter DX12 derzeit besser läuft als mit Nvidia Grafikkarten.

Das ist der nächste Punkt. Hier hat AMD "gesponsert", daher läuft es auf AMD Karten gut, das ist in deinen Augen scheinbar nicht fair. Aber dass NVidia auf der gleichen Schiene fährt mit Gameworks, dass scheint recht zu sein.

Es ist aber in beiden Fällen nicht okay, wenn die Firmen Einfluss nehmen auf die Spielehersteller, weder AMD noch NVidia sollten das nötig haben. Ist für uns Kunden immer schlecht (es sei denn, man ist Fan von einer der beiden Firmen und kauft so oder so nur von der jeweiligen Firma).
In dem Fall bei AoS ist der Fall nur dahingehend Problematisch, da AoS eigentlich nur eine Funktion von DX12 nutzt die die DX12 zertifizierten Karten doch unterstützen sollten, oder?
 
Zuletzt bearbeitet:
Pisaro schrieb:
Warum kannst du nicht einfach mal einsehen das NVidia hier Mist gebaut hat?

Das würde ich mir allgemein von beiden Seiten manchmal wünschen, wenn die jeweilige Firma Mist baut.

Das tue ich doch auch und verfluche meine GTX 980 Ti jetzt.. naja.. ein bisschen :)

Musst du ja nicht, Performance-mäßig ist sie ja weiterhin mehr als gut. Es sollte nur vllt für den zukünftigen Kauf zu denken geben.
 
Mal eine andere Frage. Keine Ahnung ob diese schon gestellt wurde. Wenn ich das richtig verstanden habe, ist in der Xbox One auch ein AMD Chip drin, und die One soll auch DX12 bekommen. Bedeutet das "Theoretisch", dass die Grafikleistung der One an die der PS4 heran kommen kann bzw. diese sogar überflügeln?!
 
Vicky8 schrieb:
Mal eine andere Frage. Keine Ahnung ob diese schon gestellt wurde. Wenn ich das richtig verstanden habe, ist in der Xbox One auch ein AMD Chip drin, und die One soll auch DX12 bekommen. Bedeutet das "Theoretisch", dass die Grafikleistung der One an die der PS4 heran kommen kann bzw. diese sogar überflügeln?!

Eher nicht, sie wird zwar zulegen und etwas aufholen, aber die PS4 nicht überflügeln.... Die Rohleistung ist bei der PS4 höher da kann auch die Effizienz-Steigerung durch DX12 nicht genug schub bringen... Denn auch die PS4-Entwickler programmieren hardware-nah mit wenig overhead.
 
Wohl eher nicht, da die Konsolen schon hardware-nah sind, die Spiele schon in den Genuss der hauptsächlichen Funktionen von DX12 kommen (reduzierter Overhead). Einzig allein vllt zusätzliche Funktionen von DX12 könnten dann die Entwickler exklusiv für die Xbox Spiele nutzen/bringen.
 
Nein, dem ist vermutlich nicht so. Denn die XBone hat genau wie die PS4 und vorige Konsolen bereits eine sehr Hardware-nahe API. DX12 bringt hier eher den Vorteil, dass man Spiele nur noch für eine API entwickeln muss, wenn man diese auf der XBone und unter Windows 10 veröffentlichen will.

EDIT:
Wow, sogar zwei waren schneller ^^
 
TrabT schrieb:
AMD Rockt :D da bin ich ja froh das ich immer auf die "roten" gesetzt habe und Nvidia seit extremen Treiberproblemen mit meiner Gefroce2MX aus meinen Computern verbannt habe :)

Es gab genug Zeiten, in denen nVidia klar die bessere Wahl gewesen wäre. War es da clever immer auf rot gesetzt zu haben? Ganz sicher nicht. Generell ist es nie clever immer auf die gleiche Sache zu setzten, aber erzähle das mal einem Fanboy...
 
Das schlimme an der ganzen Sache ist eigentlich, dass Nvidia am Ende sowieso mit ihrem "Gameworks" Programm und viel Geld bei den Entwicklern vor der Tür steht und somit wieder eine Optimierung auf deren Karten "Vorang" bekommt.

Ich hoffe es nicht, aber ich sehs schon so kommen :(
 
UltraWurst schrieb:
Was hat Gameworks damit zu tun, daß ein Entwickler offensichtlich nicht gut auf Nvidia zu sprechen ist (und denen dementsprechend absichtlich an's Bein pissen könnte)?


Nach Angaben von Oxide Games habe Nvidia einige falsche Aussagen getroffen. Die PR-Abteilung von Nvidia habe auf die Entwickler Druck ausgeübt, damit sie bestimmte Einstellungen im Ashes-of-Singularity-Benchmark deaktivieren. Oxide Games habe diese Forderungen abgelehnt, was Nvidia "ein bisschen zu persönlich genommen habe".

nicht die entwickler sind angepisst sondern nvidia deine argumente sind also verdreht..

(ironie an)
Wie kann es sich ein entwicklerstudio auch nur erlauben auf nvidias benchmark manupulationsversuche nicht einzugehen.....(ironie aus)

mfg digger66a
 
Capthowdy schrieb:
Es gab genug Zeiten, in denen nVidia klar die bessere Wahl gewesen wäre.

Gerforce 256 z.B., erste Karte (?) mit T&L. War sehr gut für BF1942.

Generell ist es nie clever immer auf die gleiche Sache zu setzten, aber erzähle das mal einem Fanboy...

Eben, zumal die Entwicklung der letzten Jahre für die HD 7000er/Hawaii Serie ja nicht von vornherein absehbar war. Eine schöne Entwicklung für die Kunden, aber sich auch in Zukunft auf so etwas zu verlassen, das sollte man nicht. Ähnlich wie die DX12 Sicherheit der momentanen Maxwell-Karten. Das muss/sollte nun auch geklärt werden.
 
Krautmaster schrieb:
naja Async Shader is auch überbewertet. Versteh die ganze Aufregung hier wenig.

Weißt du was? Ich glaub dir sogar dass du es nicht verstehst.
Ein Performance-Schub von 30-40% verstehen Fanboys immer nur, wenn sie selbst was davon abbekommen.
Aber dir zu liebe solltest du den Test einfach nochmal durchlesen. Wenn es sein muss 2 oder gar 3 mal. Vielleicht verstehst du es dann ja und kommst auch mal wieder von deinem grünen Maulesel runter.

mfg,
Max
 
@Wolfsrabe
AMD arbeitet eng mit den Devs von Ashes of Singularity zusammen, ebenso mit den Devs von Hitman. Machen sie natürlich völlig uneigennützig und auch nur aus Spaß an der Freude. Oh Mann, informiere Dich bitte erst einmal bevor Du einfach rumblökst. :rolleyes:

Und Nvidias Grafikkarten unterstützen Asynchronous Compute, nur eben nicht mit ACEs in Hardware wie AMDs GCN, aber eben anders. Ist ja übrigens nur ein Feature von DX12, gibt noch genug Andere, welche auch AMD noch nicht unterstützt. Und da kann man per Treiberoptimierung, was ja auch von Nvidia angekündigt war, sehr wohl etwas machen. Was das dann bringt werden ja sehen, wenn die nächste DX12 Games released werden. ;)
 
Zotac2012 schrieb:
@Wolfsrabe
AMD arbeitet eng mit den Devs von Ashes of Singularity zusammen, ebenso mit den Devs von Hitman. Machen sie natürlich völlig uneigennützig und auch nur aus Spaß an der Freude. Oh Mann, informiere Dich bitte erst einmal bevor Du einfach rumblökst.

Eigentlich sollte das dich ja wenig stören, denn eine Zusammenarbeit von NVidia mit anderen Entwicklern wurde ja bisher von dir gut gehießen. Entweder steht man dafür ein, dass keiner von beiden auf die Spieleentwickler Einfluss nehmen sollte (und dadurch unter Umständen den anderen benachteiligen), oder aber es ist eine Doppelmoral von einem. Und letzteres empfinde ich persönlich als sehr schwach.

Und da kann man per Treiberoptimierung, was ja auch von Nvidia angekündigt war, sehr wohl etwas machen.

Diese Treiberoptimierung wurde auch schon beim Beta-Test von AoS erwähnt, das ist auch schon wieder eine Weile her. Bisher ist da (leider) noch nichts passiert.

Was das dann bringt werden ja sehen, wenn die nächste DX12 Games released werden.

Bei Hitman (ich gehe auch mal bei Deus Ex davon aus, da beides von Square-Enix kommt) sind die AMD Karten bisher besser (wobei man das erstmal mit Vorsicht genießen sollte, da eben Beta), aber es kann gut möglich sein, dass mit DX12 (sollte die Performance wirklich nicht steigerbar sein durch weitere Optimierung) sowohl Hitman als auch Deus Ex nochmal bei AMD Karten zulegen.
 
max_1234 schrieb:
Weißt du was? Ich glaub dir sogar dass du es nicht verstehst.
Ein Performance-Schub von 30-40% verstehen Fanboys immer nur, wenn sie selbst was davon abbekommen.
Aber dir zu liebe solltest du den Test einfach nochmal durchlesen. Wenn es sein muss 2 oder gar 3 mal. Vielleicht verstehst du es dann ja und kommst auch mal wieder von deinem grünen Maulesel runter.

mfg,
Max

nein ich sage 30-40% in einem einzigen "Game" sind zwar ein willkommener Performance Schub (schrieb ja auch für die die AoS zocken), daraus aber 1:1 auf andere Titel eines ganz anderen Genres und Publishers zu interpolieren halte ich aktuell für gewagt.

Und irgendwelche persönliche Polemik macht den Test mit AoS auch nicht erhabener und aussagekräftiger.

Edit:
-> wo sind eigentlich die 30-40%?
Vielleicht solltest du nochmal 2-3 Mal lesen.

https://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/3/

Ich sehe hier etwa 1-12% bei Async Shader (und darum gings)

Deckt sich auch hiermit:
80322.png


Aber das zeigt ja wieder gut deine doch recht einseitige Einstellung.

Natürlich sind die 10% super wenns die für Lau gibt. Ganz klar. Genauso klar ist ja aber auch der Umstand dass der Titel schon bewusst die Schnittstellen ausreizen will um Unterschiede aufzuzeigen. Genauo deswegen halte ich eine generelle Interpolation auf weitere DX12 Titel für zu früh. Da warte ich lieber einen anständigen Test mit 3-10 AA DX12 Titeln ab.

Edit:
Dann feier ich gern Besitzer schwächerer CPU oder Grafikkarten aus dem AMD die Beseitigung diverser Bottlenecks und Leistung für lau durch DX12 / Vulkan usw.. Was AoS hier zeigt ist schon ein guter Vorgeschmack was vielleicht möglich ist, mehr aber auch nicht.
 
Zuletzt bearbeitet:
Zurück
Oben