Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

sdo schrieb:
Hört sich für mich eher nach Schadensbegrenzung an. Da wird nichts großes mehr kommen imo. Man möchte den Leuten bloß keine Absage erteilen, was PR-technisch ein Desaster wäre. Nur meine Meinung

Deine Meinung in allen Ehren, aber trotzdem ist es relativ sinnfrei, ein Vergleichstest über ein Feature zu machen das auf der einen Hardware funktioniert und auf der anderen nicht.
Ob und wie AsyncCompute auf Nvidia Karten läuft, können wir schlichtweg stand heute nicht beurteilen. Es wird sicherlich nicht an AMD-Karten heranreichen, da es nur softwareseitig implementiert werden kann. Aber für einen Test sollte es wenigstens funktionieren.
 
Zuletzt bearbeitet:
Wie lang hatte Nvidia nun Zeit AsyncShader softwareseitig zu implementieren? Is ja nicht erst seit heute von Nvidia angekündigt. Fakt ist sie kündigen es schon seit Monaten an, passiert is nix. Wie lange sollen wir noch warten bis es "fair" ist?

Als ob schon jemand mal darauf Rücksicht genommen hätte wenn AMD noch keine Treiber hatte....
 
Zuletzt bearbeitet:
@yii

Mag stimmen. Ich denke das wird in großen Teilen davon abhängen ob Pascal hardwareseitige Unterstützung für async-compute hat... denn falls nicht wird nvidias emuliertes async mehrere Jahre halten müssen für maxwell/pascal(bis volta). Dementsprechend müsste es natürlich schon was großes sein, aber wie bereits gesagt glaube ich nicht daran. Da ist einfach zu wenig Kommunikation seitens Nvidias um dem Glauben zu schenken. Vor Monaten war noch viel von dem Wundertreiber die Rede und mittlerweile nichts mehr dazu.

Wenn der Treiber in spätestens 2-4 Wochen nicht erhältlich ist, dann ist's ohnehin egal. Der Schaden ist dann bereits angerichtet, wenn AMD in allen DX12 Titeln vorne liegt (was natürlich noch nicht gesichert ist)
 
Dass ein Mischbetrieb wieder möglich ist, ist wunderbar. Bleibt nur zu hoffen, dass Nvidia da nicht, wieder einmal, Teriber Seitig einen Riegel vorschiebt
 
Ich bin mal gespannt, wie lange es wohl dauert, bis nVidia Multi-GPU per Treiber wieder unterbindet...

Ansonsten würde auch mich mal interessieren, ob sich die Leistung, wenn auch nur geringfügig, durch den Einsatz der iGPU noch etwas steigern ließe.
 
Nett, meine 4 Jahre alte 7970 legt mit DX12 nochmal 5-10% zu wenn man die Ergebnisse der 280x 1zu1 übertragen kann.
Das Ergebnis der AMD Karten ist echt beeindruckend.
Das wird dieses Jahr ein richtig spannendes Duell der neuen 16nm Grafikkarten.
 
Igoo schrieb:
FuryX (hoffentlich mal ohne AiO) und ne 980ti würde ich mir auch antun :D

Gibt es, heißt Nano, 15cm kurz, vergleichsweise günstig.
 
sdo schrieb:
@yii

Wenn der Treiber in spätestens 2-4 Wochen nicht erhältlich ist, dann ist's ohnehin egal. Der Schaden ist dann bereits angerichtet, wenn AMD in allen DX12 Titeln vorne liegt (was natürlich noch nicht gesichert ist)

Man sollte den Release der offiziellen Spiele und Treiber abwarten und dann testen. Da in den nächsten Monaten die ersten Spiele mit DX12 erscheinen werden, geh ich davon aus dass beide Firmen auch entsprechende Treiber bereitstellen werden. Wie gesagt, ob und wie dann AsyncCompute auf Nvidia läuft kann man dann gerne auf Herz und Nieren testen. Wenn sie es nicht sauber implementieren oder schlussendlich drauf verzichten kann und sollte man das auch AMD positiv anrechnen - aber bis dahin ist es eben noch ein bischen hin.

Anhand von diesem Test hier würde ich jedenfalls keine Prognosen für zukünftige Spielebenchmarks abgeben.
 
YforU schrieb:
Objektiv betrachtet ist die DX 12 Performance für AMD jetzt ein richtig schöner Marketing Erfolg denn die Rohleistung lässt sich endlich auch bei 3D Applikationen auf den Boden bringen. Bis DX 12 aber wirklich auf breiter Fläche relevant ist spielen die heute aktuellen GPUs keine nennenswerte Rolle mehr.

Klar ist das eine gutes Marketing für AMD, weil man bei AMD aktuell eigentlich ein gutes Gefühl haben kann während man bei Pascal noch etwas skeptischer sein könnte, da über Pascal noch nicht viel bekannt ist.

Was die Die-Size, Transistor Dichte ect angeht, was das bisher aber auch nur bei Maxwell der Fall. Davor hatte AMD Jahre lang den kleineren Chip. Allein wenn man an Hawaii denkt, welcher gegen GK110 angetreten ist und sich heute auch gut hält. Klar für AMD wäre es am besten gewesen, hätten sie das komplette Line Up mit GCN 1.3 gebracht. Hawaii mit 386 Bit SI, wäre sicherlich interessant gewesen.

Bei Pascal stehen noch einige Sachen an, die sie erst mal lauffähig präsentieren müssen.
Interposer + HBM
Async Compute
Virtuell Memory (bei AMD in HSA)

Desweiteren sollte man nicht vergessen, dass Hawaii ein Jahr älter ist. Für AMD ist es zu mindestens wichtig, dass Async Compute funkt und bei Nvidia wird es auch langsam der Fall sein, weil die Chips kleiner werden und man mehr "Shader" bündeln kann/muss(es gibt einfach die besser Packdichte). Besonders bei den AMD Grafikkarten mit vielen Shader, sieht man die höchste Gewinne, weil es eben mehr Shader gibt, die ohne AS im Leerlauf sind und so zugeschaltet werden können. Aber auch bei der R9 280 (GCN 1) sieht man einen kleinen Zugewinn.
Sprich wenn NV nicht auch bald mehr Shader mit höhere Packdichte liefert, kann es gut sein, dass AMD am Ende kleinere Chips fertigt, mit höhere Packdichte, zwar einen niedrigeren Takt hat, aber durch AS dann wegläuft. Ich bin was Taktrate und den 16/14 nm Prozess angeht, sowieso vorsichtig. Hier muss sich auch mal zeigen, wie hoch man die Shader dann takten kann und ob man dann nicht eventuell sowieso den Weg der hohen Packdichte und somit viele einfache Shader gehen muss.
Es hat nun mal alles Vor und Nachteile, es wird sich zeigen und sicher spannend.

Btw, die Transistoren der jeweiligen AMD und NV GPus geht mit Sicherheit nicht nur für Shader drauf.
 
Zuletzt bearbeitet:
Wenn dieser Artikel stellvertretend für kommende Spiele ist, wird mich meine 2500k wohl überleben ;-)
 
Der große Kampf um DX 12 wird doch sowieso erst während der nächsten Generation ausgefochten. Ein einziges Spiel, was von AMD gesponsort ist (was mMn genauso schlimm ist wie Gameworks), hat kaum Aussagekraft. Ich freue mich als NVidia-Besitzer für alle AMD-Besitzer, denn im Endeffekt werden alle von DX12 profitieren. Aber für das nächste Jahr bin ich auch noch froh, bei NVidia zu sein, für alle tollen Spiele, die momentan auf NVidia besser laufen
 
Toller Test. Nv und Amd Karten in einem System vor 5 Jahren hätte es da einen bluescreen Marathon gegeben. 😊
 
Da freue ich mich mal wieder das ich mir einen 5820k statt dem reletiv teueren 6700k geholt habe. :D Zumal ich davon ausgehe das alle Prozessoren auf der Standardfrequenz laufen und somit 3.4 bzw 3.6 vs. 4ghz antreten.

Ein Mischbetrieb ist auch interessant. Wie funktioniert das mit den Treibern?

Denn soweit ich es noch in Erinnerung habe hat Nvidia eine sperre eingebaut um zu vermeiden das man mit einer AMD karte und einer GTX Physiks nutzen kann. Das lief dann nur mittels Treiber hack aber war dann äußerst interessant. Habe damals 2 5770er + eine 9800 Ultra für Physiks genutzt ^^
 
usb2_2 schrieb:
Tja erst bezahlt man so viel mehr für eine 980 ti und dann wird die noch langsamer, wenn man DX 12 nutzt. Wenn Spiele nur noch DX 12 benutzen hat sich eine Fury x gelohnt.
Bis dahin haben sich Leute, die eine GTX 980 Ti besitzen, ohnehin längst eine neue geholt.
Ärgerlich ist es eher für Leute, die nicht so viel Geld haben.

Wobei abzuwarten bleibt, ob die Vorteile in anderen Titeln genau so groß sein werden.
 
Dai6oro schrieb:
1. Man sieht hier extrem gut wie gut doch der Nvidia Treiber mit Draw Calls unter DX 11 umgehen kann. Das finde ich schon beeindruckend und ich frage mich warum AMD das unter DX 11 nicht hinbekommt. Dazu gibt es verschiedene Thesen: Die Hardware ist dafür nicht ausgelegt
Ich denke, das ist ein wichtiger Punkt. AMD hatte mehr Rohleistung, aber um die wirklich auf die Straße zu bringen war mehr Optimierung notwendig. Aber anscheinend wurde das durch die vielen Abstraktionsebenen von DX11 erschwert. Das lässt sich auch daran erkennen, dass einige Spiele, die auf dem PC nur schlecht mit GCN-Karten liefen, auf der Konsole hingegen keine vergleichbaren Probleme zeigten.

Dai6oro schrieb:
5. Fraglich wie viele der neuen DX 12 Games Async Compute nutzen werden. Hitman und DeusX wohl auf jeden Fall da Gaming Evolved Titel. Bei allen anderen ist es fraglich. Einerseits würde es mich nicht wundern wenn Nvidia hier Druck ausübt auf Entwickler die an Ihrem Programm teilnehmen andererseits sollte die Enwtickler ein Interesse daran haben denn schließlich nutzen die Konsolen GCN GPUs.
Das muss nichts heißen. Die Hersteller können das Feature ja auf der Konsole nutzen und es für den PC unter irgendeinem Vorwand deaktivieren. So etwas ähnliches gab es doch mal bei AC.

Faust2011 schrieb:
Eventuell hat das noch ganz viel Aussagekraft! Warum? Nvidias Nachfolgearchitektur, Pascal, wurde ja nicht erst seit Jahresbeginn am grünen Tisch entworfen. Nein, die Entwicklung startete bereits vor viel längerer Zeit. Deshalb kann es sein (und wurde bereits beim Aufkommen des AsyncShader-Diskussion letztes Jahr spekuliert), dass die neuen Chips von Nvidia bezüglich AsyncShader genauso schlecht dastehen wie die aktuelle Generation.
Das denke ich nicht. Maxwell war von vorne herein nur eine Übergangsarchitektur, im Prinzip ein für's Gaming optimierter Kepler, also immer noch eine für DX11 optimierte Architektur. Pascal ist hingegen wieder eine "reguläre" Weiterentwicklung und dürfte voll und ganz auf DX12 optimiert sein.

SuddenDeathStgt schrieb:
@II n II d II
Ja, ....WAHNSINN & dennoch für einen i3 mit 2Kernen & 4Threads reicht es nicht zum überflügeln. Wenn man diese Performancesteigerung soo feiert & man damit immer noch keinen i3 "natzt", dann feiert man auch alles!^^
Man sollte berücksichtigen, dass hier mit einem Vishera verglichen wurde. Bei den ersten Benchmarks des Desktop-Excavator, hat der im Vergleich zum direkten Vorgänger (Kaveri) bei der Single-Thread Leistung bei gleicher TDP um 20-30% zugelegt und Kaveri war ja teils schon 10-15% schneller als Vishera.

W0lfenstein schrieb:
Nicht schlecht, nicht schlecht. Amd kann ja ganz gut zulegen und ich gönne es ihnen von herzen .
Warum, warum nur ist Dx12 mit Win10 verbunden..... wir werden nie freunde werden....
Dann musst du hoffen, dass Vulkan breite Unterstützung seitens der Spiele-Entwickler erfährt. Dann könntest du bei Win7/8 bleiben und trotzdem vergleichbare Vorteile wie durch DX12 genießen.
 
cirrussc schrieb:
Das ist nur die halbe Wahrheit. Nur nur wurde der CPU Overhead verringert, sondern die bestehenden Aufgaben werden wesentlich besser auf Threads verteilt und Bulldozer ist in MT (mit optimierten Compiler Flags erst recht) nun mal nicht so extrem schlecht, wie er immer gemacht wird. Dass er Intel oft sehr weit hinter hängt, braucht man eigentlich nicht extra betonen.

Man braucht da nicht viel schönzureden: der FX und der i3 hängen nach wie vor beide im CPU Limit und haben im Verhältnis beide in etwa gleich zugelegt. Das ist toll, aber letztendlich macht es den FX jetzt halt nicht besser als vorher.
Alles ab i5 hängt mehr oder weniger im Gpu Limit, deshalb wird da nicht mehr zugelegt.

Ob das jetzt so wegen besseren Threadings ist oder weil weniger Leistung benötigt wird -> vollkommen egal. Ich würde fast sagen wenn der i3 mit 4 Threads genauso zulegt wie der FX weist das für mich nicht unbedingt auf besseres Threading, aber egal.
 
Limit schrieb:
Das denke ich nicht. Maxwell war von vorne herein nur eine Übergangsarchitektur, im Prinzip ein für's Gaming optimierter Kepler, also immer noch eine für DX11 optimierte Architektur. Pascal ist hingegen wieder eine "reguläre" Weiterentwicklung und dürfte voll und ganz auf DX12 optimiert sein.

Volta soll komplett überarbeitet sein, Pascal soll mehr oder weniger nur ein Shrink sein mit ein paar Features mehr, was hat den Nvidia bitte zu verlieren, dass diese sagen es wird Async Compute unterstützt das macht doch keinen Sinn oder ? Wenn man es besser implementiert kann man den Mitstreiter noch immer hart treffen da brauch ich keine Heimlichtuerei.
 
Wenn - wie bekundet - sich nicht mehr viel Wesentliches an Ashes of the Singularity (AotS) tun soll, wäre dann meine Frage (indirekte Aufforderung) an CB, ob Ihr AotS dann nicht generell (als erstes DX12 unterstützendes Spiel und wegen der hohen Draw Call Rate) von nun an als Spiel bei neuen/zu testenden GPUs (neben anderen/bisherigen Kandidaten/Bekannten (teils vermurksten Spielen) wie Assassins Creed Unity, Far Cry 4, the Division, Schatten von Mordor, Batman Arkham Knight, Call of Duty Black Ops 3, etc.) standardmäßig aufnehmen könnt?

Falls dann in nicht allzu ferner Zukunft eine AMD R9 Fury X2 vorgestellt/getestet wird oder die ersten AMD Polaris und nVidia Pascal Karten, dürfte AotS als Testspiel sicherlich aufschlussreiche Ergebnisse liefern. Das gleiche würde ich mir natürlich auch für nahende, andere DX12 unterstützende und exklusive Spiele wünschen (Quantum Break, Fable Legends, Deus Ex - Mankind Divided, King of Wushu, Gears of War - Ultimate, etc.), zumal Frostbyte's technischer Direktor vor einiger Zeit schon angedeutet hat, dass evt. BattleField 5, Mass Effect 4, usw. auf DX12/Win10 zwingend setzen könnten:

http://www.eteknix.com/frostbite-technical-director-wants-directx-12-as-a-requirement-for-2016-holiday-games/


Ein anderes großes Fragezeichen kann man auch, nach diesem Test sowie dem vorherigen Test zur mittlerweile minimal notwendigen Speicherausstattung von 4GB bei aktuellen Spieletiteln und den daraus in absehbarer Zeit resultierenden Druck auf den Wiederverkaufswert, hinter GTX 970 (und evt. GTX980) Karten setzen. Also ich würde mittlerweile keinem mehr empfehlen - selbst gebraucht - eine GTX970 anzuschaffen, Verbrauch/Effizienz hin oder her, angesichts der wachsenden Überlegenheit in Sachen Leistung und Langlebigkeit einer R9 390 von AMD (wobei bei etwas größerem Geldbeutel auch die R9 390X immer attraktiver wird). Wer kauft sich denn bitte noch eine GTX 970 wenn die ersten Oberklassekarten der Polaris und Pascal Generationen erhältlich sind, insbesondere, wenn restlagernd abverkaufte oder gebrauchte AMD R9 390(X) Karten nachweislich dann weitaus mehr bieten für das angelegte Geld? Diejenigen müssten ja HardCore nVidia Fans sein oder mit einem Klammerbeutel gepudert. Ich denke es werden weitaus mehr Leute auf ihren GTX970er Karten sitzen bleiben bzw. diese weit unter Erwartungen verkaufen/abstoßen müssen, als momentan erwartet, zumal bei der verkauften Masse von Karten die Konkurrenz und Preisdruck beim Wiederverkauf auch größer sein dürfte .... etwas, was man vielleicht momentan bedenken sollte, auch im Hinblick auf ein um- oder aufrüsten bei jetzigen Besitzern einer nVidia GTX970 Karte.
 
Zuletzt bearbeitet:
Zurück
Oben