Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

Ich find die Multi-GPU Geschichte saucool....

Einfach mal eben 390X und GTX980 kombinieren, 65% Leistungsplus ohne Mikroruckler... wtf? :D
 
Die Leistungsexplosion bei den Cpus vorallem den kleinen AMD`s ist richtig übel. Aber auch klar, da die aktuellen Intel nunmal schon sehr weit vorne sind und im gpu limit hängen.
Aber das bedeutet auch das man mit einer aktuellen Intel CPU nochmal weit länger auskommt und selbst die alten Fx, Sandy und ivys dürften durch dx12 nochmal 2-3 Jahre gewinnen.
Also für den CPU Kunden ist das absolut Klasse, da man so mehr Kohle in die neue Gpus stecken kann.
Man hat auch damals bei Crysis 3 und Patch 1.3 gesehen wo der Buli stehen könnte bei guter Optimierung, aber die Theorie nützt nichts wenn die Praxis halt anders aussieht.

Mir persönlich als 970 User ist, selbst wenn nv da mit treiber nichts mehr verbessern kann das ganze mehr oder weniger egal da mit pascal oder Polaris sowiso aufgerüstet wird.
Entweder Nv hat hier die Architektur angepasst auf dx12 was zu erwarten ist oder es wird halt dann eine Polaris gekauft von daher lehne ich mich zurück und warte auf die neue Grafikgeneration.

Aber als nicht Konsolero sieht man hier leider auch sehr gut warum die Konsolen so viel weniger Hardware benötigen für ihre Leistung .
 
Zuletzt bearbeitet:
3 und 4 Grafikkarten SLI würde mich noch interessieren ob immer noch keine Mikroruckler auftreten und wie jeweils die zusätzliche Leistubgssteigerung ausfällt. Gerüchten zu Folge kommt im März mit Gears of War Ultimate das nächste DX12 Spiel raus. Mal sehen obs da ähnlich aussieht. Wenn ja: Comeback der MultibGPU ich träum jetzt schon von 100plus FPS in 4K auf einem Ips 144 just Display mit Dual Titan Pascals oder Polaris...
 
SuddenDeathStgt schrieb:
B
Jetzt übertreibt mal nicht & sooo viel Lobhudelei ist gar nicht angebracht. Der schnellste FX "natzt" immer noch keinen Haswell i3 ...
I5 4690 50,5 @DX11; 54,7 @DX12
FX 8370 39,3 @DX11; 48,7 @DX12
I3 4330 43,5 @DX11; 50,8 @DX12

Die Intel-Prozessoren stehen immer noch viel besser da, keine Frage. Aber AMD profitiert etwas mehr und Intel ist nicht mehr ganz so peinlich weit weg.

Zwischen FX-8370 und i3-4330 liegen bei der 980Ti unter DX11 noch 11%, unter DX12 nur noch 4%.
Zwischen FX-8370 und i5-4690 liegen bei der 980Ti unter DX11 noch 28%, unter DX12 nur noch 12%.

Zwischen FX-8370 und i3-4330 liegen bei der Fury X unter DX11 noch 27%, unter DX12 nur noch 2%.
Zwischen FX-8370 und i5-4690 liegen bei der Fury X unter DX11 noch 52%, unter DX12 nur noch 28%.
 
Vitec schrieb:
Als 970 User ist selbst wenn nv da mit treiber nichts mehr verbessern kann das ganze mehr oder weniger egal da mit pascal und amd sowiso aufgerüstet wird.

Dein ernst? Deine Erwartung ist also, dass jemand mit seiner 300-400€ gpu die 1 jahr alt ist dieses Jahr bereits wieder was neues kauft?(Beziehst es warscheinlich auf dich selbst dennoch) So reich und dumm würde ich gerne sein. GTX 970 user sind erstmal auf lange Sicht am arsch. von den 290/390 und gtx 970 Besitzern werden mit Sicherheit weniger als 5% auf Polaris/Pascal umrüsten
 
GCN 1 kann nunmal kein Async soweit ich weiß und damit musst dich halt abfinden
Queue Families: 3, eine davon ausschließlich für Compute. Eine Fury sieht da nur geringfügig anders aus.

Wenn Mesa im Laufe des Jahres GL 4.5-Compliance erreicht und die neuen AMD-Karten was werden, gibts dann nach 4 Jahren vielleicht auch mal ne neue Grafikkarte. Die 670 war gut, damals für mich besser als die Konkurrenz, aber AMD wird auch unter Linux allmählich zu einer ernstzunehmenden Alternative.

Bin mal gespannt, wie es weitergeht mit DX12. Bei AoS kann man eine Nähe zu AMD nun nicht abstreiten und die Ergebnisse fallen auch mehr als deutlich pro AMD aus, Hitman ist auch ein Gaming Evolved-Titel... geht nicht gut los für NV, auf die allgemeine DX12-Performance kann man aber trotzdem erst schließen, wenn ein breiteres Spektrum an Spielen draußen ist. Dass die Balkenreihenfolge in Zukunft etwas anders aussieh, halte ich trotzdem mal für sehr wahrscheinlich.

Dass diese Funktion von DX12 aber dermaßen optimal möglich ist, hätte ich nicht für wahr gehalten.
Das ist mitunter das erstaunlichste an der ganzen Sache.
Wobei die Skalierung in meinen Augen das Gegenteil von optimal ist. Dass das überhaupt geht, liegt einfach daran, dass Dx12 und Vulkan die Entwickler selbst dazu zwingen, die Arbeit auf die verschiedenen GPUs zu verteilen, und das dürfte wohl die absolute Königsklasse in der Grafikprogrammierung sein - insofern ein Wunder, dass das Spiel überhaupt schon mehr als eine Grafikkarte nutzt.
 
Zuletzt bearbeitet:
Aus dem Artikel
Es gibt einen Geschwindigkeitsvergleich des DirectX-12-Features Asynchronous Compute sowie einen Blick auf die Frametimes und die exotische Multi-GPU-Konstellation mit einer AMD- sowie einer Nvidia-Grafikkarte. Die Ergebnisse stellen alte DirectX-12-Benchmarks von Ashes of the Singularity, deutlich in den Schatten.
Ein interessanter Vergleich, vor allem wenn bei Nvidia AsyncCompute noch gar nicht umgesetzt/aktiviert ist.

Es gibt von einem Oxide Dev im overclock.net Forum folgende Aussage (von vor einer Woche)
Async compute is currently forcibly disabled on public builds of Ashes for NV hardware. Whatever performance changes you are seeing driver to driver doesn't have anything to do with async compute.I can confirm that the latest shipping DX12 drivers from NV do support async compute. You'd have to ask NV how specifically it is implemented.

und dazu folgenden Tweet von Nvidia Product Manger Sean Pelletier von heute Abend
Fun FACT of the day: Async Compute is NOT enabled on the driver-side with public Game Ready Drivers. You need app-side + driver-side!

Unterm Strich kann man also festhalten.
Der Performance-Sprung unter DX12 auf AMD Karten ist nicht von schlechten Eltern.
Aber die Messungen auf Nvidia-Karten sind nicht vergleichbar, da ein grundlegendes Feature zum berechnen des Frames gar nicht aktiv ist. Wie wir alle wissen implementiert Nvidia AsyncCompute softwareseitig, insofern kann man vermuten, dass sie nicht an AMD rankommen werden. Aber ganz so groß sollte der Unterschied dann letztendlich auch nicht werden.
 
VikingGe schrieb:
Wobei die Skalierung in meinen Augen das Gegenteil von optimal ist. Dass das überhaupt geht, liegt einfach daran, dass Dx12 und Vulkan die Entwickler selbst dazu zwingen, die Arbeit auf die verschiedenen GPUs zu verteilen, und das dürfte wohl die absolute Königsklasse in der Grafikprogrammierung sein - insofern ein Wunder, dass das Spiel überhaupt schon mehr als eine Grafikkarte nutzt.
Natürlich. Obwohl PCGH wohl trotzdem Artefakte entdeckten, kann man nur hoffen, dass nicht wenige Entwickler sich an diese Aufgabe wagen und erfolgreich umsetzen.

SuddenDeathStgt schrieb:
Wenn es für einen i3 immer noch nicht reicht, dann ist das in meinen Augen peinlich ...:D:p
Ganz ohne Grund hat man sich nicht dazu durch gerungen eine neue Architektur zu entwickeln und den 5 Jahre alten Bulldozer (obwohl in Excavator Inkarnation beachtlich zugelegt) zu ersetzen.
 
Verstehe nicht was sich alle hier so freuen :freak:

Ich finde es gut wenn AMD mal etwas druck auf Nvidia ausübt und die mal dazu zwingt wieder etwas mehr Hirnschmalz in die Hardware/Software zu setzen. ABER man muss sich anschauen was JETZT los ist, und im hier und jetzt ist nun mal AMD immer noch "Kacke", die CPU's sind Welten schelchter als bei Intel und die GPUs sind in der Regel langsamer und/oder ineffizierter. Wenn sich das mal dauerhaft dreht (und auf DX12 muss sich erstmal behaupten - Stichwort Vulkan) dann wird es sicher spannend.

Zudem ist jetzt Vulkan da das wird sicher auch nochmal alle Karten neu mischen. Viele finden ja Widows 10 nicht so prikelned (ich inkl.), also denke ich das es noch ehr Nische ist (DX12), aber mal sehen wie es sich entwickelt.

Ich jedenfalls bin (noch) recht happy mit der 980 Ti und dem 4970K, mein letzes game war Rise of the Tombraider und war sehr zufrieden mit der Leistung meiner Hardware.:o


PS: Ich würde auch ZEN + Polaris kaufen muss halt nur BESSER sein :)
 
Bulldozer geht under DX12 ja richtig ab. Und wenn in DX12 Spielen zukünfig immer ein solcher Performancesprung einhergeht, kann ich den meine 290x noch ein gutes Stück länger im Rechner lassen. Und noch besser ists ja, dass man die nicht einmal ersetzen muss. Einfach neue Karte reinstecken und Mikrorucklerfrei im Dual-GPU Betrieb mit guter Skalierung noch mehr Leistung im Rechner haben. Schon genial.

Und Leute die sich auf Pascal/Polaris stürzen profitieren bestimmt doppelt. 4k@60fps+ ist da locker drin.
 
TheMetalViking schrieb:
GCN ist eine unfassbar gute Architektur. 2011 erschienen, und tritt heute noch Ärsche. Wundervoll.

Bei aller berechtigten Begeisterung zeigen die DX 12 Benchmarks genaugenommen das Gegenteil. Die Auslastung der GCN Architektur (-> Einheiten) ist unter DX 11 ein gutes Stück schlechter als bei Kepler/Maxwell. Die direkte Folge war das Nvidia über Jahre trotz geringerer theoretischer Rohleistung (-> weniger Transistoren und damit einer geringeren Leistungsaufnahme) effektiv flottere GPUs auf den Markt bringen konnte. Oben drauf kam zusätzlich das man bei Nvidia die CPU Abhängigkeit des DX 11 Treibers im direkten Vergleich zu AMD in erheblichen Maße reduzieren konnte.

Dieser Zustand hat AMD über Jahre nicht nur Marktanteile sondern auch Marge gekostet (im direkten Vergleich fettere Chips zu niedrigeren Preisen). Im Gegensatz zu Nvidia welche sich in erster Linie auf das Kernsegment (-> 3D Performance) fokussiert haben hat AMD mit GCN die Compute Keule geschwungen. Vom wirtschaftlichen Standpunkt war GCN deshalb für AMD alles andere als unfassbar gut.

Objektiv betrachtet ist die DX 12 Performance für AMD jetzt ein richtig schöner Marketing Erfolg denn die Rohleistung lässt sich endlich auch bei 3D Applikationen auf den Boden bringen. Bis DX 12 aber wirklich auf breiter Fläche relevant ist spielen die heute aktuellen GPUs keine nennenswerte Rolle mehr. Hier ist einfach auch zu sehen das es in den kommenden 12-18 Monaten bei der GPU Performance einen der größten Sprünge der IT Geschichte (Faktor 2+) geben wird (28nm -> 14nm FF).
 
Zuletzt bearbeitet:
Ach sieh einer an :evillol:
Kaum wird mal die Softwaretechnik richtig genutzt läuft es wie geschnitten Brot
und auch mit den ach so lahmen AMD FX-CPUs kommt da richtig Freude auf.

Die Skalierung passt, die Leistung wird dort abgerufen wo gebraucht und schon läufts.

Dann freue ich mich doch, dass mein FX-8350 noch ein Jahr bei mir verweilen darf.

Andererseits natürlich schade, wie schön hätte AMD aussehen können hätten Sie
einen DX11 Treiber wie NVIDIA und würden jetzt mit DX 12 noch mal nen kleineren
Betrag zulegen.
Naja warten wir mal ab was die anderen DX 12 Spiele so bringen, dennoch zeigt dies
ganz schön was alles möglich ist und das unsere Hardware auch vernünftiges leisten
kann, wenn man sie denn richtig anspricht. ;)

@CB
Habt ihr eigentlich mit dem 16.2 Beta getestet?
Laut KB sind ja noch mal:
Performance and quality improvements for
◾Ashes of the Singularity – Benchmark 2
Quelle: http://support.amd.com/en-us/kb-articles/Pages/AMD_Radeon_Software_Crimson_Edition_16.2.aspx
 
Zuletzt bearbeitet:
Sehr guter Test! Vielen Dank dafür. Computerbase wird ja immer bessern, bin nicht nur von AMD begeistert, sondern auch von euch! :)
 
derbe schrieb:
Genau das ist der Springende Punkt.
Ein viel weiter springender Punkt, bzw viel mehr springende Punkte... sind die Leute die eben nicht alle 1-2 Jahre ihr Setup erneuern.
Neu HW ist interessant für Neukäufer oder Zwangsaufrüster (weil fast garnix mehr gut läuft oder einfach kaputt geht) Die Wannbehighendzocker machen den kleinsten Teil aus. Die Marketingabteilungen wollen es anders, aber zum Glück gibts noch ein paar denkende Menschen.

Ist garnicht solange her, da hab ich jemanden FX-6300 und R9 380 empfohlen. Grosses Gemaule anderer, aber der User wollte die Kiste bis zum bitteren Ende nutzen, gedachte 4-5 Jahre. ~500€ fürs Komplettpaket.
So wie (wage) aussieht, war das nicht falsch.
 
Zuletzt bearbeitet:
updater14 schrieb:
@CB
Habt ihr eigentlich mit dem 16.2 Beta getestet?
Laut KB sind ja noch mal:

Quelle: http://support.amd.com/en-us/kb-articles/Pages/AMD_Radeon_Software_Crimson_Edition_16.2.aspx

Ja, steht im Artikel dass der neueste Beta-Treiber von AMD speziell für AoS benutzt wurde.

Was aber nicht im Artikel steht, ist das der verwendet GameReady-Treiber von Nvidia noch gar kein AsyncCompute unterstützt, weshalb der Vergleich in diesem Feature ein wenig bedeutungslos ist.
Quelle: https://twitter.com/PellyNV/status/702556025816125440
 
Zuletzt bearbeitet:
Danke für den Test. Was mich mal interessieren würde, wie sieht es mit einer APU ( A10-7850K ) in Verbindung mit einer 380/390 aus, oder einer anderen Karte - vielleicht sogar mit einer Nvidia....960/970

Können die kleinen APU´s davon stark profitieren und ihre Grafikeinheit im Verbund mit der PCIe Karte nutzen.

Auch das rot/grün jetzt schon so gut zu zusammen laufen ist mal eine echte Ansage. Ich hoffe spätestens 2017 geht es endlich mal wieder richtig Vorwärts.

edit:
Auch muss man sagen das man wohl für 600 Euro eine echt gute 4k Performance bekommt, wenn man sich zwei 390er in die Kiste schraubt. VRam hat man dann auch genug und ist immer noch günstiger als eine 980TI :p
 
Zuletzt bearbeitet:
kisser schrieb:
Meine Aussage war, dass sowohl die Softwareentwickler (u.a Spielehersteller), als auch alle Hardware-Hersteller mit MS am Tisch sitzen und an der Spezifikation der DX-API mitwirken. Da gehört z.B auch Intel mit dazu, deren iGPUs derzeit die am weitest fortgeschrittene Hardware-Implementierung für DX12 darstellen.
​Stimmt eigentlich. Von der iGPU hätte man auch noch einen Bench machen können, von beiden Hersteller. Und dann besonders beim Multi-GPU. Hat ja so ziemlich jeder "neue" CPU eine iGPU, welche nun mithelfen könnte, aber gerade dies Testet man nicht.
Oder geht iGPU und dGPU zusammen nicht?
 
Zurück
Oben