Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

Stellt euch mal vor: 4gpus 2 980ti und 2 furys (x). Der Hammer.
Ich würde das gerne mal testen. Meine 290x und die 980ti von wem anders. Was auch cool ist, dass sich jetzt auch Graka mit unterschiedlich viel Vram verbauen lassen. Einfach Nice.
Den leistungszuwachs können wir spätestens mit quantum Break sehen ( ist nen neutrales Game genau wie dieses hier). Mal schauen wie dort die fps sind. Das Game hat zwar nur Directx12 aber man kann ja sehen, um wieviel sie Karten schneller sind zueinander.
 
Faust2011 schrieb:
P.S. Bei Nivida könnte ich mir nach diesem Debakel gar vorstellen, dass sie mit der nächsten Treiberversion solche Multi-GPU Konstellationen (mit der Konkurrenz) boykottieren :(

Davon kannst Du ausgehen.

Ich musste damals bei Mafia 2 noch gemoddedete Treiber einsetzen,
​um neben meiner HD6950 eine 8800GTS als PhysiX Karte laufen.
Es ging, wurde aber schlicht im normalen Treibber von NV verhindert.
 
edenjung schrieb:
Stellt euch mal vor: 4gpus 2 980ti und 2 furys (x). Der Hammer.
Ich würde das gerne mal testen. Meine 290x und die 980ti von wem anders. Was auch cool ist, dass sich jetzt auch Graka mit unterschiedlich viel Vram verbauen lassen. Einfach Nice.
Den leistungszuwachs können wir spätestens mit quantum Break sehen ( ist nen neutrales Game genau wie dieses hier). Mal schauen wie dort die fps sind. Das Game hat zwar nur Directx12 aber man kann ja sehen, um wieviel sie Karten schneller sind zueinander.

http://www.pcgameshardware.de/Ashes...8/Specials/Benchmark-Test-DirectX-12-1187073/

Ganz unten. Da sieht man zumindest, was einen erwarten kann. Bin mal gespannt. ^^
 
@ edenjung, da hast du ja nochmal Glück gehabt, dass wir damals doch nicht getauscht haben. ;)

Und ich habe noch den perfekten Absprung von meiner 970 gefunden xD
 
rg88 schrieb:
Für mich sieht das einfach danach aus, dass das mit DX12 ins rechte gerückt wird, was lange nicht gepasst hat:
Die GCN-Architektur hat eine enorme TFLOP-Leistung, kann sie aber nur bedingt auf die Straße bringen.
Endlich ist der sinnlose Scheiß mit Optimierungen pro Nvidia und anderen Kinkerlitzchen vorbei.

Das AMD nicht ganz grundlos Mantle entwickelt hat, ist ja klar.
Jetzt zeigt sich zusätzlich, wie clever der Schachzug war.

Ich muss gestehen, ich feiere gerade ziemlich.
Vor allem, weil einige arogant Grüne ja AMD schon totgesagt haben :p
 
Wenn man sich diesen Test anschaut, dann gibt es sogar Unterschiede, wenn mal die eine, mal die andere Grafikkarte Master bzw. Slave ist. Es gibt ja auch 2011-3er Boards, die die Lanes x16/x8 oder x16/x16 aufteilen (je nach CPU) und nicht wie die 1151er Boards, die dann x8/x8 fahren. Wäre interesant, ob das dann einen Unterschied macht.

Ich finde es aber nicht weitsichtig zu sagen, das AMD jetzt besser ist, nur weil in einem Spiel die Performance durch DX12 steigt. In anderen Spielen kann das auch wieder ganz anders aussehen.

Und zu sagen, AMD hätte ehr für die Zukunft entwickelt, wäre aus rein wirtschaftlicher Sicht total ungünstig, da ein Unternehmen JETZT Gewinn/Umsatz braucht, und nicht in 3 oder 4 Jahren.
 
Igoo schrieb:
Nichts unerwartetes bisher, blöd nur das man Dx10 braucht was viele nicht wollendank Windows 10 und dann das Spiel haben will/muss.

Dann investiert man die 60 EUR in eine zusätzliche 240 GB SSD und fährt Windows 7 und 10 je nach Bedarf.
 
Ich freue mich tierisch, dass AMD endlich mal wieder Fuß fasst und mit den "Low-Level" APIs anscheinend wirklich mal die Leistung auf die Straße bringt. Somit kommt wieder Schwung in den Markt und Nvidia wird vllt mal ein wenig vom hohen Thron runter geholt.

Ich besitze selbst eine 980 TI, einfach weil diese derzeit die beste Leistung in 95 Prozent aller Spiele bringt, bin aber gespannt, was Nvidia dagegen zu setzen hat. Ich bin davon überzeugt, dass auch Maxwell noch durch Treiberoptimierungen, andere Tweaks von DX12 profitieren "kann" ... Das AMD aber so zurück kommt, find ich trotzdem schön :)
 
fanatiXalpha schrieb:
wie isn das
konnte man schon vorher eine AMD GPU als HauptGPU besitzen und eine kleinere NV-GPU für Physics
oder geht das erst jetzt?

Es war technisch kein Problem, wurde aber von NV im Treiber unterbunden.
Es gab jedoch Treiberhacks, die das ermöglicht haben und damit den Beweis erbrachten,
das NV das mutwillig sabotiert hat.
Oder freundlicher ausgedrückt: Unterbunden hat ;)

Ich habe Mafia 2 damals mit einer HD6950 und 8800GTS als PhysiX Karte gespielt,
brauchte dazu aber den gemoddeten Treiber.
 
P.S. Bei Nivida könnte ich mir nach diesem Debakel gar vorstellen, dass sie mit der nächsten Treiberversion solche Multi-GPU Konstellationen (mit der Konkurrenz) boykottieren

Unwahrscheinlich, denn nVidia würde damit gegen die DX12-Spezifikationen verstoßen.
 
Wie lange dauert es eigentlich, eine neue GPU zu entwickeln? Ich meine die Entwicklung von Pascal war sicher schon weit fortgeschritten, als noch niemand etwas von Mantle, DX12 & Vulkan geahnt hat.

Aber erst mal abwarten. Kann mir nicht vorstellen, das sich der Spieß umdreht und AMD die kommenden Jahre vorne liegt, weil Polaris von Anfang an auf die neuen Api optimiert worden ist.
 
Conceptions schrieb:
Wenn du willst kann ich auch Manuel Neuer sein.
Ändert nichts daran das man schon merkt aus welchem Holz du geschnitzt bist.
Vermutlich aus dem selben, welches für Fermi genutzt wurde.

:daumen: sehr schön ^^

Dass hier einige verärgerte Nvidia Botschafter auftauchen war ja klar. Wobei ich ja finde, dass man sich zumindest darüber freuen sollte, dass mit DX12 so etwas wie ein CPU Limit in 1080p mit einem Intel Quadcore nicht mehr vorstellbar ist. Mit meinem tollen 8 Thread Intel erlebe ich das nämlich immer wieder, in fast jedem Spiel, vor allem in TF2..

Was soll eigentlich dieses Theater von Nvidia bzgl ACE? Warum nicht einfach bestätigen, was eigentlich schon klar ist? Keine hardwareseitige Async Compute Unterstützung, ganz einfach. Aber das ist ja auch irgendwie typisch für Nvidia, eigene Fehler o.Ä. nicht zuzugeben. Genauso wars ja bei dem 970 gate. Da war man sogar so frech es als Feature zu bezeichnen. Keinerlei Entschuldigung für den "Kommunikationsfehler", nein später gabs sogar ein " ihr liebt die 970 also doch: 3,5+0,5 = <3" auf Facebook. Ein PCB mit 2 Maxwell GPUs bezeichnet der CEO persönlich vor versammelter Presse als ein PCB mit 2 Pascal GPUs..usw usf.

Bei AMD war man aber in der Lage zuzugeben dass die Bulldozer Architektur ein Fail war. Man hat sogar Intel CPUs mit AMD GPUs kombiniert.. Und nachdem bekannt wurde, dass Maxwell möglicherweise Async compute nicht beherrscht und die Fragen auftauchten, was das für DX12 ready GPUs denn sind, hatte AMD klargestellt, dass keine aktuellen GPUs voll DX12 kompatibel sind.

Das sind so Dinge, die schon einiges über die Seriosität und Glaubwürdigkeit der beiden Firmen sagen.

Ich wäre übrigens nicht überrascht, wenn gleich irgendein Troll mit "aber aber Overclockers Dream" kontert ... :freak:
 
@Thema:
Wo kann ich in der CPU-Liste meinen i7-2600K einordnen? Ungefähr bei dem Intel Core i3-4330 ?



xamoel schrieb:
Ist doch lächerlich, mal abwarten wie das in andren Games aussieht.
Der Ausruf "Lächerlich!" ist immer ein deutliches Zeichen von krampfhafter Realitätsverweigerung. :p

Kein Grund zum Weinen, nvidia wird AsycCompute mit der neuen Grafikkartengeneration auch einführen.
 
Also eigentlich löst AMD überhaupt keine Bremse. Ihr Zutun ist relativ gering. Der Test zeigt vor allem, wie schlecht AMDs DX11 Treiber verglichen mit NV ist. Und die neue API löst dieses Problem für AMD, indem sie die CPU wesentlich besser auslastet.

Wie auch immer. Was gefällt, ist Multi GPU mit verschiedenen Karten. Und die bessere CPU Auslastung generell unter DX12. Schön wäre da mal ein Test von reinen APU Systemen. Die AMD APUs dürften da wahnsinnig zulegen.
 
karamba

Wie erklärst du dir dann die Performance gewinne gegenüber Async on zu Async off ?
Wir das auch über die CPU gelöst ?

Speziell was Async angeht, soll ja das Spiel noch nicht das Muster-Bsp sein. Bei Hitman soll die Technik immerhin im Fokus stehen. Naja, wurde zu mindestens erwähnt.
 
Zurück
Oben