Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

Zotac2012 schrieb:
@Wolfsrabe
AMD arbeitet eng mit den Devs von Ashes of Singularity zusammen, ebenso mit den Devs von Hitman. Machen sie natürlich völlig uneigennützig und auch nur aus Spaß an der Freude. Oh Mann, informiere Dich bitte erst einmal bevor Du einfach rumblökst. :rolleyes:

Und Nvidias Grafikkarten unterstützen Asynchronous Compute, nur eben nicht mit ACEs in Hardware wie AMDs GCN, aber eben anders. Ist ja übrigens nur ein Feature von DX12, gibt noch genug Andere, welche auch AMD noch nicht unterstützt. Und da kann man per Treiberoptimierung, was ja auch von Nvidia angekündigt war, sehr wohl etwas machen. Was das dann bringt werden ja sehen, wenn die nächste DX12 Games released werden. ;)
Gibt's denn einen Grund, warum der Treiber (obwohl Nvidia seit 6 Monaten von der Geschichte weiß) immer noch nicht erschienen ist?
Ich meine, Nvidia ist ansonsten mit ihren Treibern doch immer recht fix.
 
Vitec schrieb:
Was viele hier eben vergessen ist das Leute die die 970 gekauft haben damals diese nun schon 2 Jahre nutzen und von dem aus gesehen sind sie absolut gute Karten über die 2 Jahre.

Genau das ist ja der Knackpunkt.

Die ganzen Nvidiakarten der letzten paar Jahre sind nur kurzlebige Wegwerfprodukte. Sobald die Software einen Schritt nach vorne macht, muss man die featuretechnisch total veralteten Dinger rausschmeißen. Erst versagt Kepler (durch Treiber, Gameworks, zu wenig Speicher) und jetzt Maxwell (DX12). Und diese kriminellen Strategien werden sie natürlich beibehalten. Sobald Pascal erschienen ist, wird man Maxwell noch zusätzlich durch die Treiber und Gameworks zersägen, wie sie es zuvor mit Kepler gemacht haben. DIe Speicherausstattung rächt sich ja jetzt schon, die GTX 970 ist einfach eine unbrauchbare Fehlkonstruktion, was eigentlich jeder schon lange hätte wissen müssen. Die GTX 980 mit 4GB wird auch bald folgen.

Ich kann nur hoffen, dass man mit Pascal und Volta mal endlich kundenfreundlichere Karten anbieten wird. Das wird aber nur passieren, wenn man ihnen finanziell weh tut. Genau das geht aber nicht, wenn die Dinger trotzdem in sogut wie allen OEM-Kisten landen und sie wieder Rekordgewinne verbuchen können. Da kann man den Normalos ohne Hardwarekenntnisse übrigens keine Vorwürfe machen, eher den korrupten OEMs. Die entscheiden schließlich, was im Gehäuse drinsteckt.

Da kommt der Druck durch AMDs bessere Computingleistung, welche sich unter den Low-Level-APIs endlich manifestieren kann gerade recht. Gegen Softwaremanipulationen seitens Nvidia schützt dies leider nicht.

Mir persönlich könnte es ja auch egal sein, denn solange G-Sync auf einem überteuerten, proprietären Modul basiert und es nur unbrauchbare Monitore von indiskutabel schlechter Qualität dafür gibt, kommt sowieso kein Nvidia für mich in Frage.

Aber: Nur auf einen Hersteller setzen können schmeckt mir letztendlich auch nicht, auch wenn AMD derzeit relativ kundenfreundlich agiert. Und von der Softwaremanipulation bin ich als Nutzer einer AMD-Karte besonders stark betroffen, sofern zutreffend.

Vitec schrieb:
Und die 290 war damals nun nicht so ein Preis Leistungskracher.

Maßlos überteuert sind die Karten beider Hersteller zum Release, da wird man von beiden gemeinsam abgezockt.

Die R9 290 lag aber lange bei <300€ und war damit bis auf die Leistungsaufnahme unter Last schon immer attraktiver als eine GTX 970 gewesen - nicht nur preislich, sondern auch von der Hardwareaustattung und den Softwarefeatures.
 
Zuletzt bearbeitet:
@Relaxo32
Vielleicht ist es halt nicht so einfach mit Treiberoptimierung, wie sich das Nvidia vorgestellt hat und es dauert deshalb so lange. Aber ich denke spätestens bei Hitman und Deus Ex wird man dann ja sehen, was sie bis dahin geleistet haben. Und das die AMD Grafikkarten da vielleicht auch noch mal zulegen, ist gut möglich, bestreitet ja auch keiner. Aber bei Ashes of the Singularity gab es ja auch einen extra Treiber der von AMD bereitgestellt wurde, während bei Nvidia der letzte offizielle Treiber der released wurde, Verwendung fand. Und wie gesagt das ist ja erst das erste DX12 Game und erst die nächsten Monate werden zeigen, was diese Wert sind. Im Moment ist AMD vorne, ist ja auch OK, aber mehr auch nicht, es ist und bleibt eine Momentaufnahme, weil einfach Vergleichswerte fehlen.
 
Vitec schrieb:
Und die 290 war damals nun nicht so ein Preis Leistungskracher.

Also meine R9 290 MSI Gaming hat beim ARLT wohlgemerkt 300€ gekostet, zu der Zeit hat die GTX 970 MSI Gaming 370€ beim selben Händler gekostet. Andere Modelle bei günstigeren Händlern gabs für deutlich unter 300€ für einige Zeit.
 
Zotac2012 schrieb:
@Relaxo32
Vielleicht ist es halt nicht so einfach mit Treiberoptimierung, wie sich das Nvidia vorgestellt hat und es dauert deshalb so lange. Aber ich denke spätestens bei Hitman und Deus Ex wird man dann ja sehen, was sie bis dahin geleistet haben. Und das die AMD Grafikkarten da vielleicht auch noch mal zulegen, ist gut möglich, bestreitet ja auch keiner. Aber bei Ashes of the Singularity gab es ja auch einen extra Treiber der von AMD bereitgestellt wurde, während bei Nvidia der letzte offizielle Treiber der released wurde, Verwendung fand. Und wie gesagt das ist ja erst das erste DX12 Game und erst die nächsten Monate werden zeigen, was diese Wert sind. Im Moment ist AMD vorne, ist ja auch OK, aber mehr auch nicht, es ist und bleibt eine Momentaufnahme, weil einfach Vergleichswerte fehlen.
Wie bereits gesagt, Nvidia hatte 6 Monate für einen passenden Treiber Zeit und sie haben es nicht hinbekommen. Gepaart mit dem auffälligen Schweigen zu diesem Thema sollten da schon ganz leicht die Alarmglocken klingeln...

Bei sämtlichen anderen Spielen heißt es doch auch immer, AMD hatte für den Treiber ja genug Zeit und sie sind selbst Schuld, wenn der nicht pünktlich zum Release erscheint. ;)
Und wenn ich 6 Monate von einem konkreten Problem weiß, dann sollte nach diesen 6 Monaten auch ein Treiber bereitstehen. Es sei denn, Nvidia hat intern gemerkt, dass ein Treiber nix bringt.

Und dein Verweis auf die nächsten Spiele wird auch nicht besser, da AMD auch weiterhin Async hardwareseitig unterstütz und Nvidia eben nicht. Das wird sich in Spielen mit Async Compute so fortsetzen und ich wage mal zu behaupten, dass nahezu jedes Spiel auch dieses Feature nutzen wird.
 
Krautmaster schrieb:
daraus aber 1:1 auf andere Titel eines ganz anderen Genres und Publishers zu interpolieren halte ich aktuell für gewagt.

D.h. für dich wenn ein Hersteller plötzlich 30-40% Performance durch eine neue API zulegt, obwohl das hierfür verwendete Produkt noch nicht mal zu 100% fertig ist, dann ist das "voreilig"?

Soll ich dir was sagen? Du hast recht!
In der Final könnten es für AMD auch +50% Performance werden. Danke für den Hinweis. Weiter habe ich deinen Beitrag nicht gelesen, erfahrungsgemäß verpasse ich nichts.

Edit: Ich hab mir den Test nun schon 3x durchgelesen und finde ihn immer noch höchst interessant. Nicht den Part mit dem extremen Performance Gewinn von AMD, das ist schon lange bekannt und wurde ja auch in unzähligen Theorien bereits deutlichst untermauert, nein - es geht um Multi-GPU Setups von beiden Herstellern! Ich versuche immer irgendwelche Muster in den Resultaten zu erkennen, finde aber kaum eins :D

mfg,
Max
 
Zuletzt bearbeitet:
@ max_1234

du hast offensichtlich nicht mal den Beitrag von mir gelesen den zu zitiert hast, noch den Test.

Aber ja, wir reden weiter wenn der erste Test über ein kleines Sortiment an DX12 Games draußen ist ... und dann schauen wir mal ob es 10%, 30-40% oder die eben genannten +50% sind die AMD durch DX12 gewinnt.

Ziemlich genau dann wenn also eine R9 390 in 4K mit Volldampf an einer OC 980 TI vorbeizieht.
https://www.computerbase.de/artikel.../#diagramm-rating-3840-2160-normale-qualitaet

(fänds übrigens ganz cool wenns so wäre / kommt...)
 
Zuletzt bearbeitet:
Wie ist eigentlich der momentane Stand bei diesem Ark Survival Evolved? Ist der DX12-Pfad immer noch auf Wunsch Nvidias seit, glaube ich, September 2015 rausgepatcht? Die DX12-Ergebnisse sollen ja ähnlich schlecht wie jetzt mit AoS für Nvidia gewesen sein und man versprach Abhilfe durch irgendwelche Treiberoptimierungen.

Ist da mittlerweile was passiert, denn falls nicht, würde das sehr tief blicken lassen?
 
Tyler654 schrieb:
DIe Speicherausstattung rächt sich ja jetzt schon, die GTX 970 ist einfach eine unbrauchbare Fehlkonstruktion, was eigentlich jeder schon lange hätte wissen müssen. Die GTX 980 mit 4GB wird auch bald folgen.
Ohja ... aber bei den Fury Karten von AMD sind die 4GB dann natürlich wieder mehr als genug. :rolleyes:
 
UltraWurst schrieb:
Ohja ... aber bei den Fury Karten von AMD sind die 4GB dann natürlich wieder mehr als genug. :rolleyes:

Natürlich, denn die sind im Vergleich wenigstens durchgehend performant angebunden und brechen leistungsmäßig nicht noch zusätzlich ein, wenn die oberen 512 MB angesprochen weren. Auf längere Sicht könnten aber natürlich auch die echten 4GB der Fury zum Flaschenhals werden.
 
UltraWurst schrieb:
Ohja ... aber bei den Fury Karten von AMD sind die 4GB dann natürlich wieder mehr als genug. :rolleyes:

Die sind natürlich auch zu wenig.

Falls du es aber noch nicht gemerkt hast: Das ist eine Ausnahme bei AMD. Alle anderen Karten wurden mit ordentlichen Speichermengen ausgestattet. Bei Nvidia ist genau das Gegenteil der Fall: Bis auf die Top-GPUs (Titan X, GTX 980 Ti) ist der Speicher sehr knapp bemessen.
 
DIe Speicherausstattung rächt sich ja jetzt schon, die GTX 970 ist einfach eine unbrauchbare Fehlkonstruktio

Jetzt lasse die Kirche mal im Dorf. Du tust ja so als geht mit der Karte nicht mal der Rechner an. LOL

Was am ende rausikommt wird man sehen. Es gibt doch unzählige Beispiele das so Sachen in der Praxis dann eben nicht vorkommen.

Benchmarks alleine sagen recht wenig letztendlich.
 
Zotac2012 schrieb:
AMD arbeitet eng mit den Devs von Ashes of Singularity zusammen....

Und warum gibts dann keine speziellen amd renderpfad sondern nur einen neutralen dx 12?

Zotac2012 schrieb:
Und Nvidias Grafikkarten unterstützen Asynchronous Compute, nur eben nicht mit ACEs in Hardware wie AMDs GCN, aber eben anders.

Mit anderen Worten Nvidias Grafikkarten können es nicht.

Zotac2012 schrieb:
Ist ja übrigens nur ein Feature von DX12, gibt noch genug Andere, welche auch AMD noch nicht unterstützt. Und da kann man per Treiberoptimierung, was ja auch von Nvidia angekündigt war, sehr wohl etwas machen. Was das dann bringt werden ja sehen, wenn die nächste DX12 Games released werden. ;)

Das ist dann wohl der seit September angekündigte treiber der niemals kommen wird da er sich laut diverser devs als disaster entpuppt.

Ist auch irgendwie logisch emulation kostet immer leistung und in diesem fall halt mehr als wenn man den codepfad einfach deaktiviert wie hier in AoS.

Ob Nvidia das softwareseitig in den Griff bekommt bleibt abzuwarten, aber ich denke eher sie werden es wie üblich totschweigen bis sie es hardwareseitig hinbekommen.
 
sehr schöner test,

An die Leute mit 3,5 GB GTX 970, die Grafikkarte ist nicht gemacht worden um auf MAX Einstellungen + hoher Auflösung jedes Spiel ohne Probleme darstellen zu lassen. Das dort Abstriche gemacht werden müssen sollte jeden käufer klar sein bei der GTX 970.

An den mit Hairworks von The Witcher 3 ich könnte meinen sogar schon benchmarks gesehen zu haben wo AMD weniger Performance verliert als Nvidia bei eingeschalteten Gameworks Einstellungen.

Natürlich muss man schauen wie sich das bei anderen DX 12 Titel tut und man sollte jetzt kein Nvidia bashen oder AMD in den Himmel heben.
 
Koto schrieb:
Jetzt lasse die Kirche mal im Dorf. Du tust ja so als geht mit der Karte nicht mal der Rechner an. LOL.

Quatsch mit Soße.

Gerade mal >1 Jahr seit dem Release versagt die GTX 970 immer öfter in Games, trotz der ganzen ganzen Gamereadytreiber, die den Speicherverbrauch einschränken.

Ohne diese wäre es noch viel schlimmer. Den Treibersupport werden sie aber einstellen, sobald Maxwell nicht mehr state of the art ist. Übrigens ist es ziemlich nervig, wenn man wegen einer schlechten Grafikkarte ständig einen neuen Treiber herunterladen und installieren muss.
 
Zuletzt bearbeitet:
Tyler654 schrieb:
Ohne diese wäre es noch viel schlimmer. Den Treibersupport werden sie aber einstellen, sobald Maxwell nicht mehr state of the art ist. Übrigens ist es ziemlich nervig, wenn man wegen einer schlechten Grafikkarte ständig einen neuen Treiber herunterladen und installieren muss.
Und genau das predige ich schon seit dem Bekanntwerden des Speicher-Bugs. Sobald Pascal draußen ist, wird's noch viel schlimmer mit der GTX 970, da sie abhängig ist von regelmäßiger Treiberpflege.
 
Ohne Treibersupport und als Alphaversion. Ich weis nicht ob das alles so glaubwürdig ist. Ich kann mir auch nicht vorstellen das eine GTX 980ti unter DX12 langsamer sein sollte als unter DX11. Vielleicht sollte man da einfach die Treiber abwarten und die fertigen Spiele.

Wobei es den meisten Hardwarenerds bestimmt reichen wird anhand solcher Werte von einer Nvidia auf eine AMD umzusteigen.
 
@Tyler654

Gerade mal >1 Jahr seit dem Release versagt die GTX 970 immer öfter in Games, trotz der ganzen ganzen Gamereadytreiber, die den Speicherverbrauch einschränken.

Was versiehst Du unter versagt?

Also hier versagt gar nix?

Es wäre schön, wenn man solche aussagen auch mal wirklich mit Inhalt auffüllen würde. So das man so was auch nachvollziehen kann.

@Oddyzeus
An die Leute mit 3,5 GB GTX 970, die Grafikkarte ist nicht gemacht worden um auf MAX Einstellungen + hoher Auflösung jedes Spiel ohne Probleme darstellen zu lassen. Das dort Abstriche gemacht werden müssen sollte jeden käufer klar sein bei der GTX 970.

Immerhin hast Du nicht unbrauchbar gesagt. :-)

Das mag ja durchaus sein.

Man kann aber auch nicht so tun das jede Karte gleich alles auf 4 oder 8K auf Ultra schaffen muß. Und wenn nicht ist Sie gleich unbrauchbar.

Hat ja nun nicht jeder so ein Spleen
 
danielneedles schrieb:
Ohne Treibersupport und als Alphaversion. Ich weis nicht ob das alles so glaubwürdig ist. Ich kann mir auch nicht vorstellen das eine GTX 980ti unter DX12 langsamer sein sollte als unter DX11. Vielleicht sollte man da einfach die Treiber abwarten und die fertigen Spiele.

Wobei es den meisten Hardwarenerds bestimmt reichen wird anhand solcher Werte von einer Nvidia auf eine AMD umzusteigen.

Neuer Benchmark auf Basis der finalen Engine

Technisch ist das Spiel laut Entwickler Oxide bereits jetzt nahezu final – es soll nur noch kleine Updates geben. Noch an diesem Abend sollen Spieler den letzten Stand erhalten. ComputerBase hatte wiederum bereits einige Tage lang Zeit, ausführliche Benchmarks auf Basis dieser Version zu erstellen: Mit neuer Technik, verbesserter DirectX-12-Engine und einer neuen Testsequenz. https://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/
.
 
Zurück
Oben