Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

max_1234 schrieb:
(@Krautmaster) Soll ich dir was sagen? Du hast recht!
In der Final könnten es für AMD auch +50% Performance werden. Danke für den Hinweis. Weiter habe ich deinen Beitrag nicht gelesen, erfahrungsgemäß verpasse ich nichts.

@max_1234,

ich verstehe was du meinst, aber du kritisierst User "Krautmaster" etwas zu harsch. Auch aus älteren Beiträgen seinerseits ist zu entnehmen: Er ist weder Nvidia- Fanboy, noch abgeneigt eine AMD-Karte zu erwerben. Im Gegenteil, er begrüßt die derzeitige Entwicklung bei AMD, wie auch ich.

Ich habe die Kundenverarsche mit dem Speicherkrüppel nicht vergessen und auch nicht die Reaktion/ Erklärungsversuche von dem Nvidia-Marketing-Haufen danach nicht. Mal sehen, wie es mit der nächsten Generation aussieht- bei Gleichstand, auch was die Stromaufnahme angeht- liegt bei mir AMD in der Gunst.
 
UltraWurst schrieb:
Ohja ... aber bei den Fury Karten von AMD sind die 4GB dann natürlich wieder mehr als genug. :rolleyes:

Mehr als genug nicht, aber ist es nicht so, dass die Fury Karten durch die neue HBM VRAM Technologie einen rund 25% höheren Datendurchsatz als GDDR5 erreichen, weswegen 4 GB HBM ca. 5 GB GDDR5 entsprechen?
 
Koto schrieb:
@Tyler654
Was versiehst Du unter versagt?

https://www.computerbase.de/2016-02/grafikkarten-speicher-vram-vergleich-4gb-8gb/3/
https://www.computerbase.de/2016-02...abschnitt_benchmarks_von_full_hd_bis_ultra_hd

Und so Aussagen wie "das sind halt Speicherfresser, das zählt nicht" gelten nicht. Das wird in Zukunft nur schlimmer, da die Entwickler nicht möglichst effizient Programmieren, sondern neue Hardwareressourcen sofort ausnutzen. Der Speicherverbrauch wird natürlich wie all die Jahre zuvor konsequent ansteigen und der GTX 970 immer öfter das Genick brechen.

Und wenn der Treibersupport eingestellt wird, war es das endgültig.

PS: Ich kann da nur mit dem Kopf schütteln, wenn die Leute hier jedes mal aufs neue behaupten, dass 2,4 oder 6GB dicke und für immer ausreichen werden, da die GPU angeblich zuerst schlapp machen wird. Ist klar...
 
combatfun schrieb:
Mehr als genug nicht, aber ist es nicht so, dass die Fury Karten durch die neue HBM VRAM Technologie einen rund 25% höheren Datendurchsatz als GDDR5 erreichen, weswegen 4 GB HBM ca. 5 GB GDDR5 entsprechen?
Ne nicht ganz, da geht es eher um die bessere Kompression der Fury-Karten. Der 4GB große Speicher wird also effizienter ausgenutzt. Hilft aber auch nicht immer, manchmal sind 4GB der Fury so viel wie 6GB der 980 Ti, manchmal aber auch nur wie 4GB der 980.

@Tyler654:
Ich erweitere mal deine Linkliste:
https://www.computerbase.de/2016-01/rise-of-the-tomb-raider-benchmarks/4/#abschnitt_benchmarks_von_full_hd_bis_ultra_hd
So ist die zweite Testszene deutlich speicherfordernder als die erste und die GeForce GTX 970 bricht dort stark gegenüber der GeForce GTX 980 ein – und ruckelt störend.

http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/Beta-Benchmark-Test-1184726/
Etwas erstaunt sind wir über die im Verhältnis zur GTX 970 gute Leistung der R9 290, denn noch immer haben wir keinen neuen Radeon-Treiber erhalten und setzen weiterhin auf die Radeon Software Crimson 16.1 Hotfix - eventuell limitiert bereits in Full HD der segmentierte Speicher der beliebten Nvidia-GPU.

Irgendwann müssen es doch genug Beweise sein...
 
Zuletzt bearbeitet:
Was man nachdem GTX 970 Speicher Debakel nun viel eher diskutieren sollte, wäre nun das eine 390 unter DX12 an die Leistung einer 980ti kommt und nvidia davon spricht das die aktuelle Generation entsprechend von DX12 profitiert und das dies nun eben nicht der Fall ist.
 
@ Necareor
Ne nicht ganz, da geht es eher um die bessere Kompression der Fury-Karten. Der 4GB große Speicher wird also effizienter ausgenutzt. Hilft aber auch nicht immer, manchmal sind 4GB der Fury so viel wie 6GB der 980 Ti, manchmal aber auch nur wie 4GB der 980.
Verlustbehaftete Texturkompression spart Speicherplatz ist aber in ihrer Funktionsweise von DX, OGL und Vulkan vorgeschrieben dh überall gleich.
Verlustfreie Texturkompression spart keinen Speicherplatz, kann dafür aber beliebig von den GPUs implementiert werden.
 
Zuletzt bearbeitet:
digger66a schrieb:
Und warum gibts dann keine speziellen amd renderpfad sondern nur einen neutralen dx 12?
Ja, wer weiß ... vielleicht ist der eine Renderpfad, den es gibt, ja der spezielle AMD Renderpfad. :rolleyes:


combatfun schrieb:
Mehr als genug nicht, aber ist es nicht so, dass die Fury Karten durch die neue HBM VRAM Technologie einen rund 25% höheren Datendurchsatz als GDDR5 erreichen, weswegen 4 GB HBM ca. 5 GB GDDR5 entsprechen?
Nein. Datendurchsatz ersetzt nicht Menge.

Wenn ein Spiel auf mehr als 4GB VRAM angewiesen ist, muss es aus dem langsam angebundenen System-Speicher nachladen.
Ist in dem Fall völlig egal, wie hoch der Datendurchsatz des VRAM ist. In beiden Fällen kommt es zu den selben Nachlade-Rucklern.
 
Zuletzt bearbeitet:
Koto schrieb:
Zu dem Links. Dann schraubt man die Details eben runter.

Absoluter Quark, das ist ja wohl nicht Sinn der Sache.

Außer man ist Nutzer einer GTX 970 und verteidigt diese, als sei sie ein der Teil der eigenen Persönlichkeit. Wie lächerlich es ist, sich über seinen Besitz zu definieren und dadurch in einem Forum miese Produkte schönrzureden, muss ich ja wohl nicht erklären, oder ? Nichts für ungut.

Wenn der Speicher der GTX 970 nicht segmentiert wäre, gäbe es dieses Problem nicht. Die GTX 980 bricht nie so stark ein, obwohl ihre vollwertigen 4GB auch nicht sonderlich viel sind.
 
So wie es aussieht läuft bei AMD auch noch nicht alles von DX12 wie man bei guru3d nachlesen kann

"hours before the release of this article we got word back from AMD. They have confirmed our findings. Radeon Software 16.1 / 16.2 does not support a DX12 feature called DirectFlip, which is mandatory and the solve to this specific situation. AMD intends to resolve this issue in a future driver update."
 
Speedchecker schrieb:
Wie ist eigentlich der momentane Stand bei diesem Ark Survival Evolved? Ist der DX12-Pfad immer noch auf Wunsch Nvidias seit, glaube ich, September 2015 rausgepatcht? Die DX12-Ergebnisse sollen ja ähnlich schlecht wie jetzt mit AoS für Nvidia gewesen sein und man versprach Abhilfe durch irgendwelche Treiberoptimierungen.

Ist da mittlerweile was passiert, denn falls nicht, würde das sehr tief blicken lassen?

Du verstehst das falsch - der DX12 Support in der Unreal Engine ist, so wie der des aktuellen Vulkan Tests, nur ein "Wrapper", d.h. ein Proof-of-Concept, eine schnelle Portierung, ein "kuckt, staunet, und wartet bis wir in 1-2 Jahren DX12 auch fertig implementiert haben".

Mit Nvidia hat das nichts zu tun, Epic hat Asynchron Shader/Computing Support angekündigt :)
Dass ARK damit Werbung gemacht hat war .... PR. Nix anderes. Die erhofften 30% Mehrleistung kamen durch den experimentellen Wrapper auch nicht zu Stande, die Frames wurden sogar durchgängig schlechter.

mfg,
Max
 
War damit auch nun erstmal die nächsten Jahre meine letzte nVidia Karte. Auch aufgrund dessen weil ich mir nächste Woche einen Adaptive Sync Monitor mit einer R9 390 zulegen werde und solang dahingehend nVidia nicht abwärtskompatibel ist zu AMD's Free-Adaptivesync, sich da eh nicht mehr die Frage stellen wird, ob ich mir denn nun eine nvidia oder amd Karte hole. Da ich mir die nächsten Jahre eh keinen neuen Monitor holen werde.
 
UltraWurst schrieb:
Mensch, und ich Depp dachte, 4GB sind für die Leistung einer GTX 960 gerade richtig. :(

Nützt nicht viel, da die kleine GPU und das winzige 128-Bit Speicherinterface - komprimierung hin oder her - sowieso einen Flaschenhals darstellen. Da ist die R9 380(X) in allen Belangen (Rohleistung, Speicherbandbreite, P/L-Verhältnis) eherblich besser.

Man kann sie daher wohl schlecht mit der GTX 980 Ti oder Titan X auf eine Stufe stellen und als positive Ausnahme bezeichnen. ;)
 
Tyler654 schrieb:
Absoluter Quark, das ist ja wohl nicht Sinn der Sache.

Außer man ist Nutzer einer GTX 970 und verteidigt diese, als sei sie ein der Teil der eigenen Persönlichkeit. Wie lächerlich es ist, sich über seinen Besitz zu definieren und dadurch in einem Forum miese Produkte schönrzureden, muss ich ja wohl nicht erklären, oder ? Nichts für ungut.

Verteidigen kann man seine Familie und Kinder, aber sicherlich nicht eine Grafikkarte. Man kann zu einem Produkt stehen, wenn man damit zufrieden ist, ob das Sinnvoll ist muss jeder für sich selbst entscheiden. Das einzige was lächerlich ist, das Du Dich über den Nichtbesitz von Produkten definierst und andere Meinungen außer Deiner eigenen nicht akzeptierst. Schlimmer noch als miese Produkte, sind Menschen die Ihre Miesepetrigkeit auf andere projizieren wollen.
 
Zotac2012 schrieb:
Schlimmer noch als miese Produkte, sind Menschen die Ihre Miesepetrigkeit auf andere projizieren wollen.

Passt ja zu deinem ersten Beitrag hier:

Zotac2012 schrieb:
Was den GPU Test angeht, ja da hat AMD in diesem Game von Anfang an eine bessere Performance gehabt, aber was bitte ist Ashes of the Singularity, das Game hat doch vor den Benchmarks keine Sau gekannt, geschweige jemand gespielt.

-nicht
Und täglich grüßt die Doppelmoral.

AOTS wurde übrigens bereits 25k mal gekauft. Als early access.

mfg,
Max
 
Zuletzt bearbeitet:
sdo schrieb:
Man wird sich wahrscheinlich nie wieder eine neue CPU kaufe müssen :evillol: CPU bottlenecks sind praktisch aufgehoben und selbst i3 können mit i7 mithalten. Konnte ich bereits eindrucksvoll mit meinem alten Phenom unter mantle feststellen.

Als Besitzer einer nun wirklich nicht mehr taufrischen Sandy Systems drücke die Daumen das es so kommt wie du prophezeist.

Ich vermute mal das der Polygon Count drastisch hochgezogen wird, wenn Windows 10 signifikante Marktanteile erreicht hat.
 
Koto schrieb:
Ich bestreite nicht, dass die 970 nicht die Stärkste ist. Der Speicher etwas knapp ist. Es geht nur um die Definition unbrauchbar. Und das sollte doch kein Problem sein diese Formulierung zu überdenken. Man kann ja immer noch der Meinung sein, für einen selber und seinen Anforderungen reicht Sie nicht.

Was dann noch dazu käme wäre, wenn bei den nächsten DX12 Titel das Ergebnis ebenso desaströs ausfallen wird und Maxwell genauso schnell ist wie unter DX11. Obwohl Nvidia davon spricht das diese DX12 unterstützen und entsprechende Mehrperformance bringt.

Wir werden es ja bei den nächsten Titel wie Fable Legends, DX12 Patches für versch. Games, wie unter anderem Project Cars (laut derer zuletzt 30-40% Leistungszuwachs, wahrscheinlich mit der nächsten NV Generation), dann sehen. Wenn dort das Bild dann immer noch so aussieht. Würde ich langsam mal anfangen Nvidia, neber allen anderen bisherigen Fails, als Kunde zu hinterfragen und entsprechend zu boykottieren.
 
Zuletzt bearbeitet:
Verak schrieb:

Und dennoch ohne Treibersupport auf Nvidia Seite. Deshalb warte ich einfach mal ab, mich interessiert das Spiel sowieso nicht. Aber wie gesagt, es gibt genug Stoff um jetzt Nvidia schlechtzureden oder für einige sogar nen Grund eine GTX 980ti wegzuwerfen und auf eine Fury X umzusteigen :D
 
Jungs, wo ist das Problem?

Nvidia Karten sind so schnell wie vorher auch, die können nur unter DX12 keinen zugewinn verbuchen. Das ganze ist jetzt noch kein Problem, man kann aber davon ausgehen das es zu einem Problem mit zukünftigen Spielen geben wird. Hier kann man davon ausgehen das AMD wohl noch ne ecke weiter davon zieht, sobald DX12 noch besser genutzt wird in zukünftigen Spielen.
Als AMD User kann man sich mit seinen Karten sehr entspannt einen Kaffee trinken und schauen was in nächster Zeit noch an Performance zugewinn gibt.

gruß
 
Hades85 schrieb:
Wenn ich mir die Benchmarks ansehe und dann die AMD CPU's mit Directx12 betrachte die beinahe genau so schnell arbeiten wie aktuelle i5, könnte man die These aufstellen das Intel und Microsoft gezielt AMD über die Jahre hinweg bewusst geschädigt haben. Directx12 und die Verbesserungen an Directx11 kamen erst dann zustande als AMD mit Mantle angefangen hat.

Das ist doch kompletter Humbug (AMD-Fanboy Verschwörungstheorien), als ob es die Aufgabe von Intel und Microsoft wäre AMD, die nachweislich selber für Ihre Durststrecke - hauptsächlich durch schlechtes Management und falsche Entwicklungspolitik - verantwortlich sind, auf die Beine helfen zu müssen und konkurrenzfähig zu halten. Hauptsache die eigene Schuld bei anderen zu suchen und keine eigene Verantwortung zu übernehmen, oder was? AMD hätte mit der Mantle-Entwicklung ja auch schon viel früher anfangen können, nVidia hat es ja auch geschafft sich in DX11 (treibertechnisch) anzupassen ... das nicht alle nach AMDs Pfeife zu tanzen, scheinst Du nicht verstehen zu wollen.


Ich bin gespannt, ob sich evt. Pascal bzgl. des Marktstarts stark verzögern wird (bzw. die komplette Generation von nVidia teuer umgerüstet wird um Async Compute ((AsC) zu ermöglichen) oder ob AsC noch rechtzeitig vor dem Tapeout der nVidia Pascal Chips implementiert wurde, denn dass DX12 zur beherrschenden API in 2017 (bei den Vorzeigetiteln der großen Publisher) werden wird, ist schwer anzunehmen (zumal die Entwickler davon offenbar profitieren und Spiele besser umsetzen können, somit einen klaren technischen Vorteil gegenüber dann altbackenen DX11 Spielen haben) und wenn AsC - wie im Beispiel von AotS - starke Relevanz für die GPU Leistung in fast allen DX12 Spielen haben sollte, würde sich nVidia keinen Gefallen tun es nicht zu unterstützen (bzw. technisch nicht konkurrenzfähig sein). Zumindest scheint es bei der noch aktuellen GPU Generation weder hardwareseitig implementiert zu sein noch softwareseitig unterstützt zu werden, welches natürlich ein Armutszeugnis wäre und der ein oder andere nVidia GPU Besitzer (der vor nicht langer Zeit noch eine aktuelle GPU gekauft hat) dürfte sich ziemlich verschaukelt vorkommen, um es milde auszudrücken. Naja, 'mal schauen was so die nächsten Wochen und Monate an neuen Erkenntnissen bringen werden ... momentan habe ich das Gefühl mit dem damaligen Kauf meiner Keplerkarte (GTX670OC) evt. doch noch relativ gut (2012 bis 2015) unterstützt worden bzw. davon gekommen zu sein bezogen auf die Langlebigkeit der Karte, wenn ich mir derzeitige Maxwell GPUs (insbes. die GTX970) im Vergleich anschaue (2014 bis 2016?) ... die Nutzdauerzyklen werden wohl immer kürzer bei nVidia.
 
Zuletzt bearbeitet:
@ Koto

Was auch immer.

Du stellst dich schließlich hin und behauptest, die GTX 970 sei eine brauchbare Karte, weil du damit zurechtkommst. Das mag sein, hat aber mit der Allgemeinheit oder aus technischer Sicht absolut gar nichts mit der Realität zu tun.

Du hast deine Karte schon gekauft, möchtest sie behalten und bist ja noch relativ zufrieden damit, das ist in Ordnung. Aber tu nicht so, als wäre die Karte für einen Neukauf auch nur einen Gedanken wert. Es spricht objektiv gesehen schlicht und ergreifend alles dagegen.

Da brauchst du dich auch gar nicht aufregen.
 
Zurück
Oben