Empfehlung für Austausch einer GTX 780

ODST schrieb:
DX12 kann die Karte ja. Wie Nvidia das handhabt kann dir doch egal sein. Auf der anderen Seite, niemand beschwert sich bei AMD, dass die 700€ Fury X unter DX11 am CPU Limit leidet und somit langsamer wirkt als in Wirklichkeit. Du willst doch nur deine ~350€ zurück haben um dir eine schnellere Fury zu kaufen, gibs zu ;)

Nein, es würde keine Fury werden.

Aber natürlich interessiert mich wie das gelöst ist, da ja eindeutig die Leistung einbricht, da diese Features über die Software emuliert werden, was die GPU sehr viel Leistung kostet. Gleichbleibende Leistung wäre mir egal, aber das es zu einbrüchen kommt, ist ein No-Go. Vor allem da ich Ashes of Singularity grade Founder werden wollte, nun warte ich aber lieber mal ab, bis ich entweder eine AMD habe, denn mit der Nvidia macht es keinen Sinn wenn ich dort Einbrüche habe.

Es geht mir absolut nicht um das Geld in dem Fall, aber die Aussagen das diese Dinge Hardwareseitig unterstützt werden, und das nun auch wieder gelogen war. Ich habe die 970 teilweise hier im Forum sogar noch empfohlen, was mich nun sehr ärgert, weil genau die jetzige Problematik nicht absehbar war. Ich ärgere mich wirklich darüber, da auch die neuen Total War Spiele diese Technik einsetzen wollen. (Total War: Warhammer z. B. will über ACE deutlich an Performance unter DX12 gewinnen), und das sind eben Spiele, die ich spielen möchte.
 
Also bei dem cb test von ashes of the singularity liegen die fury x und die 980ti ja trotz der DX12-Problematik von der Leistung her gleichauf, ueber 1-2fps moechte ich hier nicht streiten. In Prozenten ausgedrueckt hoert sich das dann natuerlich spektakulaer an, aber es aendert nichts daran, dass sie in der Praxis gleichauf sind. (oc usw. spielen da ja auch ne Rolle...)
Wenn die fury zur ti aufschließen kann ists doch ok fuer die amd Kaeufer und die nvidia Seite wirds wenig interessieren denn die Leistung ist trotzdem toppi. Die Karten kosten ca. gleichviel und bringen unterm Strich die gleich Leistung.
Oder hab ich da einen Denkfehler?

https://www.computerbase.de/2015-08...diagramm-ashes-of-the-singularity-2560-x-1440
 
Na z. B. das die Entwickler in ihrem Forum aufgezeigt haben, dass die Leistung der Maxwell-GPU's stark einbrechen wenn Async für nvidia aktiviert ist. Und da reden wir nicht von gleichbleibender Performance, sondern von FPS Einbußen um die 30-50% !

Zuckerwatte schrieb:

Vielen Dank für diesen Link. Das erklärt dann ja auch relativ einfach, warum solche Leistungseinbrüche verbucht werden konnten. Das wird statt Hardwareseitig über die GPU, nun Softwareseitig auf die CPU abgeladen. :freak:

Ich finde das schon ziemlich dreist. :rolleyes:
 
Zuletzt bearbeitet:
Aber wenn das Async deaktiviert ist, dann ists doch ok, also keine Einbrüche mehr vorhanden. Fuer mich schaut das so aus, als wenn die furyX durch das Async in diesem Spiel zur 980ti aufschließen kann, oder ganz leicht ueber ihr liegt.

Muss ich das Spiel fur $44.99 kaufen, oder gibt es ne andere Moeglichkeit den benchmark zu nutzen? Will mir mal live nen Bild davon machen... ;)
 
Es ist also ok, wenn NVIDIA mit DX12 wirbt aber ein Hauptfeature über Software emuliert?
Dann kann AMD doch jetzt auch mit jeder Karte für PhysX werben, wird ja bei AMD auch nicht Hardwaremäßig sondern per Software über die CPU emuliert ;)
 
Teropet schrieb:
Aber wenn das Async deaktiviert ist, dann ists doch ok, also keine Einbrüche mehr vorhanden. Fuer mich schaut das so aus, als wenn die furyX durch das Async in diesem Spiel zur 980ti aufschließen kann, oder ganz leicht ueber ihr liegt.

Muss ich das Spiel fur $44.99 kaufen, oder gibt es ne andere Moeglichkeit den benchmark zu nutzen? Will mir mal live nen Bild davon machen... ;)

Async zu deaktivieren wird jedoch die Möglichkeit der Entwickler wiederum stark eingrenzen, da die Leistung für jedes Objekt nacheinander berechnet werden muss, wodurch es trotzdem nur zu mäßigen FPS kommen kann. Hier geht es jedoch auch darum, dass 12.1 FL beworben wird, und dies einfach gar nicht vorhanden ist. Softwareemulierung ist ein Witz, da die CPU so noch extremer belastet wird, und der Sinn von DX12 war es den CPU Overhead zu reduzieren.

Das geht ja deswegen nun praktisch in die völlig entgegengesetzte Richtung.

Man darf auch nicht beachten das die Konsolen genau das unterstützen und dadurch die Technik deutlich schneller sich verbreiten wird. So kann man widerum sicherstellen das Kunden bei der nächsten Generation zum Neukauf gezwungen werden.

PS: Und nicht jeder hat eine 980 Ti die Leistungstechnisch dann trotzdem noch spielbare Ergebnisse erzielen kann. :D
Ergänzung ()

ODST schrieb:
@Aldaric, Warum solltest du deine GTX 970 zurück geben dürfen?

Amazon hat mir grade bestätigt, dass ihnen das Problem bekannt ist, und das auch für sie ein folgenschwerer Mangel der Sache ist, und deswegen der Einkaufspreis der Grafikkarte voll erstattet wird.
 
Aldaric87 schrieb:
[...]

Man darf auch nicht beachten das die Konsolen genau das unterstützen und dadurch die Technik deutlich schneller sich verbreiten wird. So kann man widerum sicherstellen das Kunden bei der nächsten Generation zum Neukauf gezwungen werden.

Jap. Und nehmen wir mal Konsolen + APU + diskrete GPUs von AMD die alle GCN 1.X können vs NV dann ist die GCN wohl mittlerweile mehr verbreitet.

Darüber wird auch hier diskutiert: https://www.computerbase.de/forum/t...dia-geht-weiter.1509307/page-22#post-17835384
 
@Aldaric87

Ich mag Amazon nicht wirklich, aber der Service scheint wirklich top zu sein. Echt krass, du Glücklicher ;)

Gruss Orc
 
Was mich jetzt noch interessieren würde, gibt es abgesehen von der Performance ingame Unterschiede, wenn Async Compute deaktiviert ist? Also weniger Details oder so etwas in der Art?
 
@Necareor

Nein, ich denke nicht.

Es ist wohl eher so wie mit PhysX wenn man ne Radeon im Rechner hat. Mann kann es nutzen aber es wird halt über die CPU (langsamer) berechnet.

Gruss Orc
 
Dann ist es ja eigentlich gar nicht so dramatisch, ich mein hey, die Performance der 980 Ti und der Fury X sind beim DX12 Test in Ashes ja fast gleich auf, und dabei ist es ja ein Vorzeige-Spiel für Async Computing.
Maximal 5% für die Fury. Da gibt es auch DX11-Spiele, bei denen es so aussieht.

Einen faden Beigeschmack hat es natürlich, da die erhoffte Mehrleistung durch DX12 den Nvidia-Karten nicht gegönnt ist, zumindest nicht so stark.
Es ist ja nicht so, dass eine R9 390 jetzt plötzlich schneller wäre als eine GTX 980 Ti. Die Leistungsklasse wird ja schon noch gehalten.

Oder übersehe ich da etwas?
 
Necareor schrieb:
Was mich jetzt noch interessieren würde, gibt es abgesehen von der Performance ingame Unterschiede, wenn Async Compute deaktiviert ist? Also weniger Details oder so etwas in der Art?

Na das Problem daran ist das Spiele, die mehr Drawcalls nutzen, diese nutzen um mehr Objekte gleichzeitig darstellen zu können. Wenn nun Async deaktiviert wird, und die GPU die Drawcalls nacheinander abrechnen muss, wird die CPU mehr belastet und limitiert früher. Also Leistungseinbußen, statt Leistungsgewinn.
 
Teropet schrieb:
Also bei dem cb test von ashes of the singularity liegen die fury x und die 980ti ja trotz der DX12-Problematik von der Leistung her gleichauf, ueber 1-2fps moechte ich hier nicht streiten.

Vllt. mal vergleichen und danach erst streiten ;)
http://arstechnica.co.uk/gaming/201...-win-for-amd-and-disappointment-for-nvidia/3/

Fast interessanter als diese Diskussion finde ich wie weit die Benchmark Ergebnisse verschiedener Tech-Seiten teilweise auseinander gehen ...

mfg,
Max
 
@Necareor

Die CPU wird auch noch mehr gefordert ohne Async Computing, aber klar wird ne Ti etc. nicht wertlos oder Müll. Sind sicher auch so gute Karten!

Es gibt viele die Ihren etwas betagten Rechner (Ich z.B.) mit einer neuen Karte noch ne weile behalten wollen. Es handelt sich um ein (meiner Meinung nach) wichtiges DX12 Element das auch beworben wurde.

Kann nicht verstehen wie man hier nVidia in Schutz nehmen kann. Ich für meinen Teil finde es extrem dreist!

Gruss Orc

PS: Ich habe zum Glück eine 380er :D
 
Nene, in Schutz nehmen will ich hier gar nichts, es geht nur darum, mein Wissen etwas zu erweitern.
Warten wir mal ab, was die zukünftigen DX12-Tests, und vllt. auch Nvidia selbst, noch an Infos bringen werden.
 
ich würde noch warten. Nur weil einige Leute rumspekulieren, AMD könnte die Nase bei DX12 vornehaben, es ist einfach nur albern, daraus jetzt schon Schlüsse zu ziehen, welche Karte dann in der Praxis besser ist....das ist wie Knochen werfen. Man hat auch gehört, dass sich bei DX 12 der Speicher der Karten im SLi-Modus addiert, statt wie bisher, wo effektiv nur der Speicher einer einzelnen Karte genutzt wird. Generell würde ich mal über SLI nachdenken. Ich kann von SLI nur gutes berichten, 1 einziges Spiel ausgenommen. PS hättest du ohne Ende, du wirst ja merken, dass es vor allem die Power ist, die fehlt, nicht der Speicher. Der Speicher klappt nicht ein, aber du wirst wohl nur mit 30-40 fps rumdümpeln bei vielen Spielen. Ab 200eu gibts eine gebrauchte 780, wäre also ein günstiges Experiment und die Leistung wäre phänomenal. Es wird immer mal Ausnahmespiele geben, wo man lieber eine Karte abschaltet und die nur zum PHysx verwendet, weil SLi nicht so gut läuft. Das gehört halt dazu zum SLI. Ist aber sehr selten, welche SPiele mit SLI wirklich Probleme machen, kannst du online rausbekommen. Wenn man Netzteil UND Mainboard tauschen muss, wäre es allerdings nicht mehr so attraktiv. Aber die ROG Boards sind eigentlich exzellent dafür.
 
Zuletzt bearbeitet:
SLI fällt komplett flach. Das Mainboard macht dies zwar mit, aber ich bräuchte ein neues Netzteil. Das bisherige Netzteil habe ich aber mit Absicht gewählt und werde ich nicht so schnell austauschen. Des Weiteren hatte ich schon mal ein Quad SLI (2x Nvidia 7950GX2) und habe meine Erfahrung damit gesammelt. Es gab genügend Gründe weshalb ich jetzt wieder bei einer Single GPU bin. Trotzdem danke für den Hinweis.
 
Zurück
Oben