GTX 980 VS 980 Ti, Preisentwicklung und Wiederverkaufswert

Aldaric87 schrieb:
Was ein Quatsch. Die aktuellen Benchmarks die aufzeigen das AMD unter DX12 besser zurecht kommt, stammen nicht von AMD.

Die aktuellen Benchmarks in DX12 zeigen gar nichts. Es ist alles frühe Beta, nichts ist optimiert, nichts funktioniert einwandfrei.
Die aktuellen Benchmarks geben lediglich eine grobe Einschätzung was sein könnte und dass AMD eventuell schon mehr Optimierungen zu Gunsten von DX12 gemacht hat....
 
DonDonat schrieb:
Die aktuellen Benchmarks in DX12 zeigen gar nichts. Es ist alles frühe Beta, nichts ist optimiert, nichts funktioniert einwandfrei.
Die aktuellen Benchmarks geben lediglich eine grobe Einschätzung was sein könnte und dass AMD eventuell schon mehr Optimierungen zu Gunsten von DX12 gemacht hat....

Und das Nvidia unter anderem teile von DX12 über die CPU emuliert, was unter anderem ja extrem viel Leistung kosten würde.

Fakt ist, wer hier von Lügengeschichten von AMD erzählt, sollte sich erstmal die Konkurrenz anschauen, und wenn man da an Nvidia denkt, merkt man wohl wer schlimmer ist. ;)

Und es ist frühe Beta und es ist nichts optimiert? Warum hat Nvidia solange mit dem Entwickler zusammengearbeitet um am Ende dann die Deaktivierung des Features zu fordern ? Also bei dieser Zusammenarbeit scheint ja nichts passiert zu sein, trotz Hilfe der Entwickler.
 
Zuletzt bearbeitet:
Das alles ändert nichts an der Tatsache, dass es im Moment schwierig ist, sich für ein Modell zu entscheiden.
 
Also momentan, auch wenn ich vor ein paar Wochen noch geteilter Meinung war, finde ich die Entscheidung relativ einfach. AMD bietet größtenteils die runderen Pakete und besseres P/L an. Außer in speziellen Fällen (z. B. werden nur Blizzard Spiele gespielt) in denen man zur Nvidia greifen sollte, müsste man logischerweise momentan zur AMD Lösung greifen.

Man sollte auch im Hinterkopf behalten, dass FreeSync sich absetzen wird, und die Monitore günstiger werden (AOC hat ja grad günstige Gaming-Monitore ohne großen Schnick-Schnack angekündigt), und man so nicht zu überteuerten G-Sync Monitoren greifen muss.
 
Ich glaube auch nicht das Nvidia in DX 12 AMD unterlegen ist. Bei den Grafikkarten ist das mit AMD und Nvidia fast genauso wie AMD und Intel bei Prozessoren. AMD ist gut mit dabei kommt aber nicht an Nvidia ran und kann sie schon gar nicht überholen. Das einzige was AMD auszeichnet ist das gute bis sehr gute P/L Verhältnis. Aber das hängt auch stark von der jeweiligen Karte ab.

Wen man die Fury auf 4096 Shader freischalten kann und diese keine Grafikfehler verursachen ist der Preis sehr gut. Wenn nicht würde ich das P/L zwischen 2 und 3 einstufen.
 
Wenn aber NVidia dieses eine Feature in DX 12 gar nicht unterstützt wird NVidia dann definitiv langsamer als AMD in den dazugehörigen Spielen Rendern. Ist doch ganz einfach, oder?
 
DX wird, wie immer, überbewertet. Es wird nichts geben, was man mit DX11 nicht würde darstellen können.
Entwickler werden nichts integrieren, was Grafikkarten nicht darstellen können.
Was ganau brachte DX10.1 für Vorteile gegenüber DX10?
Das is alles vernachlässigbar.
Es wird Jahre dauern.
:)
 
Die Leute kaufen ja auch fleißig nVidia-Karten. Die 980 von Palit wird bei MF ständig nachbestellt, also kümmert es keinen, was mit DX12 ist:)
 
DirectX wird sich eben so hinbiegen müssen das Nvidia nicht zu kurz kommt. Da es mehr Nvidia user gibt als Amd. Wird sicher nur minimal sein zu gunsten für amd. 5fps+- who cares
 
Interessant ist aber das es für viele Leute wohl vollkommen egal ist ob NVidia Mist baut (GTX 970, DX12). Wenn AMD sowas aber mal bringt wird gleich wieder von allen geheult.

Aber auch ich behalte meine GTX 980 Ti aufjedenfall. Egal ob DX 12 auf dem Vormarsch sein sollte oder nicht.
 
meckswell schrieb:
DX wird, wie immer, überbewertet. Es wird nichts geben, was man mit DX11 nicht würde darstellen können.
Entwickler werden nichts integrieren, was Grafikkarten nicht darstellen können.
Was ganau brachte DX10.1 für Vorteile gegenüber DX10?
Das is alles vernachlässigbar.
Es wird Jahre dauern.
:)

DX12 verbreitet sich viel schneller als die meisten denken. DX11 hatte z. B. kaum Vorteile zur Vorgängerversion. Durch DX12 jedoch und den reduzierten CPU Overhead ist es für Entwickler viel interessanter, zudem sich laut den Entwicklern auch DX12 leichter integrieren lässt, als die Vorgängerversionen.

Da aber genau hier, wo man die Vorteile kriegt, Nvidia anscheinend kaum Nutzen daraus ziehen kann, finde ich das einfach schwach. Im Gegenteil, die Last wird sogar auf den CPU verlagert, was das ganze ad absurdum führt. Und das Argument: "Mit der nächsten Generation wirds besser" - > Die meisten kaufen nicht jedes Jahr eine GPU, und schließlich wird Maxwell damit beworben DX12 zu unterstützen, wenn aber Kernfeatures nicht unterstützt werden, ist das für mich klare Kannibalisierung der Maxwell Reihe, wenn nächstes Jahr Pascal kommt. (Praktisch schon als Vorlage).

DX wird nicht überbewertet, sondern ist einfach die wichtigste API am PC Markt, ob die Leute das wollen oder nicht, und DX12 ist seit langem mal wieder eine sinnvolles "Remake", denn es scheffelt bei richtiger GPU Unterstützung Leistung der CPU frei.

Und es wird Jahre dauern? Dann frag ich mich, warum dieses Jahr schon AAA Titel mit DX12 erscheinen ? Und es werden nächstes Jahr noch viele mehr, wenn nicht gar die Mehrheit.

@Pisaro: Dem kann ich nur zustimmen. Was wurde über die Rebrands geschimpft bei AMD.... :D
 
Fable und Ashes sind keine AAA Titel für mich :S

Selbst wenn viele Titel kommen werden die SPiele auch unter Dx11 gut laufen, außerdem hat man auch gesehen das Nvidia bei maximaler Last nur minimal unter Dx11 hinten liegt. Da dies aber rein CPU-lastig ist und wir nicht wissen wie früh das GPU-Limit kommt ist das alles bisher absurd. Was nützt 20% mehr CPU-Leistung wenn die Grafikkarte nicht hinter her kommt. Mein Highlight der nächsten 2 Jahre, Fallout 4 wird auch nur Dx11 sein. Alleine dieses Jahr hab ich soviele Dx11 Titel die ich noch spielen muss, was nützt mir dann viel Dx12 Leistung.

Ich hab die 980ti für aktuelle Titel gekauft, da ist sie gut/unschlagbar, bisher fehlen uns auch Vergleichswerte anderer Spiele. Doof wäre es schon wenn man massiv Leistung verliert, da aber das Feature anscheinend deaktivierbar ist mache ich mir da keinen wirklichen Sorgen. Mein i7 wird in den meißten Spielen schon seine Leistung bringen.
 
Zuletzt bearbeitet:
Wer redet hier von Fable und Ashes? Ich rede von Titeln wie Battlefront, denn das sind AAA Titel.

Hier geht es darum, dass die CPU weniger belastet wird und die GPU befeuern kann. Wenn aber Berechnungen auf die CPU geschmissen werden, weil die GPU es nativ nicht kann, wird die CPU unter Umständen so stark belastet, dass die Leistung einbricht, weil die GPU gar nicht mehr stark genug von der CPU befeuert werden kann, weil sie mit Berechnungen zugeklatscht wird, die eigentlich die GPU machen sollte.
 
meckswell schrieb:
DX wird, wie immer, überbewertet. Es wird nichts geben, was man mit DX11 nicht würde darstellen können.
Entwickler werden nichts integrieren, was Grafikkarten nicht darstellen können.
Was ganau brachte DX10.1 für Vorteile gegenüber DX10?
Das is alles vernachlässigbar.
Es wird Jahre dauern.
:)

Dx10.1 brachte Leistungsvorteile, was Nvidia dazu verlasste, den Zusatz von bestimmten Entwicklern aus Spielen heraupatchen zu lassen, das die eigenen GPu dsa nicht beherrschten.
 
Zurück
Oben