Test Deus Ex: Mankind Divided: 8 Grafikkarten von AMD und Nvidia im Benchmark

Shakyor schrieb:
Witcher 3 sieht auch super aus und schluckt auf Ultra irgendwas um die 2,5gb?

Witcher streamt wohl einfach besser Texturen aus dem RAM Richtung VRAM während DXMD einfach den Speicher der Grafikkarte voll Haut und fertig.

Saki75 schrieb:
Exakt auch meine meinung !
Anstelle überall nur noch DLCs und Denuvo reinzuhauen sollten die Programmierer sich deutlich mehr mühe geben und nicht irgendwelche Deals mit nVidia und AMD zu machen damit sich jeder eine 1080 kauft.

Das Spiel wurde um ein Jahr verschoben und wurde trotzdem nicht mit allen Features released die eingeplant waren.

Wahrscheinlich wurde der jetzige Termin mit ach und Krach gehalten und das Spiel reift nun bei den Day One Kunden.

Ich habe den Eindruck das DXMD so eine Baustelle wie Arkham Knight wird, welches wegen technischer Probleme auch ein Jahr später als geplant veröffentlicht wurde.
 
D3xo schrieb:
AMD hat aktuell keine Karten die man länger als 2 Jahre behalten kann. Wenn du von heute und jetzt sprichst dann kann die Antwort nur NVIDIA heißen.

Und nVidia hat so eine - mit Ausnahme der Mondpreis Titan X (rev.2), die für 99% der Verbraucher wegen des miesen Preis-Leistungsverhältnis nicht in Frage kommt?

Bei der GTX 1070 und der GTX 1080 ist auch Schicht im Schacht in 2 Jahren, wenn die nächsten großen Spieletitel einiger Publisher/Entwickler auch so "rund" laufen (durchwachsen programmiert sind, mit Hardware-Anforderungen die momentan noch am Großteil des Marktes vorbei gehen), weil diese Karten im Vergleich zur Volta Generation (die eben kein einfacher Maxwell Shrink wird) und vermutlich (/hoffentlich) auch zu den Vega Karten (spätestens aber bei den Navi-Karten) untergehen werden.

Eine GTX 1080 ist für Ihren exorbitanten Preis jetzt aktuell schon schwachbrüstig bzw. erlaubt kein flüssiges spielen mehr (60 fps) in diesem Spiel unter WQHD/1440p auf Maximal-/Ultra-Settings, siehe hier ...

Solch fordernde Titel - mit der aktuelle Hardware kaum zu Potte kommt - gab es auch vorher schon vorher, aber z.T. mit weitaus ansehnlicherer Grafik (siehe Crysis etwa). Ehrlich gesagt bin ich froh immer noch auf meiner alten GigaByte GTX 670OC zu sitzen, denn die Leistung der jetzigen Mittelklasse-Karten ist mit Erscheinen von Deus Ex - Mankind Divided für die verlangtem Kartenpreise eigentlich inakzeptabel geworden für die meisten (eine GTX 1070 schafft keine 60fps auf Maximal-/Ultra-Settings in Full-HD/1080p, geschweige denn eine RX 480 oder GTX 1060).

Meiner Meinung nach ist es für Oberklasse-/Performanceklasse Interessenten besser jetzt noch auf diese fordernden Spieletitel zu verzichten und sich im nächsten Jahr mit einer Vega oder Volta GPU einzudecken, als für die jetzigen Preise noch in Pascal zu investieren. Dass viele Entwickler immer fauler werden, den Anforderungen nicht gerecht werden und schlechter optimieren bzw. zunehmend ressourcenverschwenderisch arbeiten - siehe Spielgröße, Patchgröße, First Day Bugs, oft stagnierende Grafikqualität (sowie nicht in Relation zur Leistungsanforderung stehende, kaum noch ersichtliche Zunahme der Qualität bei höheren Settings) mangelhafte oder fehlende DX12 Implementierung, etc. - ist ja ein Trend der sich schon lange angekündigt hat (Ausnahmen wie The Witcher 3 u.a. bestätigen die Regel).

Solange da kein Umdenken stattfindet und die Verbraucher weiterhin bereit sind immer mehr Geld in immer weniger optimierte Spiele und immer teurere Grafikkarten hinein zu buttern, wird es in den kommenden Jahren ein immer teureres Hobby werden, welches sich einige evt. nicht mehr leisten werden können oder dazu gezwungen sein werden auf Konsolen umzusteigen, wo die Optimierung/Programmierung insgesamt weitaus stimmiger zu sein scheint als auf dem PC.

Wenn die eigene GPU kurzfristig abrauchen sollte und man dringend eine neue Karte braucht, denke ich ist die GTX 980Ti für ca. 320 Euro die derzeit beste Übergangslösung, zumindest weitaus besser als irgendwelche (fast gleichteuren) RX 480 und GTX 1060, Fury (X) und 390(X) GPUs, und Leute mit begrenztem Budget kämen wohl mit einer RX 470 8GB momentan am besten weg.

Wegen dieser Zäsur (die Deus Ex - Mankind Divided nun einmal darstellt, auch wenn einige das nicht wahrhaben wollen und immer noch auf DX12 Wunder-Benchmarks hoffen) sind m.E. alle preislich oberhalb einer GTX 980Ti liegenden Karten eher Geldverschwendung, aber ich will hier keinem seine Prioritäten/Kaufvorstellungen oder -entscheidung absprechen bzw. wieviel man meint für sein Hobby ausgeben zu müssen.

Wie erwähnt, es warten auch noch UbiSoft (neues Assassin's Creed, Anno, oder schon bei Watchdogs 2?) und WB (neues Batman, HdR/Mordor?) mit neuen Titeln, die u.U. noch gravierender an der Leistungsschraube drehen werden - da noch "schlampiger programmiert - als das Square Enix jetzt mit Deus Ex - Mankind Divided geleistet hat und beim (durch das Cliffhanger Ende) absehbaren Nachfolger vermutlich wieder tun wird ;).
 
Zuletzt bearbeitet:
Wollte mir das Spiel eigentlich kaufen, aber ich wart mal 2-3 Wochen ab wie es aussieht ^^

Hab eh erst mit Rise of the Tomb Raider angefangen..

So schön das Spiel (Grafik) und ich kann es auf 1440p, alles auf Anschlag, ohne Tesselation und mit SMAA sehr flüssig spielen. Graka läuft dabei mit 6GB durchgehen, aber sehr flüssiges Gameplay (55-75fps). So stelle ich mir das vor und nicht wie DX--> Sieht nicht so gut aus, frisst aber anscheinend viel Systemleistung..

@Chismon: Gebe dir Recht..

Die Mittel-Grakas (480 und 1060) sind zu teuer für das Gebotene, das selbe gilt für die 1070 (420+, eher 450 für ne gute Custom) und die 1080 ist fernab von gut und böse..

Da bleibt echt die 980ti als sehr gute Alternative, und da habe ich auch zugeschlagen mit dem selben Gedanken, wie du ihn gerade geschildert hast.

Zur Not kann man ohne AA spielen, die Schatten auf hoch, statt sehr hoch stellen usw --> Dann spielt es sich schön auch bei hungrigen Spielen.

Forza Horizon 3, Gears of War 4, Mafia 3, Watch Dogs 2 und BF 1 erwarte ich dieses Jahr, denke alle werden spielbar, manche mit "Ultra" manche eben mit "High"..Hoffentlich werden die gescheit programmiert :-P
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Caramelito & Chismon

Ich kann da nicht ganz Zustimmen, zumindest nicht dahingehend, daß die RX 480 & GTX 1060 zu Teuer wären. Immerhin haben diese eine ähnliche Leistung wie die GTX 980 Respektive 390 X. Welche eben noch ca. 2 Wochen vor Erscheinen der beiden noch zwischen 425 u. über 500 € kosteten. Dann nehmt mal die EVGA GeForce GTX 1060 SC Gaming für 289 € für die GTX 1060 stellvertretend sowie die Dirt Devil RX 480 zu 299 € stellvertretend für die RX 480.

Das ist kein Vergleich. Erst Recht wenn man Preis / Leistung Respektive Effizienz dagegen stellt. Eure Rückschlüsse sind da nicht nachzuvollziehen.

Zustimmen kann ich Euch allerdings mit Euren Meinungsäußerungen Respektive der GTX 1070 / 1080. Jedoch nur im Bezug auf die Preise. Die Leistung in Spielen ist normalerweise herausragend. Spiele wie das aktuelle Hitman als Gradmesser zu Nehmen, halte ich für nicht Sachgerecht.

Vielmehr halte ich es für Sachgerechter, wenn man sich die Entwickler mal anschaut, was die in Relation zu den Möglichkeiten auf die Beine bringen. Das ist nämlich ein Witz. Ich habe es in einem meiner Vorpostings schon dargelegt, ein Spiel wie Crysis 1 erschien im November 2007, lief mit allen Schaltern auf "High" auf einer Karte wie der Zotac Nvidia Geforce GTS 640 wirklich Flüssig. Und nochmals, mit gerade einmal 640 Mbyte Grafikkartenspeicher. Und zum Spielen war kein 8 Gbyte Rechner-Ram nötig. Mit 4 Gbyte Ram war man jenseits von Gut und Böse.

Jetzt schaut doch stellvertretend hierzu mal solche Spiele wie Hitman an, nur was die Grafik angeht. Ach ja, Crysis 1 lief seinerzeit schon bei Veröffentlichung relativ Bugfrei. In jedem Fall, egal wie man es dreht oder wendet, nicht zu vergleichen mit vielen heutigen Super Dupper AAAAAXY Titeln. Für mich einfach nicht mehr nachvollziehbar, was mancherlei Entwickler mit heutzutage mehr als genug verfübaren Ressourcen zustande Bringen.

So long...
 
Zuletzt bearbeitet:
Caramelito schrieb:
Wollte mir das Spiel eigentlich kaufen, aber ich wart mal 2-3 Wochen ab wie es aussieht ^^ Hab eh erst mit Rise of the Tomb Raider angefangen.. @Chismon: Gebe dir Recht.. Mittel-Grakas (480 und 1060) sind zu teuer für das Gebotene, das selbe gilt für die 1070 (420+, eher 450 für ne gute Custom) und die 1080 ist fernab von gut und böse.. Da bleibt echt die 980ti als sehr gute Alternative, und da habe ich auch zugeschlagen mit dem selben Gedanken, wie du ihn gerade geschildert hast. Forza Horizon 3, Gears of War 4, Mafia 3, Watch Dogs 2 und BF 1 erwarte ich dieses Jahr, denke alle werden spielbar, manche mit "Ultra" manche eben mit "High"..Hoffentlich werden die gescheit programmiert :-P

RotTR ist eine gute/bessere Wahl, bei mir wird DE-MD in 2-3 Jahren vielleicht im Ausverkauf als GotY/DC Version gekauft, so eine durchwachsene Leistung seitens der Entwickler muss ich ja als Verbraucher nicht belohnen und zum Glück haben andere Entwickler ja auch einiges zu bieten ;) ...

Ja, ich finde CB sollte die Kaufempfehlung basierend auf den jetzigen Preisen der GTX 980Ti revidieren, denn auch wenn die Effizienz bei den 16/14 nm Modellen (GTX 1060/RX 480) besser ist, so hinkt die Leistung mit ca. 30% entscheidend hinterher, auch bei den gleich teuren, oder teureren, gut gekühlten MSI Gaming X Modellen von GTX 1060 und RX 480).

Bei Forza Horizon 3 würde ich mich keine Sorgen machen, Forza Apex läuft selbst auf meiner jetzigen GTX 670OC noch wie geschmiert. Bei Watchdogs 2 hätte ich die größten Zweifel, aber vielleicht überrascht UbiSoft ja ausnahmsweise mit gelungener/effizienter Umsetzung.

Luxmanl525 schrieb:
@ Caramelito & Chismon ... immerhin haben diese eine ähnliche Leistung wie die GTX 980 Respektive 390 X. Welche eben noch ca. 2 Wochen vor Erscheinen der beiden noch zwischen 425 u. über 500 € kosteten. Dann nehmt mal die EVGA GeForce GTX 1060 SC Gaming für 289 € für die GTX 1060 stellvertretend sowie die Dirt Devil RX 480 zu 299 € stellvertretend für die RX 480. Das ist kein Vergleich. Erst Recht wenn man Preis / Leistung Respektive Effizienz dagegen stellt. Eure Rückschlüsse sind da nicht nachzuvollziehen.

Naja, wie gesagt, bei 30% Mehrleistung und bei in etwa gleichem Preis (wenn man die gut gekühlten, 330 Euro teuren Custom RX 480 oder GTX 1060 Karten vergleicht und keine Rosinenpickerei betreibt) denke ich, dass man trotz zugegeben deutlich schlechterer Effizienz trotzdem insgesamt deutlich besser in den kommenden 2 Jahren damit "fahren" wird.

Und ja, diese 25-30% Mehrleistung reißt es, insbesondere unter WQHD/1440p, hier bei DE-MD aber schon unter Full-HD/1080p m.E. heraus.

Krautmaster schrieb:
openWorld wie Witcher III hat weit weniger Texturumfang im Nah und mittleren Distanzbereich.

Dann nimm Star Wars - Battlefront anstelle von The Witcher 3, welches auch grafisch und bzgl. Hardware-Anforderungen den Boden mit Deus Ex - Mankind Divided wischt und vermutlich werden das auch Battlefield 1 (in Anlehnung an Star Wars - Battlefront) sowie Call of Duty - Infinite Warfare (in Anlehnung an Call of Duty - Black Ops III) tun, welche auf den jeweiligen Engines relativ ressourcenschonend/effizient programmiert werden dürften.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Chismon

Chismon schrieb:
Naja, wie gesagt, bei 30% Mehrleistung und bei in etwa gleichem Preis (wenn man die gut gekühlten, 330 Euro teuren Custom RX 480 oder GTX 1060 Karten vergleicht und keine Rosinenpickerei betreibt) denke ich, dass man trotz zugegeben deutlich schlechterer Effizienz trotzdem insgesamt deutlich besser in den kommenden 2 Jahren damit "fahren" wird.

Und ja, diese 25-30% Mehrleistung reißt es, insbesondere unter WQHD/1440p, hier bei DE-MD aber schon unter Full-HD/1080p m.E. heraus.

Von welcher Rosinenpickerei redest du? Die Evga Geforce GTX 1060 SC ist eine der besten GTX 1060 und zwar für Sage und Schreibe 289 €! Offenbar bist du nicht so Ganz auf dem Laufenden, gerne führe ich dir Tests dieser Karte auf, wenn gewünscht. Was willst du denn mit der GTX 980 Ti? Von der sprichst du doch, oder? Nun, die GTX 1060 Respektive RX 480 sind zum einen eher für Full HD gedacht. Und die besagte 980 Ti kriegst du ab ca. 399 € aufwärts. Dazu noch über 120 Watt höheren Stromverbrauch, eher sogar mehr.

Und ich weiß auch nicht was hier ständig 4K Auflösung oder die 2000er angeführt wird. Über 90 % alleine der Spieler hier auf CB absolvieren ihre Spiele unter Full HD. Wenn ich sehe in Relation hierzu, wie einige Reflexartig als Argument genau diese Auflösungen höher als Full HD anführen, kann ich wirklich nur den Kopf Schütteln.

So long...
 
Tramizu schrieb:
Anstelle dieser beiden, würde ich eher Blizzard als Favorit ansehen.

Die haben seit Diablo II + LoD nichts herausragendes mehr für mich abgeliefert. Klar, D2 war ein Meisterwerk, aber seitdem kam eigentlich nur noch WarCraft 3 (v.a. Tower Defense) und dann war Sense bei mir. Zu generisch, zu larifari und ohne Tiefe.

Valve ist allerdings auch nicht viel besser. Bloß, die bringen ja quasi gar nichts mehr raus, bis auf dota Quatsch.

Und Rockstar hat mich mit GTA V enttäuscht. Das Ding hatte zwar eine wahnsinnig faszinierende Technik, aber das Spiel war weder so spannend wie GTA IV, noch so abgefahren wie GTA SA.
 
Luxmanl525 schrieb:
@ Chismon ... Evga Geforce GTX 1060 SC ist eine der besten GTX 1060 und zwar für Sage und Schreibe 289 €! Offenbar bist du nicht so Ganz auf dem Laufenden, gerne führe ich dir Tests dieser Karte auf, wenn gewünscht. Was willst du denn mit der GTX 980 Ti? Von der sprichst du doch, oder? Nun, die GTX 1060 Respektive RX 480 sind zum einen eher für Full HD gedacht. Und die besagte 980 Ti kriegst du ab ca. 399 € aufwärts. Dazu noch über 120 Watt höheren Stromverbrauch, eher sogar mehr.

Wieso vergleichst Du die GTX 980Ti nicht mit der "tollen" Vorzeige/Founder's Edition der GTX1060? Selbst wenn Du die EVGA SC Version nimmst, sieht diese vergleichsweise immer noch ziemlich alt aus was die Leistung angeht bzw. spielt in einer anderen (tieferen) Liga als eine GTX 980Ti, die nur unwesentlich teurer ist, denn die GTX 980Ti ZOTAC AMP! Omega bekommt man übrigens schon ab 349 Euro.

Zwischenzeitlich gab es hier auf ComputerBase auch Posts in denen 315-320 Euro als Preis für eine GTX 980Ti genannt wurden. Wer denkt da noch an eine 30% langsamere GTX 1060 (SC von EVGA), die preis-leistungstechnisch klar unterlegen wäre und nur in Sachen Effizienz vorne liegt (mit Sicht auf 2 Jahre uninteressant) und in Full-HD bei DE-MD erst ab Medium-Settings einigermaßen flüssiges spielen (bei 60 fps, die Drops auf Minimum (40 fps) nicht eingerechnet) erlaubt?

Also ich jedenfalls nicht und viele andere wohl auch nicht, denn für den Preis ist das Gebotene bei den Mittelklasse-(Full-HD?-)GPUs einfach zu schwach (und mit einer RX 470 8GB würde man unter DE-MD da preis-leistungstechnisch noch besser fahren als mit einer GTX 1060 6GB), obwohl diese erst seit ein paar Monaten auf dem Markt sind.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Chismon

Ohne Zweifel sind 350 € für die besagte Zotac GeForce GTX 980 Ti AMP! Omega ein Wort. Und die ist sogar erhältlich - gleichwohl entzieht es sich meinem Verständnis, wieso du die FE der GTX 1060 als Vergleich heran ziehen willst -. Wobei ich aber Grundsätzlich keine Beta-Spiele absolviere, noch ein solches als Vergleichsmaßstab auch nur für irgend etwas anerkenne, von Anzuführen ganz zu Schweigen. Und Deus Ex: Mankind scheint mir in diese Kategorie zu Fallen. Ein Spiel, wo die Firma Spieler dazu regelrecht mißbraucht, um es an die Serienreife heran zu Führen. Das ist meine eigene Persönliche Meinung. Mit ein Grund, weshalb ich Spiele mittlerweile nur noch Absolviere, wenn sie nachweislich ausgreift sind.

Persönlich möchte ich noch Anfügen, wenn ich Geld ab ca. 350 € Anlegen würde, würde ich dann wohl eher zu einer GTX 1070 Tendieren. Und nicht zu einer 980 Ti. Da wüde ich dann lieber noch ein Paar Monate Sparen und Warten bis ich das Geld zusammen habe. 250 Watt Stromverbrauch Plus X sind mir Persönlich zuviel. Für Full HD ist die Karte Oversized. Genau wie die GTX 1070. Aber jedem das Seine. Für den Preis, wenn man sich nicht am Stromverbrauch und evtl. dem Lärm stört, ein gutes Angebot, zweifellos.

So long...
 
Zuletzt bearbeitet:
Chismon schrieb:
Tja, das wird einigen sauer aufstoßen, die sich vor kurzem einen neuen WQHD oder gar UHD Monitor angeschafft haben, diesen aber nicht voll ausreizen können, weil es evt. an der dazu passenden/teuren Grafikkarte mangelt (WQHD) oder es diese noch nicht gibt (UHD).
Warum wird es sauer aufstoßen? Ich habe auch bei einem LG 4K Monitor Schnäppchen zugeschlagen und habe es keine Sekunde bereut! Schließlich hat man einen Monitor ja nicht nur zum spielen, sondern auch für Photoshop, 4K-Filme gucken, browsen usw. und da will ich definitiv nix kleineres oder niedriger aufgelöstes mehr haben, hab mich echt dran gewöhnt, die 4K Filme oder Handyaufnahmen 1:1 anzugucken :D
Zumal ein Monitor ja auch eher eine Zukunftsinvestition ist, als eine Grafikkarte ... die tauscht man alle 2-3 Jahre, einen guten Monitor, gerade wenn er mit 4K und Co vielleicht noch ein bisschen der Zeit bzw. den Angeboten vorraus ist, nutzt man sicher 5-6 Jahre (wenn er so lange durchhält ^^)
Und was das spielen angeht, ist ja nicht jedes Spiel so schlecht optimiert ... ich finde zB The Division noch etwas hübscher und das kann man zB mit WQHD auf max. Details problemlos mit einer RX 480 oder GTX 1060 mit um die 45 fps spielen. Wenn man 2-3 Dinger noch von "ultra" runterstellt, dann geht's sicher auch mit 55-60 fps. Und wie gesagt, der Monitor wird auch noch einen Grafikkarten-Nachfolger überleben ;)

rg88 schrieb:
Die 970 war vor der 1000er-Reihe noch mit der 390 gleichauf (zumindest in DX11).
In gewisser Hinsicht, lässt sich der Verdacht also nicht wirklich von der Hand weisen.
1. sind die Unterschiede nicht so extrem, was bringen denn am Ende nach 2-3 Jahren 8-10% mehr Leistung? schließlich kauft man dann eh meist wieder ne neue Karte...
2. darf man nicht vergessen, dass es vielleicht kein "schlechter patchen" von nVidia ist, sondern AMD es einfach nur mit der Zeit endlich mal hinbekommt, seine massiv höhere Rohleistung (GFLOPS etc.) in Spieleleistung umzuwandeln ... sieht man doch auch jetzt schon wieder, RX 480 mit ~5800 GFLOPS, die GTX 1060 aber "nur" mit ~4400 GFLOPS, trotzdem ist die GTX 1060 in der Regel vor der RX 480!

xeonking schrieb:
auch wenn die 1060 sicherlich keine schlechte karte ist, der wird erkennen (und dazu keine farbige brille auf hat) das man mit einer 480er langfristig besser fährt. die paar prozente die die 1060 jetzt noch hier und da schneller ist wird die 480 langsam aber sicher aufknabern.
Keine Frage, das ist gut möglich, nur was bringt es mir, wenn die RX 480 in 3 Jahren vielleicht keine 5-10% mehr hinter der GTX 1060 liegt, sondern 2-3% davor? Dann hat sich "das Warten gelohnt", aber wenn es dann so weit ist, kauft man doch eh wieder die nächste Karte, gerade im Mittelklassebereich. Da ist "jetzt" bisschen mehr Leistung für weniger Geld (zumindest viele GTX 1060 Customs sind günstiger als RX 480 Customs) lohnenswerter oder?

Chismon schrieb:
Wieso vergleichst Du die GTX 980Ti nicht mit der "tollen" Vorzeige/Founder's Edition der GTX1060? Selbst wenn Du die EVGA SC Version nimmst, sieht diese vergleichsweise immer noch ziemlich alt aus was die Leistung angeht bzw. spielt in einer anderen (tieferen) Liga als eine GTX 980Ti, die nur unwesentlich teurer ist, denn die GTX 980Ti ZOTAC AMP! Omega bekommt man übrigens schon ab 349 Euro.
Dass das mit der Founders Edition Unsinn ist, merkste ja hoffentlich selbst ;) es geht deutlich günstiger und auch schneller + leiser ... nicht nur die EVGA, auch die "einfache" MSI GTX 1060 6GT OC hat sehr gute Kritiken bekommen und kostet 277€ ... zumal nicht jeder Lust hat, sich einen 33cm-Klops wie die Zotac 980 TI einzubauen, passt halt auch nicht bei jedem!
Grundsätzlich sind die Ausverkaufspreise aber immer attraktiv, auch bei der GTX 980TI ... deshalb kann man aber den "neuen" nicht ihre Daseinsberechtigung absprechen, das ist zu simpel ... aber eine Überlegung wert sind die "alten" auf jeden Fall. Ich hatte ja "damals" vor RX 480 Release auch noch gesagt, dass eine Custom R390X inkl. gratis Total War Warhammer für 280€ ein Top-Deal ist ... und nun sieht man das ja auch, da sie damals sogar günstiger als die jetzigen nicht verfügbaren RX 480 Customs war und sogar noch schneller ist
 
Zuletzt bearbeitet:
Cousin wollte eine 480 [bzw wollte ich ihm einbauen], da die Verfuegbarkeit der guten Modelle aber echt am Arsch sind, hab ich bei ner verfuegbaren evga 1060 sc zugeschnappt [279] und die Karte arbeitet 1a und er ist zufrieden. Besser als noch wochen zu warten und scheiß auf die Zukunft. Wird dann eh neue Karte geholt in 2 Jahren, bis dahin tuts die 1060 auch
 
forumuser05 schrieb:
1. sind die Unterschiede nicht so extrem, was bringen denn am Ende nach 2-3 Jahren 8-10% mehr Leistung? schließlich kauft man dann eh meist wieder ne neue Karte...
2. darf man nicht vergessen, dass es vielleicht kein "schlechter patchen" von nVidia ist, sondern AMD es einfach nur mit der Zeit endlich mal hinbekommt, seine massiv höhere Rohleistung (GFLOPS etc.) in Spieleleistung umzuwandeln ... sieht man doch auch jetzt schon wieder, RX 480 mit ~5800 GFLOPS, die GTX 1060 aber "nur" mit ~4400 GFLOPS, trotzdem ist die GTX 1060 in der Regel vor der RX 480!

zu 1. Ich halte 18% (nicht 8-10!) Unterschied durchaus für extrem.
zum Rest:
Die 970 war bis vor wenigen Monaten noch ganz normal für 300Euro im Wettbewerb mit der ebenso teuren 390. Keine Ahnung wie du auf 2-3 Jahre kommst? Die Release der 970 ist noch nicht einmal 2 Jahre her und die wenigsten werden sich so eine Karte sofort am Anfang gekauft haben. Also sagen wir mal realistisch ist die Karte nach einem Jahr Benutzung nicht mehr in der Leistungsklasse wie direkte Konkurrenzkarten.
Langlebig ist das sicherlich nicht. Immerhin ist der Abstand zur 480/1060 nicht allzugroß, als dass sich ein Neukauf in der neuen Mittelklasse nach dieser Zeit lohnen würde. Zumindest bei der 390. Verstehe nicht, warum man sich da nach einem Jahr Nutzung eine neue Karte kaufen sollte?

Von "schlechter Patchen" habe ich nichts gesagt, sondern schlicht, dass die 970 anscheinend keine Treiberanpassungen an den "speziellen" Speicher mehr bekommt und damit weit ins Abseits geschoßen wird.

Deine GLOPS-Werte sind im Übrigen vollkommen egal, weil sich danach weder der Kartenpreis richtet, noch irgendjemand diese Werte nutzt um Vergleiche unter den Karten anzustellen. Abgesehen davon gilt das sowieso bloß bei DX11. Bei DX12/Vulkan werden die AMD-Karten viel besser ausgelastet wie man zB an Doom sieht und man kann die höhere Rohleistung nutzen. Ist doch nice, wenn man eine große Mehrleistung über die Lebenszeit bzw. durch neuere APIs bekommt und dafür nichts extra zahlt.
 
Hallo zusammen,

@ rg88

Auch wenn ich eine GTX 970 hätte, würde ich mir definitiv keine GTX 1060 Kaufen, erst Recht keine RX 480. Für Full HD ist die GTX 970 in meinen Augen nach wie vor eine Gute Karte. Natürlich ist es ein Nachteil, daß die besagte Schwäche bei der GTX 970 nicht mehr behoben wird, aber mal ehrlich, hast du gedacht, daß das noch Passieren wird? Ich nicht, genausowenig wie ich je daran geglaubt habe daß AMD den IDLE-Verbrauch noch Senken wird per Treiber, wie sie es angekündigt haben.

Ich weiß nicht, warum du und andere ständig von irgendwelchen Vorteilen von Vulkan bei Doom Respektive der AMD-Karten spricht. Die Vulkanunterstützung bei Nvidia ist allenfalls rudimentär zu Bezeichnen, vor allem aber ist im Nvidia-Treiber nach wie vor ein Bug unter Vulkan, welcher angeblich leicht behoben werden kann. Solange Doom mit Open GL unter Nvidia Karten sogar leicht Besser läuft als unter Vulkan, sehe ich da keine Erfordernis als auch nicht einmal ein Argument dafür, hier dieses Spiel groß als Nachteililg bezüglich Nvidia-Karten zu Sehen.

Unter DX 12 hat Nvidia die Schwäche bei den Pascal Karten weitgehend behoben. Die GTX 1060 liegt z. B. auf Niveau der 480, in dem einen Spiel besser, in dem anderen schlechter. Grundsätzlich ist allerdings die Zahl der Spiele einfach zu gering, als daß man wirklich schlußendliche Aussagen machen könnte. Derzeit sind manche Spiele, die sich DX 12-fähig Nennen, dadurch DX 12-fähig, weil sie im Nachhinein durch einen Software-Flicken Direct 12-fähig gemacht wurden oder werden. Das sind in meinen Augen keine echten DX 12 Spiele. DX 12 Spiele sind in meinen Augen solche, die von vornherein für diese Schittstelle konzipiert bzw entwickelt wurden und nur dafür veröffentlicht werden bzw. wurden.

@ Shakyor

Das wundert mich gar nicht, die besagte EVGA GeForce GTX 1060 SC Gaming ist eine der Besten GTX 1060 überhaupt. Hier mal nachfolgend einen Prima Test derselben:

http://www.hardwareluxx.de/index.ph...on-asus-evga-und-inno3d-im-test.html?start=26

Wenn ich einen Rat Geben darf, dein Cousin sollte sich bei denen Registrieren um in den Genuß der Erweiterten Garantie zu kommen. Ich werde mir die demnächst auch Zulegen und meine Radeon Xtreme 5850 damit Ersetzen. Wenn dein Cousin unter Full HD Spiele absolviert, wird diese Karte länger als 2 Jahre Halten.

So long...
 
Zuletzt bearbeitet:
rg88 schrieb:
zu 1. Ich halte 18% (nicht 8-10!) Unterschied durchaus für extrem.
Also ich wüsste nicht, dass ich irgendwo schon gelesen habe, dass AMD-Karten innerhalb von kurzer Zeit 15-20% gut machen und das vor allem nicht bei 1-2 Spielen, sondern generell! Wenn du mir das zeigen kannst, dann stimme ich dir natürlich zu. Aber dann sollte es auch nicht nur in Bezug auf die GTX 970 gelten (weil die nunmal sehr "speziell" ist), sondern auch ne Klasse drüber bezogen auf die GTX 980 zB.
rg88 schrieb:
Deine GLOPS-Werte sind im Übrigen vollkommen egal, weil sich danach weder der Kartenpreis richtet, noch irgendjemand diese Werte nutzt um Vergleiche unter den Karten anzustellen. Abgesehen davon gilt das sowieso bloß bei DX11. Bei DX12/Vulkan werden die AMD-Karten viel besser ausgelastet ...
Genau das ist ja der Punkt, mit den folgenden Patches und vor allem Umstieg auf DX12/Vulkan kann AMD endlich mehr aus der deutlich höheren Rohleistung rausholen... und das ist auch das, was man dann sieht bzw. messen kann.
Allerdings wird die Veränderung bei RX 480 vs. GTX 1060 bei weitem nicht mehr so stark ausfallen, wie bei R9 390 vs. GTX 970, da die GTX 970 nunmal wirklich sehr eigen war und außerdem die GFLOPS-Differenz deutlich geringer ausfällt, da die RX 480 weniger als die R9 390 hat, während die GTX 1060 mehr als die 970 liefert ... sicher, das sind nur grobe Richtwerte, trotzdem ist es aber ein Anhaltspunkt, bei welcher Karte vielleicht noch eher etwas herausgeholt werden kann

rg88 schrieb:
zum Rest: Die 970 war bis vor wenigen Monaten noch ganz normal für 300Euro im Wettbewerb mit der ebenso teuren 390. Keine Ahnung wie du auf 2-3 Jahre kommst?
Wie gesagt, die GTX 970 ist aufgrund der Speicherproblematik nun nicht der ideale Vergleichspartner ... guck dir andere Vergleichskarten an ... ein Beispiel:
Test der R9 390X zum Release ... die GTX 980 war ~4% schneller ->
https://www.computerbase.de/artikel...-r7-370-test.50177/seite-3#abschnitt_leistung
letzter Test, bei denen beide aufgeführt wurden (RX 460 Test), ganze 14 Monate später, Ergebnis gleich schnell -->
https://www.computerbase.de/artikel...04/seite-3#abschnitt_benchmarks_in_1920__1080

also in 14 Monaten 4% aufgeholt ... sicher nicht schlecht, ist auf jeden Fall löblich, allerdings auch weit von 18% entfernt
 
forumuser05: Du hast mich in #173 (teilweise) zitiert. Dabei ging es in meinem Post rein um die 970. Nicht mehr und nicht weniger ;)
Und die 18% beziehen sich auf die Deus Ex Benchmarks aus dem Artikel in dessen Forenteil wir gerade schreiben ^^ (970 vs 390)
Wobei mir gerade auffällt, dass die 960 auch nicht gerade glänzt (13% zur 380).
Die 1000er Reihe liegt im Rahmen der Erwartungen, die 900er sind weit langsamer als bisher positioniert.

Ich wollte jetzt hier keine ewiglange Grundsatzdiskussion auslösen sondern lediglich deinen Kommentar zu meinem Beitrag beantworten.
 
Zuletzt bearbeitet:
achso, na wenn du nur dieses Spiel meinst, dann stimme ich dir natürlich zu ... obwohl mir das eher wie eine Ausnahme erscheint und auch die Frage ist, wie sauber da wirklich programmiert wurde, wenn eigentlich sämtliche Karten zusammenkrachen ^^ Zumal es ja nicht mal viel beeindruckender aussieht, als zB The Division, eher im Gegenteil ...

allgemein auf viele Spiele bezogen ist so ein Unterschied nämlich nicht festzustellen ... bei den beiden von mir verlinkten CB-Tests ist auch die R9 390 im Vgl. zur GTX 970 nur 1% besser geworden (von 5% besser auf 6%).
Wenn man wie hier bei dem Test nur einzelne Spiele betrachtet, dann verzerrt das das Gesamtbild doch schon erheblich, denn zB bei Anno 2205 ist die GTX 970 ganze 33% schneller, als die R9 390 ... ;) sicher, ein nVidia-Spiel und eine Ausnahme, aber im Durchschnitt von 15-20 aktuellen Spielen sind die Veränderungen doch eher marginal.

Ich hoffe aber mal (um zum Thema zurückzukommen ^^), dass da sowohl bei AMD, als auch bei nVidia noch einiges rauszuholen ist, denn für die Grafik brechen die Karten meiner Meinung nach doch viel zu stark ein ... das hat dann nix mit schwachen Grafikkarten, sondern eher schlechter Programmierung/Portierung zu tun

Mich würde bei dem Spiel aber mal interessieren, warum die RX 480 im Vergleich zur GTX 1060 mit steigender Auflösung an Boden verliert, obwohl das Spiel ja an sich a) "Gaming Evolved" ist (ohne, dass es jetzt massive Unterschiede macht, ist mir schon klar), b) viel VRAM frisst (also ideal für die 2GB mehr bei der RX 480?) und c) die RX 480 an sich auch die höhere Rohleistung hätte ?! Bzw. ich sehe gerade, eigentlich bricht sie nur vom Schritt WQHD -> UHD ein ... sind zwar nur 4-5%, aber schon komisch
 
Zuletzt bearbeitet:
forumuser05 schrieb:
obwohl mir das eher wie eine Ausnahme erscheint und auch die Frage ist, wie sauber da wirklich programmiert wurde, wenn eigentlich sämtliche Karten zusammenkrachen ^^
Das Spiel frisst enorm Leistung, das steht außer Frage. Aber die 300/400/1000er Karten liegen recht genau da, wo man sie einordnen würde. Die 900er Reihe bricht aber enorm ein. Das sieht eher noch einer fehlenden Anpassung des Treibers aus. Und ob die noch kommt für die Pascal-Vorgänger ist wohl eher fraglich (sieht man aus der Vergangenheit an der 600/700er Reihe)
 
rg88 schrieb:
Die 900er Reihe bricht aber enorm ein. Das sieht eher noch einer fehlenden Anpassung des Treibers aus. Und ob die noch kommt für die Pascal-Vorgänger ist wohl eher fraglich (sieht man aus der Vergangenheit an der 600/700er Reihe)
Ich denke schon, dass da noch eine Anpassung kommt ... AMD hat halt direkt ab Start einen "passenden" Treiber dabei, davon sollte man aber auch ausgehen können bei einem "Gaming Evolved" Spiel.
Es stimmt aber schon, dass die 900er-Reihe nicht so brilliant aussieht, aber es fehlen auch gerade die "guten" Modelle oberhalb der 970, kann gut sein, dass sie aufgrund doch deutlich höherer Leistung etwas konstanter performen ... zumal das Ergebnis vielleicht mit dem nächsten nVidia-Treiber auch nicht mehr so dramatisch aussieht. Das werden wir ja sehen, wenn das Spiel nochmal getestet wird, dann mit deutlich mehr Karten

Irgendwie sind die Ergebnisse bei dem Spiel allgemein sehr ulkig ... es wird im Test gesagt, dass man am besten eigentlich eine 8GB-Karte bräuchte, aber die GTX 1060 mit nur 6GB macht von WQHD zu UHD 5% an Boden gut auf die RX 480 (bzw. überholt sie damit) ... Genauso bleibt der Abstand zwischen GTX 970 und R9 390 von FHD zu UHD bei konstant 17/18%, obwohl die 970 auch nur 4GB hat ... gleichzeitig verliert die Fury X (mit ebenfall 4GB) bei dem Schritt 4% ihres Vorsprungs auf die R9 390 ... und das obwohl ja eigentlich der 970-Speicher dämlich angebunden ist, während die Fury X guten HBM-Speicher hat?!
 
Zuletzt bearbeitet:
Zurück
Oben