Test Deus Ex: Mankind Divided: 8 Grafikkarten von AMD und Nvidia im Benchmark

tek9 schrieb:
Die AMD werden nach einiger Zeit nicht nur 2-3 Prozent vorne liegen, sondern eher 20 Prozent. Bzw die 1060 wird 20 Prozent zurück fallen.
2-3% hab ich ja nicht gesagt, sondern 8-10 ... und selbst wenn es 12-13 sind nach 2-3 Jahren, dann wäre es für die meisten irrelevant, weil gerade in diesem Mittelklassebereich die Karten dann massiv an die Grenzen kommen und der Großteil dann wieder aufrüstet ... außerdem kaufe ich ja jetzt eine Karte und will jetzt damit Leistung haben und nicht noch 1-2 Jahre darauf warten. Wie gesagt, ist schön, dass AMD-Karten noch ein bisschen Boden gut machen, aber mir wäre es zB lieber, wenn die RX 480 direkt schon jetzt vor einer GTX 1060 liegt im Durchschnitt und nicht erst nach 2 Jahren. Denn derzeit gibt es die GTX Customs nunmal günstiger und trotzdem sind sie schneller, was mich in der Kombination noch von einem RX 480-Kauf abhält ... Wie gesagt, guck dir bei den von mir verlinkten CB-Tests die Vergleiche R9 390X vs GTX 980 und R9 390 vs GTX 970 an, da hat sich nur niedrigen Bereich etwas getan ... innerhalb von 14 Monaten.

Chismon schrieb:
Ich versuche mich kurz zu fassen, auch wenn ich weiss, dass Du genauso gerne wie ich mit ausführlichen Antworten/Kommentaren ausartest :D.
:D stimmt

bzgl. GTX 980Ti vs. RX 480 und GTX 1060:
Du hast schon Recht, eine GTX 980TI für 350€ ist sicher ein guter Deal, ähnlich der damals von mir empfohlenen R9 390X Custom für 280€ (hätte ich damals mal zugegriffen, die ist ja schneller als ne RX 480 und wäre günstiger gewesen). Man muss aber auch in beiden Fällen sehen, dass es nur extrem kurzzeitige Ausverkäufe sind, also man eigentlich die ganze Zeit nach solchen Ausschau halten muss und somit diese Karten schwer mit "Dauerangeboten" zu vergleichen sind ... schließlich kostet jetzt die günstigste GTX 980 TI schon wieder 372€ bei Geizhals, die günstigste lieferbare gar wieder 398€!
Und bei dem Preis ist denke ich die modernere GTX 1070 dann doch wieder die bessere Wahl, zumal ich noch nicht gelesen habe, dass die KFA Variante für 399€ schwachbrüstig sein sollte, schließlich ist ja auch nicht so viel zu kühlen bei der guten Effizienz ;) Zumindest würde ich bei so knappen Preisdifferenzen nicht mehr auf HEVC verzichten bei einem Neukauf, obwohl man natürlich auch sagen muss, dass beim abspielen "zur Not" auch die Intel-CPUs unter die Arme greifen, wenn die Graka keine HEVC-Unterstützung hat. Haben AMD-CPUs eigentlich HEVC-Beschleunigung beim De- und Encoding? Hab zwar eine, aber mich damit noch nicht so sehr befasst, weil sie im Zweitrechner steckt ^^

bzgl. Monitor:
Keine Frage, zurzeit ist 4K für die meisten Grafikkarten sicher noch etwas zu anspruchsvoll, aber man darf auch nicht vergessen, dass es viele Leute gibt, die mit Egoshootern nix anfangen können und damit würde 4K dann schon wieder deutlich mehr Sinn machen. Zumal ja auch heute noch viele Spiele wie Starcraft II oder Civilization V und Co spielen, die dann mit 4K auch nochmal einiges an Grafikpracht zulegen können ;) von aktuellen Fußballspielen oder Strategiespielen ganz zu schweigen. Sicher, Deus Ex läuft nicht verünftig auf 4K mit Mittelklasse-Karten, aber "zur Not" kann man ja dann immer noch auf WQHD spielen oder eben auf 4K bei den meisten Egoshootern 2-3 Einstellungen von Ultra herunterstellen und schon wäre man gerade so im Freesync-Rahmen von vielen Monitoren.
Was das drumherum angeht ... klar, man könnte auf HDR-Monitore warten, aber das würde bei mir schon wieder nix bringen, weil ich neben dem Studium auch sehr, sehr viele Fotos verwalte, bearbeite usw. und mir es da nix bringt, wenn mein Monitor alles noch geiler darstellt, als es bei allen anderen aussieht ... da ist mir ein 100% sRGB Farbraum (Stichwort Farbechtheit) wichtiger.
Und wie du schon sagst, die HDR-Dinger werden dann auch dementsprechend kosten, deshalb finde ich bin ich mit dem LG 27MU67 mit 27" 4K, IPS, 99% sRGB, Freesync (mit Mod ab 34/35Hz), guter aber nicht nerviger (weil kriselig oder so) Entspiegelung und Pivot-Funktion für damals 399€ sehr gut weggekommen.
Dass in der Regel auch noch FHD oder WQHD-Monitore ausreichend sind, ist natürlich klar, aber aufgrund des guten Angebots damals hatte ich dann doch beim LG zugeschlagen, obwohl ich mich eigentlich eher nach einem WQHD Monitor umgeschaut hatte (mit den gleichen Features) nur landete ich da bei 1-2 Dell-Varianten für ~330€ und dann dachte ich mir bei dem Angebot, für 70€ mehr 4K und Freesync lohnt sich dann doch.
Ich denke aber mal, richtig gehyped wird 4K nun auch nicht unbedingt, es ist eher so ein bisschen die "Aufgabe" der Medien zu zeigen, wann eine Grafikkarte an ihre Grenzen kommt ... früher war das bei FHD immer schon der Fall, heutzutage kommen viele aber schon trotz deutlich aufwändiger berechneter Spiele locker mit WQHD klar, weshalb eben auch noch 4K getestet wird ... das es aber eher noch eine Randerscheinung ist, sieht man ja bei den CB-Tests der ganzen Custom-Karten, die werden meist nur mit FHD getestet.
 
Chillaholic schrieb:
Du hast aber keinen Vorteil dadurch, eher einen Nachteil, da die FPS absackt.
https://www.computerbase.de/artikel...omb-raider-directx-12-benchmark.54054/seite-2
Tomb Raider ist ein gutes Beispiel für richtig schlechte DX12 Implementierung.

Tellerrand und so... wenn CBs Testmaschine mit nem 4,7 Ghz CPU nicht viel von DX12 profitiert liegt es vielleich genau daran dass DX12 hierfür nicht gedacht ist, da es eben hauptsächlich CPU entlastend ist.

https://www.computerbase.de/artikel...pus_entlocken_directx_12_manchmal_performance

-> Beim FX und Nvidia kommen schon + 30% bei rum - beim so "schlecht" implementierten Tomb Raider. Je nach Savegame und in Game Situation eben. 30% ist doch super und heißt es funktioniert.

Stell dir folgendes vor. Du hast ein Spiel wie Tomb Raider, unter DX11 vielleicht 30 min Frames, 90 FPS max, 60 FPS im average.
Mit DX12 ändert sich das vielleicht auf 45 min Frames, 65 FPS max, Average 55 FPS.

Welches läuft nun runder und was genau sagen die durchschnittlichen FPS aus? Herzlich wenig. Jetzt siehst du den DX11 und DX12 Balken und denkst "was ein Scheiß".
Und CB macht leider den Fehler und stellt das nicht klar.

Es muss unterm Strich nicht zwingend mehr FPS bei rumkommen. Das ist vollkommen in die falsche Richtung gedacht. Wichtiger ist eher dass der Range in dem sich die FPS bewegen konstanter ist mit weniger Einbrüchen die oft auf API / CPU Limit zurückzuführen sind...
Sagte er mit seinem i7-5820K@6x4,50Ghz ;)
...auch bei einer 6 Kern 4,5 Ghz CPU.

Und dann schau noch Hitman an:

https://www.computerbase.de/artikel...e-2#abschnitt_directx_12_auf_einem_amd_fx8370

Auch hier bei Nvidia +57% mehr FPS durch DX12 beim Einsatz einer schwächeren CPU. Und schwächere CPU ist Definitionssache. Bei einem reinen DX12 Titel ohne DX11 Fall Back Renderpfad wäre das Game auch mit 6x4,5 Ghz unter DX11 vielleicht gar nicht mehr spielbar.

Edit: Ich denke das DX11 in einfachen Szenen heute oft deutlich mehr FPS bringen kann als DX12, gerade auch bei Nvidia. Also zb in einem einfachen, leeren Raum, nahe an der Wand oder so, DX11 vllt dann um 300FPS liefert und DX12 nur noch 150 FPS. Auch das kann in Benchmarks durchschlagen aber wenig relevant fürs Spielerlebnis sein.

Bis Ende 2017 gehe ich davon aus dass jeder goße Release entweder Vulkan oder DX12 unterstützt und solche Ausfälle wie Tomb Raider der Vergangenheit angehören und die meisten Gameengines mit DX12 support nachgepatcht wurden.

Ich denke bis dahin wird fast jeder Titel auch noch auf älteren GPU laufen müssen und somit kann man nicht persé die Anforderungen API seitig so hoch schrauben dass es nur noch in DX12 spielbar wäre. Dass AMD hier auch mehr gewinnen wird steht außer Frage, ich könnte mir eine finale Skalierung fast linear mit den FLOP vorstellen. Somit läge eine RX 480 vielleicht mal im Schnitt nur noch so etwa 10% hinter einer 980 TI, weit schneller als heute. Aber das war nicht das Thema, und wäre wohl auch eher best case. ;)
Ergänzung ()

chithanh schrieb:
Der interne Benchmark ist eher nicht repräsentativ für die Spieleperformance. Aus dem HardOCP-Forum:
https://hardforum.com/threads/deus-ex-mankind-divided-performance-and-iq-preview-h.1908992/

ui danke für den Hinweis. Gut. Dann wohl eher ein reiner "eye catching" Benchmark. Super. Und dafür sieht er noch nichtmal so hammer aus ^^
 
Zuletzt bearbeitet:
Krautmaster schrieb:
-> Beim FX und Nvidia kommen schon + 30% bei rum. Je nach Savegame und in Game Situation eben.
AMD FX-8370 + R9 Fury X / 980TI ?
Sehr realistisches Szenario, diese Kombinationen gibt es bestimmt 20x auf der ganzen Welt. :D
Ein FX-Prozessor mit ner Fury X gepaart ist eine denkbar schlechte Konstellation, der reißt einfach den Overhead nicht.

Krautmaster schrieb:
Und dann schau noch Hitman an
Gleiches absolut unrealistische Szenario.

Wie hoch ist wohl der Intel i5/i7 Anteil hier bei Spielern? 70%?

Aber ja, ich verstehe was du sagen willst, trotzdem ist die DX12 Umsetzung von Tomb Raider grottenschlecht. Ein weiterer großer Vorteil von DX12 ist ja, dass asynchrones GPU-Berechnen viel effizienter wird. Geanau das scheint hier aber nicht zu passieren.
https://www.computerbase.de/artikel....54054/seite-3#abschnitt_technischer_eindruck
Den gleichen Eindruck hat die CB Redktion hier übrigens auch gehabt.
 
Zuletzt bearbeitet:
Chillaholic schrieb:
Du hast aber keinen Vorteil dadurch, eher einen Nachteil, da die FPS absackt.
Das kommt vielleicht auch auf das Modell an, ich habe die Gaming 4G, dazu G-Sync + i7 4790K.
Ich habe es einfach mal probiert und war zufrieden.
 
Vorweg: Bin keiner, der sich Weiterentwicklungen entgegenstellt. Aber das hier wirkt eher so, als hätten die Entwickler einen "Freibrief" erhalten, ihre Texturen ab jetzt unoptimiert oder mit quasi unmerklichen Details vollgepumpt in die Spiele zu pflastern. Ersteres erspart denen sicherlich Arbeit, zweiteres ist eher als "sehr her, wir können es" zu werten. Vorteil für die Zocker - nahe Null. Vorteil für die Grafikkartenhersteller: Plötzlich tun sich neue Absatzmärkte auf.
Ich hoffe, dass macht keine Schule. Wenn ich mir zB Rainbow6 anschaue, was für teilweise extrem matschige Texturen 6GB Grafikspeicher haben möchte (lt. ingame-Menü), kommt mir das Grausen. Komisch, dass der dritte Hexer zB überragend ausschaut und da nicht annähernd die Diskussion über Texturengröße kam.
Und jetzt so plötzlich ein Sprung von 4 auf 8 GB Grafikspeicher ? Ja, nee, is klar.
 
Chillaholic schrieb:
AMD FX-8370 + R9 Fury X / 980TI ?
Sehr realistisches Szenario, diese Kombinationen gibt es bestimmt 20x auf der ganzen Welt. :D
Ein FX-Prozessor mit ner Fury X gepaart ist eine denkbar schlechte Konstellation, der reißt einfach den Overhead nicht.

wie gesagt, wenn es der Programmierer bei einer DX12 Engine drauf anlegt wird mein i7-5820 schnell zum FX 8350. Im Besten falls skaliert dann zb DX11 -> 12 so massiv wie in den Draw Call API Tests / AoS. Wenn man will könnte man schon eine Engine bauen die mit einem normalen i5 und Fury X in DX11 zb garnicht laufen würde, 10 FPS bei rumkommen. Mit DX12 dann aber 30 FPS + drin sind. Je nach Beanspruchung der DX API halt.
Ergänzung ()

Chillaholic schrieb:
Gleiches absolut unrealistische Szenario.

Wie hoch ist wohl der Intel i5/i7 Anteil hier bei Spielern? 70%?

es ging mir nicht um Szenario wie viele heute eine 400€ GPU mit einem Pentium kombinieren, sondern darum dass man je nach API Last in DX11 auch locker einen 1000€ Prozessor von heute klein bekommt sodass sich die GPU langweilt.

Wenn man eine Engine zb ausschließlich für DX12 programmiert kann man auch ganz anders an die Sache herangehen. Eine Art, die unter DX11 den i7 wie ein Pentium aussehen lassen würde.

Und da macht es dann kein Unterschied ob AMD oder Nvidia verbaut ist. Die API Entlastung von DX12 funktioniert.
Ergänzung ()

Chillaholic schrieb:
Aber ja, ich verstehe was du sagen willst, trotzdem ist die DX12 Umsetzung von Tomb Raider grottenschlecht.

Um das "grottenschlecht" zu beurteilen wäre es vielleicht interessanter mal einen normalen CPU wie einen etwa 2 Jahre alten i5 im Benchmark zu sehen - und dann keine Analyse nach FPS sondern nach Frametimes und ihren Pecentilen.

Ich hab meistens gern oft 20% weniger FPS wenn sie dafür super gleichmäßig sind.

Mit einem reinen FPS Wert wie in den CB Diagrammen lässt sich das "gut" oder "schlecht" nicht beurteilen. Dass Tomb Raider bei weitem nicht die glänzende Umsetzung ist - absolut. Wäre bei einem nachgepatchten Game in der Early DX12 Phase vllt auch zu viel erwartet.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
es ging mir nicht um Szenario wie viele heute eine 400€ GPU mit einem Pentium kombinieren, sondern darum dass man je nach API Last in DX11 auch locker einen 1000€ Prozessor von heute klein bekommt sodass sich die GPU langweilt.

Wenn man eine Engine zb ausschließlich für DX12 programmiert kann man auch ganz anders an die Sache herangehen. Eine Art, die unter DX11 den i7 wie ein Pentium aussehen lassen würde.

Und da macht es dann kein Unterschied ob AMD oder Nvidia verbaut ist. Die API Entlastung von DX12 funktioniert.

Ja, CPU-Entlastung ist aber nur ein Vorteil von DX12. Leider haben wir hier keinen Min & Avg FPs in den Tests. Aber jedenfalls die Max. FPS sind zusammen mit ner Zeitgemäßen CPU echt traurig für DX12.

moquai schrieb:
Das kommt vielleicht auch auf das Modell an, ich habe die Gaming 4G, dazu G-Sync + i7 4790K.
Ich habe es einfach mal probiert und war zufrieden.

Ist vollkommen egal welches Modell, bei deiner GPU/CPU Kombination ist DX12 für dich in Tomb Raider nur von Nachteil.


http://www.overclock3d.net/reviews/...e_tomb_raider_directx_12_performance_update/5
Hier gibts min und avg Ergebnisse für Tomb Raider für den letzten Patch.
Die Min und Avg FPS unter Nvidia ist meistens schlechter unter DX12.
Bei der Fury scheint es jedenfalls mit dem letzten Patch eine Verbesserung unter DX12 zu geben.
 
Zuletzt bearbeitet:
Chillaholic schrieb:
Ist vollkommen egal welches Modell, bei deiner GPU/CPU Kombination ist DX12 für dich in Tomb Raider nur von Nachteil.
Nein, warum auch. Ich konnte es ohne Probleme spielen, nur das zählt. Und "nur von Nachteil" kann eh keine Rede sein. Siehe Deinen eigenen Link, Savegame "Soviet-Anlage". ;)
 
Chillaholic schrieb:
Aber jedenfalls die Max. FPS sind zusammen mit ner Zeitgemäßen CPU echt traurig für DX12.

wenn man drüber nachdenkt hat die GPU ja heute durch sie Optimierung der API minimal mehr zu leisten indem sie CPU Arbeit übernimmt. Die API Erweiterung von DX11 auf 12 gibts ja nicht geschenkt.

Gut möglich dass bei Max Frames gerade hohe Single Thread Performance mit DX11 voll durchschlägt und bei der erweiterten Parallelisierung von DX12 etwas bei Max Frames drauf geht... weniger bei rumkommt. Müsste man mal mit ner einfachen Test Szene testen.

Edit:

Schade dass man hier nicht mit DX11 vergleicht

http://www.guru3d.com/articles-pages/geforce-gtx-1070-fcat-frametime-anaysis-review,8.html

Auffallend ist eher dass die Fury hier teils unschöne Ruckler hat. Fast in jedem Titel (hab jetzt die DX12 angeschaut...). 4GB vllt?
 
Zuletzt bearbeitet:
Wo sind die ganzen Leute die hier vielen User erklären wollten, dass die 1070 GTX überdimensioniert für 1080p wäre.

Die 1070 GTX ist die perfekte Karte für die Zukunft. Wenn man weiter runtergeht muss man Abstriche machen!
 
moquai schrieb:
Nein, warum auch. Ich konnte es ohne Probleme spielen, nur das zählt. Und "nur von Nachteil" kann eh keine Rede sein. Siehe Deinen eigenen Link, Savegame "Soviet-Anlage". ;)

Stimmt, +0,1 FPS in einem Savegame dafür -3 FPS in dem anderen.

legenddiaz schrieb:
Wo sind die ganzen Leute die hier vielen User erklären wollten, dass die 1070 GTX überdimensioniert für 1080p wäre.

*Gähn*
Diesen schwachsinnigen Kommentar gab es hier bereits in ähnlicher Form.
 
Zuletzt bearbeitet:
Chillaholic schrieb:
+0,1 FPS in einem Savegame dafür -3 FPS in dem anderen.
Jedenfalls war die "Soviet-Anlage" nicht schlechter, es geht also. Und die mir nicht gefehlt haben.
Wie gesagt, ich hatte kein Problem damit. Warum sollte ich mich deshalb aufregen. :p
 
joa, mit nem CPU wie zb einem i5 der 2XXX oder 3XXX Serie kann das auch wieder ganz anders aussehen... ähnlich wie bei dem FX schnell mal 30% ausmachen. Und dann ist eher auf die -2 FPS in der anderen Szene geschissen ;)

Und ja, TB ist wie gesagt sicher keine glänzende DX12 Implementierung.

Wie gesagt, CB nimmt ja auch die Average Frames. Es gibt wohl auch Anwender die mit DX12 und einem i7 ganz massiv höhere Min Frames haben:

I've seen a lot of folks saying their performance dropped using DX12 mode in Rise of the Tomb Raider, so I figured I would run the test. It appears, at least in Nixxes implemention of DX12, that for better performance you'll need a 6-core Intel CPU.

System Specs:

CPU: i7-5820k@4.5ghz

GPU: R9 290x @ 1100mhz(core)/1400mhz(RAM)

RAM: 16GB DDR4 2133 in Quad-Channel

EDIT - Resolution: 2560x1080

Mountain Peak (DX11): Minimum: 36.89, Maximum 108.22, Average: 68.66

Mountain Peak (DX12): Minimum: 48.73, Maximum 78.73, Average: 66.48

Syria (DX11) Minimum 12.68, Maximum 87.69, Average 63.47

Syria (DX12): Minimum 30.49, Maximum 98.22, Average 61.48

Geothermal Valley (DX11): Minimum 13.40, Maximum 76.7, Average 63.06

Geothermal Valley (DX12): Minimum 23.51, Maximum 164.59, Average: 60.76

Huch, Average immer -2 FPS aber teils doppelte Min Frames...

https://www.reddit.com/r/Amd/comments/4aarvi/dx12_vs_dx11_rise_of_the_tomb_raider_higher/

-> CB testet hier lückenhaft
-> CB geht zu wenig auf die eigentliche Thematik ein und zieht falsche Schlüsse in ihrem Rise of Tomb Raider Test.

Es ist leider ein bisschen wie im Versuch die GCN Architekturen zu vergleichen, nicht ganz bis ans Ende gedacht und zu unvollständig. :-/ Anandtech nimmt sich da gefühlt bei manchen Tests dann 5x so viel Zeit wie der Durchschnittsreviewer tun würde und liefert dafür dann aber auch neue Erkenntnisse über den Tellerrand hinaus.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Es gibt wohl auch Anwender die mit DX12 und einem i7 ganz massiv höhere Min Frames haben...

So ist es. Und weißt Du, welchen Fehler viele User begehen? Die lesen zu viele Zahlen und "Fakten", sollten aber lieber mehr probieren.
 
sieht iwi aus wie Gülle das Mankind :

http://imgur.com/CooAhJF

Konsole ^^

Edit:
https://www.youtube.com/watch?time_continue=201&v=UsQy8Jlavc4

mir gefällt der ganze Stiel der Grafik nicht so. Sieht nicht realistisch aus, im Gegenteil. Klar, kann gewollt sein...
Das kann Battlefront aber 5x besser wie ich finde. Neue Texturen und Farbgebung und Desu Ex sieht sicher super aus.

Auch das Movement sieht aus als ob er mim Segway oder Hoverboard durch die Gegend fährt lol
 
Zuletzt bearbeitet:
Finde ich auch bisschen eigenartig ... nuckelt wie kaum ein anderes Spiel an den Grafikkarten und dann kommt so eine Grafik raus :eek: vor allem haben sie es mit Tessellation bissl übertrieben, speziell bei den Pflastersteinen ... die sind ja so hoch und komisch, da muss man schon aufpassen, dass man nicht in eine Lücke tritt und sich direkt zu Beginn des Spiels beide Beine bricht ^^
-> zB hier: https://i.imgur.com/CP1M6Hk.jpg

Mal ehrlich, da sieht doch das alte, angestaubte Skyrim mit Grafikmod deutlich besser aus und läuft bei weitem flüssiger.
Oder aber wenns was aktuelles sein soll, dann zB The Division:
https://www.youtube.com/watch?v=3Q6f3UFo1Fo&feature=youtu.be&t=119
Bei Mankind frag ich mich, was genau da jetzt so extrem viel Leistung frisst.

Allerdings schlecht sieht es nun auch nicht unbedingt aus, trotzdem ist es eigenartig, dass für so eine Grafik sämtliche Karten massivst ins Schwitzen kommen...
 
Zuletzt bearbeitet:
Hier sind die settings für eine 390 nitro auf 1920x1200 für ~55-60 fps.
Wären da nicht die dämlichen lags gestottere, die ab und an mal sind wäre das super.
deusex_settings_prague_60fps.jpg
 
Zurück
Oben