Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsTotal War Attila: 12 Grafikkarten im Benchmark
Total War: Attila will als Rome-2-Nachfolger sich spielerisch und technisch verbessern. Der Hersteller verspricht eine bessere Grafik, die aber auf Kosten der notwendigen Hardware geht. ComputerBase hat Benchmarks zu 12 Grafikkarten, verschiedene CPU-Skalierungen, Frametimes und einen Kantenglättungsvergleich angefertigt.
Mich würde mal ein Test mit einer Titan (Black) interessieren, wie die sich verhält, da die 780Ti doch deutlich besser abschneidet als die 970 und dabei mehr als genug Speicher hat, auch die 3,7GB zu stemmen, die die 290 nutzt.
Irgendwie zeigt das auch wieder deutlich, dass die 970 eigentlich eher 960 heißen müßte, denn in die Mittelklasse gehört sie hin.
Also da stimmt was nicht 4xMSAA kann niemals sowenig kosten bei NV da gibts bestimmt optimierungen ( was aber nicht heisst das es schlechter aussehen muss )
Mh, wäre da nicht auch ein Graka-Test mit MSAA interessant gewesen? Wenn das flimmern so stark ist, ist vielleicht Quality + MSAA die Einstellung der Wahl.
Und lässt sich auch kein SSAA über den Treiber erzwingen? Wäre ne super Möglichkeit das flimmern in den Griff zu bekommen.
Insgesamt schon knackige Anforderungen. Aber finde ich im Grunde nicht schlecht, wenn es dann auch gut aussieht und auch gut nach unten skaliert. Dann ist das Spiel auch nach Jahren noch gut spielbar. Medieval 2 wird ja immer noch viel gespielt weil die Mods so extrem gut sind.
Ist das Delta zwischen den einzelnen Frames wichtiger als die absolute Frame-Time an sich? Also wenn die 970 ziemlich konstant trotz höherer Schwankung unter dem Verlauf der 290x liegt, "gewinnt" die AMD? Der Wichtige Teil dort ist für mich die subjektive Einschätzung zur "Spielbarkeit", die ist ja scheinbar auf allen ziemlich gleich gegeben.
Warum bei GPU-Empfehlung "1920x1080 extrem-Preset" überhaupt GPUs genannt werden ab denen das Spiel gut spielbar sein soll will mir nicht in den Kopf, behauptet Ihr doch es würde bei 290x, 980 und 970 ruckeln...
Edit:
SavageSkull schrieb:
Irgendwie zeigt das auch wieder deutlich, dass die 970 eigentlich eher 960 heißen müßte, denn in die Mittelklasse gehört sie hin.
An welcher Stelle im Test liest du das denn heraus?
FullHD normal: In der Praxis sind die Unterschiede zwischen den drei Grafikkarten nicht zu spüren.
FullHD Extrem: Das Spiel ruckelt jedoch auf allen drei Grafikkarten, sodass die unterschiedlichen Frametimes nicht ins Gewicht fallen.
>FullHD extrem: Spürbar ist auch dies jedoch nicht, da der Titel bei allen drei 3D-Beschleunigern aufgrund der zu geringen Grundleistung ruckelt.
Könntet ihr iin den beiden oberen orangenen Diagrammen nicht eine Vereinheitlichung vornehmen? So kommen mir beide Karten in etwa gleich schnell vor, da beide bei ihren jeweiligen 100% beginnen. Sozusagen eine x-Achse für beide Karten.
Was noch interessant gewesen wäre: Wie sieht das Flimmern aus, wenn man DSR nutzt? Klar leiden die fps dann extrem, aber eventuell behebt das das Problem ja? Oder ist das Flimmern bei 12fps generell nicht mehr zu erkennen?
Wo sind die 2560x1600 Benchmarks? Frametimes gebt ihr an aber keine Benchmarks?
Obwohl ihr die Frametimes gemessen habt? Wenn ich Frametimes messe, messe ich genausogut die FPS/S.
Ihr gebt bei dem Spiel an, die GTX 980 würde beim Full Preset spielbar sein, die 290x nicht, obwohl jene bessere Frametimes hat, wie ihr sagt. Wie passt das zusammen?
Mich würde mal ein Test mit einer Titan (Black) interessieren, wie die sich verhält, da die 780Ti doch deutlich besser abschneidet als die 970 und dabei mehr als genug Speicher hat, auch die 3,7GB zu stemmen, die die 290 nutzt.
Du kannst den Speicherverbrauch verschiedener GPUs nicht miteinander vergleichen, weil der im Grafikram abgelegte Shadercode chipspezifisch ist und die Speicherverwaltung im Treiber auch noch vom vorhandenen Grafikram abhängt.
Wie man hier sieht reichen der GTX 980 "nur" etwa 3,4GB, wo die R9 290 über 3,7GB braucht.
Leider hat in dem VRAM-Skandal um die GTX970 niemand getestet, ob die echten 4GB einer R9 290 effektiv auch wirklich mehr bringen (sprich: zukunftssicherer sind) als die 3,5GB auf einer GTX 970.
Diesbezügliche Anfragen meinerseits an die CB-Tester blieben unbeantwortet.
/edit:
Beeindruckend an dem Video finde ich (bei aller Grafikpracht des Spiels), wie die Soldaten bei 1:40 min einfach durch die Grashalme hindurch gehen.
/edit2:
zeromaster schrieb:
Ist das Delta zwischen den einzelnen Frames wichtiger als die absolute Frame-Time an sich?
@kisser: Wie willst den den "VRAM-Skandal" denn testen, wenn die Grafikkarte und der Treiber der GTX 970 verhindern, dass die VRAM-Auslastung >3,5GB gehen? Meines wissens nach gibt es noch keine Einstellung "sinnlose fps verschenken" im NVidia-Treiber.
Es ist doch auch völliger Unsinn das zu testen.
Die Anzahl der V-ram Messungen ist groß und da unterscheiden sich Nvidia und AMD beim V-ram Verbrauch im Mittel nicht.
kisser schrieb:
Leider hat in dem VRAM-Skandal um die GTX970 niemand getestet, ob die echten 4GB einer R9 290 effektiv auch wirklich mehr bringen (sprich: zukunftssicherer sind) als die 3,5GB auf einer GTX 970.
Weil die AMD Karten eine hohe Rechenleistung haben? Ich wette in 2560x1600 liegt die r9 290x gleichauf mit einer GTX 980.
Also ich hätte ganz gern endlich die Benchmarks.
Bisher habt ihr auch immer mindestens die nächsthöhere Auflösung getestet.
Ganz interessant ist auch das Abschneiden einer r9 285.
Man rechne hier noch weiteren V-ram drauf, weiteren Takt und weitere Shader und die Karte liegt auf dem Niveau einer GTX 970/r9 290x.
Viele Dank für den Test! Sehr interessant. fand bzgl. der Leistung die Total War Reihe sowieso schon immer interessant, da die Titel in ihrer jeweiligen Zeit eigentlich immer alles zum Start ins schwitzen bringen konnten.
@ Wolfgang
Vllt. auch eine Überlegung wert, dieses Spiel in den nächsten CPU/Grafikkartentestparcour einzubauen. Wird doch gerade eh ein neuer gemacht, wenn ich das richtig mitbekomen habe^^
Interessant finde ich, das ihr die CPU (i7-4770K) auch mit 4x 2,5GHz getestet habt und man es mit einem im Throttling steckenden i7-4710HQ (was durchaus passieren kann und zurzeit oft in Notebooks verbaut wird...) vergleichen kann und es verglichen mit 4x 4,4GHz nicht die "Welt" (~25% 8MB vs 6MB L3 Cache) an fps kostet und verglichen mit 4x 3,5GHz, ist der unterschied noch kleiner (~15%) und spielt mMn kaum noch eine Rolle, zumindest nicht bei diesem Spiel.