• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Mittelerde im Benchmark: Schatten des Krieges braucht bis zu 8 GB Grafik-Speicher

spielerisch wahrscheinlich wieder dümmlich und für die Tonne. Warum geht es überall nur drum, in 3D Ansicht rumzulaufen und einem mit der Waffe eins auf die Mütze hauen....zzz

Du kannst auch taktisch vorgehen und dich anschleichen, das ist jetzt nicht nur dummes gekloppe. Aber ja Langzeitmotivation ist etwas ... kümmerlich.
 
Wird denn der CPU Test nachgeliefert?
 
Das Game sieht aus als müsste es auch auf einer 2GByte GFX Karte noch gut laufen.
Sehr schlecht programmiert/optimiert.
 
Insgesamt etwas hohe ansprueche fuer das gebotene, volta laesst gruessen
 
1.920 × 1.080 Ultra-Preset, Texturqualität „Hoch“, 100% Auflösung, TAA
Wäre irgendwie mal interessant, mal eine Einstellung zu sehen, in der Mittelklasse Karten
in Full HD auf 60fps kommen. 1440p dann die höhren Modelle und High End dann mit 4k.
Klar kann man das nicht für jede Karte extra machen, es wäre aber für Leute, die nicht
ewig im Setup hängen wollen, ein toller Mehrwert. Oder nur ein grober Richtwert für welche
Kartenklasse welche Option welchen Einbruch zur Folge hat, halt über die Presets hinaus.

Ein interner Benchmark muss eigentlich auch mal endlich Standard bei allen 3D Spielen
werden, unverständlich warum das nicht Gang und Gäbe ist. Der Benchmark sollte dann
ausloten, welche Einstellungen für das getestete System optimale Balance zwischen
Leistung und Optik ist, am Besten mit einem Schieberegler wie im Geforce Experience.

Außerdem wäre es super, wenn der RivaTuner/Afterburner das nativ Spiel supporten würden,
damit man die tatsächliche VRAM/GPU/CPU/RAM Auslastung sehen könnte. Einen Workaround
gibts wohl schon: http://steamcommunity.com/app/356190/discussions/0/1489987634019663518/
 
borizb schrieb:
Wäre irgendwie mal interessant, mal eine Einstellung zu sehen, in der Mittelklasse Karten
in Full HD auf 60fps kommen. 1440p dann die höhren Modelle und High End dann mit 4k.

Da kommt es auch drauf an was du als Mittelklasse definierst. Fragst du hier im Forum bekommst du mittlerweile meistens GTX1070/1080 als Antwort.
Und die 1070 schafft es auf 60fps
 
Wenn das Spiel wirklich ohne Probleme läuft, dann ist das schon besser als viele andere Buggy-Games.
Der 8GB Grafikspeicher trübt das Bil etwas, aber für was bezahlen die 1080er Käufer für 8GB?
Damit sie auch ihre Daseinsberechtiung haben.
 
Diese Daseinsberechtigung sollte sich aber in besserer Grafik bemerkbar machen. Wo sieht das Spiel denn merklich besser aus als ein Witcher 3, was man mit 4GB Problemlos spielen kann?
8GB voll auszulasten, nicht weil es besser aussieht, sondern weil ein immer größerer Teil der Kundschaft eben 8GB besitzt und man sich so eine Menge Optimierungen spart, ist nicht der richtige Weg.
 
Base_Dussel schrieb:
spielerisch wahrscheinlich wieder dümmlich und für die Tonne. Warum geht es überall nur drum, in 3D Ansicht rumzulaufen und einem mit der Waffe eins auf die Mütze hauen....zzz
Manche Leute wollen eben ihr Stündchen am Tag zum Zocken nicht vor einer dämlichen Rätseltür verbringen. Nicht jedes Spiel muss raffiniert sein. Doom z.B ist jetzt auch nicht von Tiefgang geprägt.
Es kommt immer auf den Anspruch an, ob ein Spiel "gut" ist oder nicht.

Das Spiel hier tut genau das, was es tun wollte.
 
3, 2, 1.... Treiberfix seitens Nvidia und die 1080 steht zusammen mit der Ti über Vega64. Möchte man doch glatt drauf wetten!
 
Sehr schön zu lesender Testartikel, besten Dank dafür an Wolfgang/CB :)!

Der High Bandwith Cache Controller (HBCC) von Radeon RX Vega war in allen Teste deaktiviert.

Nun, mich würde interessieren, ob mit HBCC da evt. noch mehr Leistung (etwa mit Ultra-Einstellungen und maximalen Texturdetails in UHD/4K) heraus springt, auch wenn das Spiel "nur" bis zu 8 GB Kartenspeicher verlangt, was wohl jetzt endgültig als Standard etabliert sein dürfte, wenn man höchste Ansprüche stellt, denn wie im Test gezeigt, kann man mit 6 GB Speicherausstattung dann schon nichts mehr reißen (auch wenn das der GTX 1060 und GTX 980Ti Fraktion evt. nicht so gut gefallen wird).

Wie der Vorgänger belegt das Spiel in dieser Einstellung sofort den gesamten Grafikspeicher. Trotzdem gab es mit acht Gigabyte keine Probleme – „überfüllt“ war er also nicht. Spieler mit Grafikkarten mit sechs oder weniger Gigabyte Speicher verlieren hingegen bereits in Full HD an Performance und ab 2.560 × 1.440 stockt das Spiel spürbar.

Tja, dann bleibt zu hoffen, das die RX Vega Karten 11-12 GB Speicherhunger per HBCC locker packen werden in nicht all zu ferner Zukunft. Hoffentlich wird es Vega11 Grafikkartenmodelle mit nur 4 oder 6 GB plus HBCC geben, so dass dann endlich - etwa mit Schatten des Krieges in Höchsteinstellungen, sofern die Chipleistung die Anforderungen einigermaßen packt - auf Herz und Nieren die Technik 'mal ausgetestet werden kann an einem oder besser mehreren neueren Spielen.

Des Weiteren bleibt zu hoffen, dass nVidia bei den ersten Volta (GV104) Karten mindestens 12 GB GDDR5X/6 spendieren wird im kommenden Jahr. Jetzt noch eine neue und teure 8 GB Karte ohne HBCC kaufen (wie eine GTX 1070, bald eine GTX 1070Ti, eine GTX 1080, oder eine RX 480/580) würde mir wohl nicht mehr einfallen.

Absehbar werden die neuen Mondpreise bei den nVidia Volta Karten bleiben, aber vielleicht purzelt dann ja eine GTX 1080Ti kräftig im Preis, zu hoffen wäre das, auch wenn deren (bewusst verknappte) 11 GB nicht das Gelbe vom Ei sind.

12 GB (ob nun realisierbar mit 8GB HBM2 + HBCC oder direkt verbaut) sollten es nächstes Jahr für mich idealerweise schon sein (für WQHD Downsampling, denn 4K/UHD Downsampling wird die GPU bei aktuellen/anspruchsvollen Titeln dann sowieso noch nicht in flüssigen fps bei maximalen Details packen).

Schön zu sehen, dass sich die Vega Architektur hier richtig deutlich bemerkbar macht im Vergleich zu Polaris, Fiji, etc., was zeigt, dass es relativ aktuell/zeitgemäß programmiert worden ist und eben kein lauer Aufguss und ja, es zeigt sich wieder, dass Pascal ein getunter Maxwell Shrink ist/bleibt.

Zudem zeigt sich, dass jeder Architektursprung bei AMD einen Performanceschub in Schatten des Krieges bedeutet. Bei Nvidia ist das anders: Maxwell hat gegenüber Pascal keinerlei Nachteile. Abgesehen von den großen Taktunterschieden und Effizienzsteigerungen sind die Generationen aber auch recht ähnlich.

Wenn ich mir die Spielbarkeitsliste anschaue, dann kommt man als möglicher AMD-Interessent/-Käufer wohl jetzt nicht mehr um die dort mit Abstand am meisten gelistete RX Vega 56 herum, aber von Custom-Modellen zu gemäßigten Marktpreisen leider weit und breit bisher keine Spur.

Schade, denn die Leistung der RX Vega Karten in einem nVidia (GTX 1080(Ti))Bundle-Titel ist schon sehr ordentlich/unerwartet gut ausgefallen.

Bei den Benchmarks ist auffällig, dass AMDs neue Vega-Generation in Mittelerde besser abschneidet als gewöhnlich und das direkte Konkurrenzmodell jeweils geschlagen wird.

Ist dann die Frage, ob man die mittlerweile etwas schwächelnde GTX 1070 mittelfristig noch als direktes Konkurrenzmodell einer RX Vega 56 sehen wird können.

Mit Erscheinen der GTX 1070Ti soll dem ja entgegen gewirkt werden, aber evt. läuft es dann doch auf die GTX 1080 irgendwann hinaus mit der sich eine 56er ja gelegentlich jetzt schon messen kann.

Ob die RX Vega 64 allerdings jemals an die Leistung einer GTX 1080Ti herankommen wird, dürfte auch davon abhängen wie sehr die neuere Vega Architektur (aus-)genutzt wird von den Entwicklern bzw. ob neuere Architektur-Features eingebracht werden und mehr auf Low Level APIs gesetzt werden wird.

Momentan läuft es bei der 64er eher auf GTX 1080OC Niveau hinaus, was ja auch nicht schlecht ist, wenn da nicht hoher Verbrauch und Marktpreis wären.
 
Zuletzt bearbeitet:
Fragger911 schrieb:
3, 2, 1.... Treiberfix seitens Nvidia und die 1080 steht zusammen mit der Ti über Vega64. Möchte man doch glatt drauf wetten!

Nur dass der optimierte Treiber schon gestern von Nvidia veröffentlicht wurde.

Der High Bandwith Cache Controller (HBCC) von Radeon RX Vega war in allen Teste deaktiviert.

Und laut dem Test von PCGH bringt die Aktivierung in 1080p ganze 9% avg und 12% min fps, in 1440p bei beidem 4%, in 4K immerhin noch 4% bei den avg fps.

9% in 1080p, 4% in 4K, damit läge sie hier bei CB in beiden Auflösungen nur noch 6% hinter einer 1080Ti, in 1080p schlägt man sogar die min fps.
Und die Vega 56 hätte auch in 1080p knapp die 1080 überholt.

Warum man HBCC nicht aktiviert hat frage ich mich, vor Allem weil es ja eine sehr interessante Technik ist, die bisher sehr unterschiedliche Ergebnisse bringt, von Steigerungen bis zu Verschlechterungen.
Und aktiviert ist sie auch mit einem einzigen Klick.
 
Zuletzt bearbeitet:
Sind wir mal ehrlich, Witcher 3 hat eig ziemliche hässliche Matschtexturen.
Ja Gerald und paar andere Chars sind super, wenn man sich dann aber mal paar Steine, Häuserwände etc anguckt ist das nur Matsche :D
 
Shakyor schrieb:
Sind wir mal ehrlich, Witcher 3 hat eig ziemliche hässliche Matschtexturen.
Ja Gerald und paar andere Chars sind super, wenn man sich dann aber mal paar Steine, Häuserwände etc anguckt ist das nur Matsche :D

Dafür dass witcher jetzt doch schon über 2 Jahre alt ist, schaut es aber größtenteils trotzdem noch besser aus aus :p
 
Wann kommen endlich mal mehr Partnermodelle der Vega 56? Ich hab richtig Lust meine GTX 1070 dagegen einzutauschen :D Aber nicht gegen einen Heißluft-Fön....
 
Könnt ihr euch mal angewöhnen zu erwähnen mit welchen Taktraten eure Karten laufen? Testet ihr mit den referenzkarten?
 
Wenn ein Game bei gerade mal mittelprächtiger Grafik einen solchen Hardwarehunger an den Tag legt verstehe ich nicht wie CB die PC Version als gelungen betiteln kann.
 
aklaa schrieb:
schlechter Witz
. batman war 1. Unreal 3 Engine und 2. einfach ein Comic shader.
Die grafik von dem game hier ist definitiv gut, die chargrafiken waren auch schon im Vorgänger nicht die besten, dafür ist die Umgebung (felsen) auf jeden fall sehr gut. Hier und da gefallen mir einige Texturen aber nicht so.
- hab allerdings das Texturen packet noch nicht - (bin davon ausgegangen dass es diesmal bereits enthalten ist)
sweet fx lohnt hier definitiv (wie immer eigentlich)

"gta5 ist besser" ist Quark. schaut euch die orcs an und schaut danach mal die gta char's an - da ist gta auf jeden fall schlechter.
der mainchar ist komischerweise wiedereinmal etwas low res
 
Zuletzt bearbeitet:
Shakyor schrieb:
Sind wir mal ehrlich, Witcher 3 hat eig ziemliche hässliche Matschtexturen.
Ja Gerald und paar andere Chars sind super, wenn man sich dann aber mal paar Steine, Häuserwände etc anguckt ist das nur Matsche :D

gesamteindruck macht es aus und der ist bombe. ich starte ab und zu mal blood and wine und selbst heute noch klappt mir stellenweise die kinnlade runter so geil sieht witcher 3 aus:love:- und das bei moderaten hardwarehunger. witcher 3 ist einfach gut programmiert.
 
Was ich nicht verstehe: Man braucht 8 GB Vram aber die 1060 mit 6gb liegt deutlich vor der rx580 8gb, selbst bei den frametimes unter 2k
 
Zurück
Oben