• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test The Witcher 3: Grafikkarten, Prozessoren und Kantenglättung im Test

Faust2011 schrieb:
Ja, natürlich ist es überraschend. Bisher musste AMD immer erst per Treiber nachlegen, um für klare Verhältnisse zu sorgen.
Klare Verhältnisse? Finde ich nicht, denn die Grakas performen +/- auf einem Level/Niveau ...unabhängig, welche Treiber da noch kommen bzw. kommen werden ... ;-)


edit:
Man kann Hawaii aber genauso übertakten, sofern man ein brauchbares Custom Modell erworben hat.
Klar kann man das. "Mehr Spielraum" haben aber idR Maxwell-Pendants. Ich möchte aber nicht pauschalisieren & stimme daher zu ... ;-)
 
Zuletzt bearbeitet:
SuddenDeathStgt schrieb:
Abwarten, was da kommende Treiber ggf. noch ändern können.

Irgendwie hält sich meine Hoffnung in Grenzen, dass Nvidia neue Treiber noch dauraufhin optimiert, dass die alten Kepler-GPUs gegenüber Maxwell aufholen. ;)

Aber ganz ehrlich. Ich erwarte auch gar nicht, dass eine 1,5 Jahre alte Grafikkarte (auch wenn sie seinerzeit High-End war) heute noch die neusten Spiele mit maximalen Einstellungen bewältigen kann.
Wenn man nicht mindestens jedes Jahr eine neue High-End-Karte kaufen will, muss man halt bestimmte Kompromisse machen. Aber wie man im Test sieht, hat man mit hohen Details ja auch noch eine sehr gute Qualität und dann kann auch eine "alte" 780Ti noch mithalten.
 
@ComputerBase

Im offiziellen Nvidia Forum gibt es zahlreiche Berichte, dass der neue GeForce 352.86 Treiber schlecht bzw. überhaupt nicht für die Kepler-Architektur optimiert sei (bezüglich The Witcher 3). Einige berichten sogar davon, dass der frühere GeForce 347.xx Treiber in The Witcher 3 eine bessere Performance liefere, obwohl dieser noch gar keine The Witcher 3 spezifischen Optimierungen enthält.

Hier der Link: https://forums.geforce.com/default/...l-as-performance-in-the-witcher-3-wild-hunt-/
Der Post hat binnen 2 Tagen bereits über 20.000 Views, und es gibt bereits Stellungnahme eines Moderators, dass das Problem untersucht werde. (Post #76 u.a.)

Mich würde es jetzt brennend interessieren, ob an den Berichten etwas dran ist, ob man mit früheren Treibern tatsächlich eine bessere Performance erreicht, und ob man vielleicht eine Stellungnahme von Nvidia anfragen könnte.
 
Krass wie hart die FPS droppen mit dem Hairworks. ^^

Ich sehe ehrlich gesagt kaum einen Unterschied indem Vergleichsvideo, mir gefällt es sogar ohne Hairworks besser... hoffe da tut sich in Zukunft noch was auch in Sachen Performance.
 
Schöner Test :)

Die für mich und meine HD7970 Ghz Edition optimalen Bedingungen sind Ultra-Details ohne Hairworks und Foliage Visibility Range auf High. Damit läuft The Witcher 3 nach 12h Spielzeit immer sicher über der 40fps Grenze (vllt. kleine Einbrüche, mir ist aber nichts aufgefallen). HBAO+ hab ich noch nicht getestet.

Die Karte ist auf 1,2GHz GPU und 1,6GHz VRAM übertaktet. Wenn die R9 390er raus kommen und Nvidia seine GTX 980 TI raus bringt, werde ich mir allerdings noch mal durch den Kopf gehen lassen, ob ich nicht doch mit HairWorks spielen möchte. Ich hoffe immer noch, dass vielleicht ein Modder sich an eine TressFX Implementierung wagt, da würde ich doch glatt ein paar Orens springen lassen :)
 
Lunke schrieb:
Mich würde es jetzt brennend interessieren, ob an den Berichten etwas dran ist, ob man mit früheren Treibern tatsächlich eine bessere Performance erreicht, und ob man vielleicht eine Stellungnahme von Nvidia anfragen könnte.

Wie gesagt, ich nutze den "alten" Treiber (350.12) und sehe meine GTX-780 performancetechnisch ziemlich genau dort, wo sie auch bei den CB-Benchmarks zu liegen kommt. Hairworks ist für mich unspielbar, auch auf dem alten Treiber. Ich werde aber bei Gelegenheit den Tweak nutzen um das "Hairworks-MSAA" runterzudrehen (standardmässig bei 8x eingestellt) und hoffe, dass ich damit den Performanceeinbruch etwas abschwächen kann.
 
Depp_vom_Dienst schrieb:
Was mich auch erstaunt ist, dass die Kepler Karten dermaßen abfallen, von der Leistung war die GTX 780Ti der GTX 970 bei Release noch überlegen.

Meiner Meinung nach muss Kepler ähnlich wie Maxwell performen. Alles andere sieht nach künstlicher Beschränkung aus!

D0m1n4t0r schrieb:
Ganz schön haarige Situation. Aber schön dass dieser Test haargenau Haarnalysiert hat wie sich die Haare auf das Spiel auswirken.

Cool :D Dabei liegen Haare gar nicht im Trend derzeit ;)

Herdware schrieb:
Aber ganz ehrlich. Ich erwarte auch gar nicht, dass eine 1,5 Jahre alte Grafikkarte (auch wenn sie seinerzeit High-End war) heute noch die neusten Spiele mit maximalen Einstellungen bewältigen kann.

Warum nicht? Nur wg. dem Alter die Ansprüche zurückschrauben? Klar, wie sind hier im TI-Sektor, aber die Entwicklung verläuft derzeit doch recht verlangsamt.
 
Tja, und der fürs Spiel optimierte AMD Treiber kommt erst noch im Laufe der Woche ;)

Wie die 918MHz R9 285 abgeht ist schon erstaunlich, der Vollausbau mit 2048 SPs @1GHz dürfte locker 20% schneller sein, und damit fast so schnell wie die 780Ti ^^
Es ist erfreulich, dass sich die Gameworks Effekte in einem der am meisten erwarteten Titel der letzten Jahre deaktivieren lassen bzw. dass das Spiel eine ordentliche Optimierung erfahren hat, ohne dass ein Grafikhersteller offensichtlich bevorzugt worden wäre. Aber warum kackt denn Kepler so massiv ab? 270X so schnell wie GTX680? Ganz schön mies für die vielen Besitzer von 600/700er Karten.
Und was ist mit der 750ti los? Ist doch auch eine Maxwell GPU.

@Redaktion ich finde es sehr gut, dass ihr auch andere Qualitätseinstellungen gebencht habt. Zwischen Mittel und Max sehe ich auf dem Bild ehrlich gesagt keine gewaltigen Unterschiede, dafür verdoppeln sich die FPS :D

Statt HD7970 und R9 280X, oder GTX770 und GTX680 zu benchen (hallo, identische GPUs?) hättet ihr besser bei den Qualitätsbenchmarks eine zusätzliche AMD bzw Nvidia GPU genommen, zB 280X und 770, die ja stark verbreitet sind.

Dass ein Open World Spiel auf einem 3,5GHz Dual Core ohne HTT genauso gut läuft wie auf einem 4,4GHz Quadcore mit HTT ist natürlich die größte Überraschung :eek:

Achso und noch was: was heißt denn bitte OC? Wurden die "OC" Karten gleich übertaktet? Wäre es nicht sinnvoller einfach mal den Takt anzugeben, wie bei PCGH? Denn bei einer 1030MHz 290X muss man nicht unbedingt von OC reden ^^
 
Zuletzt bearbeitet:
Relaxo32 schrieb:
Man kann bei AMD ja über das CCC die Tesselation begrenzen für die jeweilige Software, dadurch kann man auch Hairworks mit AMD laufen lassen mit relativ guten FPS.

Quelle:
http://www.pcgameshardware.de/The-W...rks-fluessig-AMD-Radeon-Grafikkarten-1159466/

https://www.reddit.com/r/witcher/comments/36jpe9/how_to_run_hairworks_on_amd_cards_without/
Und wieder der Beweis, dass einfach kein vernünftiger Fallbackpfad für AMD geboten wird wenn GameworX im Einsatz ist.
Das ist ja echt schon lächerlich, oder?

Aus dem Artikel:
Laut Nvidia hängt das mit der deutlich höheren Tessellation-Leistung der Maxwell-Grafikkarten zusammen. AMD wiederum argumentiert, dass die Catalyst-Treiber nicht ordentlich auf GameWorks-Elemente optimiert werden können. Wo die Wahrheit genau liegt, ist unklar – wahrscheinlich irgendwo in der Mitte.
Damit dürfte dies ja geklärt sein. Glatte Lüge seitens Nvidia, da Tesselation anscheinend einfach nicht angesprochen wird aus dem Spiel heraus.
Artikel schrieb:
Denn obwohl sich GCN sehr gut fürs GPU-Computing eignet, kann Tahiti aufgrund der nur zwei vorhandenen ACE-Einheiten die ALUs nicht so effizient auslasten wie die anderen Rechenkerne. Bonaire hat im Vergleich dazu vier ACE-Einheiten, Tonga und Hawaii gleich acht.
Dies ist nicht ganz richtig. Bonaire hat 2 ACE Einheiten mit GCN 1.1 gegenüber ebenfalls 2 ACE Einheit bei GCN 1.0. Nur bei Bonaire und alle späteren ACEs kann jede Einheit 8 Queues verarbeiten, während GCN 1.0 nur 2 Queues per ACE verarbeitet.
http://www.pcgameshardware.de/AMD-R...Mantle-Vulkan-Radeons-Verbesserungen-1155255/
Dabei sieht man sich im Vorteil gegenüber Nvidia, der Asynchronous Shading erst ab Maxwell 2.0 (GM20x) richtig unterstützt. Die Kollegen von anandtech.com haben dazu eine Tabelle mit den unterstützten Queues erstellt. Fermi (GTX 400/500), Kepler (GTX 600/700) und Maxwell 1.0 (GTX 750 [Ti]) unterstützen in 3D-Anwendungen nur eine Queue, erst Maxwell 2.0 (GTX 900) 32. Die Angaben zu AMDs GCN-Radeons sind leider etwas missverständlich, da nur die ACEs angegeben werden. Allerdings kann jede ACE seit GCN 1.1 acht Queues arbeiten, die R9 290(X) und R9 285 somit also 64. GCN-1.0-Grafikkarten jeweils eine, also insgesamt zwei.
AMD_Asynchronous_Shaders_13-pcgh.png
 
Herdware schrieb:
Aber ganz ehrlich. Ich erwarte auch gar nicht, dass eine 1,5 Jahre alte Grafikkarte (auch wenn sie seinerzeit High-End war) heute noch die neusten Spiele mit maximalen Einstellungen bewältigen kann.

Ich auch nicht. Aber wenn ich Benchmarks sehe, wo eine GTX-960 auf demselben Level liegt wie meine GTX-780, dann ist da was faul. Zumal sich im Geforce-Forum nun auch nVidia Leute zu Wort gemeldet haben und scheinbar das Problem erkannt worden ist. Anyway, für einmal hat es sich ausbezahlt, nicht gleich den GR-Treiber zu installieren und erst mal zu schauen, ob er alte Treiber nicht genauso funzt :cool_alt:
 
mich wundert, dass die 280x bei hairworks die 285 wieder überholt, da dieses ja laut nvidia teslationslastig ist
da müsste doch die 285 stärker als die 280x sein
 
Ein Test mir Frametimes wäre auch schön. Ich habe das Ding in die Ecke geballert weils trotz ausreichender fps teilweise eine Zumutung ist. FullHD läuft ganz okay, aber in 2560*1440ox wirds auf meiner GTX780 je nach Umgebung eine tierisch nervende stotternte Krankheit, die man direkt mit dem Silberschwert auslöschen sollte :freak: PCGHW hat da auch ganz "nette" Diagramme drin.

Edit: https://www.youtube.com/watch?v=NASfzt1C7aY hier im Gamestar Video sieht man das Problem auch massiv, schaut mal wie die KAmeraschwenks zuckeln. Für mich ist das extrem störend und lässt mich nicht ins Spiel eintauchen.
 
Zuletzt bearbeitet:
Selbst in Full HD benötigt es für volle Details eine High-End-Grafikkarte. Die magische 60-FPS-Grenze erreicht einzig die GeForce GTX Titan X, alle anderen Grafikkarten liegen klar darunter.

Hab ich auch schon gemerkt. Einfach schlecht umgesetzt..zumal die Grafik von Witcher 3 diese grottige Performance auf gar keinen Fall rechtfertigt. Habt ihr euch mal die Vegetation angeschaut? Willkommen im Jahre 2009:

http://fs2.directupload.net/images/150520/h2jxwlbt.jpg
http://fs1.directupload.net/images/150520/h4mkmae2.jpg
http://fs2.directupload.net/images/150520/bsi5nbao.jpg
http://fs1.directupload.net/images/150520/6tq627yr.jpg


Und da anscheinend wie berichtet vieles auf der GPU berechnet wird, liegt mein Xeon 1230 flach und die GTX770 ist der ultimative Flaschenhals. Danke CD Projekt.
Spiele auf 1440p.
GTA 5 läuft bei mir da auf high mit >60fps.
Witcher 3 dagegen ruckelt sich auf mid Settings einen mit 25-35fps ab (und sieht wie gesagt nicht gerade überragend aus).
1080p läuft dann schon besser mit 50-60fps. Also skaliert das Spiel einfach mal mega scheiße nehme ich nun an.
 
Zuletzt bearbeitet: (Screenshots hinzugefügt, Directlinks)
AnkH schrieb:
Wie gesagt, ich nutze den "alten" Treiber (350.12) und sehe meine GTX-780 performancetechnisch ziemlich genau dort, wo sie auch bei den CB-Benchmarks zu liegen kommt. Hairworks ist für mich unspielbar, auch auf dem alten Treiber. Ich werde aber bei Gelegenheit den Tweak nutzen um das "Hairworks-MSAA" runterzudrehen (standardmässig bei 8x eingestellt) und hoffe, dass ich damit den Performanceeinbruch etwas abschwächen kann.

Na, hier im ersten Posting der Seite ist sogar die Rede davon, daß man den 347.88 ausprobieren sollte. Also noch älter als 350.12.

https://forums.geforce.com/default/...as-performance-in-the-witcher-3-wild-hunt-/2/
 
digitalangel18 schrieb:
FullHD läuft ganz okay, aber in 2560*1440ox wirds auf meiner GTX780 je nach Umgebung eine tierisch nervende stotternte Krankheit, die man direkt mit dem Silberschwert auslöschen sollte :freak: PCGHW hat da auch ganz "nette" Diagramme drin.

Versuch doch mal den Trick mit dem Hairworks-MSAA. Soll Wunder wirken und optisch kaum feststellbar sein.
 
Kepler kackt vor allem im Wald und bei Sturm ab:

http://pclab.pl/art63116-20.html

Die GTX 970 hat offenbar Probleme bei den Frametimes auch angeblich wegen des Speichers:

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196/

"Obwohl der Speicher der GTX 970 in The Witcher 3 in 1440p nicht bis zur kritischen 3,5 GiByte Marke gefüllt wird, werden offenbar Teile der Vegetation in deren langsam angebundenen Teil der Speicher ausgelagert, was dann wiederum Mikroruckeln auslöst."
 
Seh kaum Unterschied zwischen maximal und hoch..
Daher hab ich auf hoch mit paar settings höher und Schatten auf Mittel und hab 55-60FPS in 1920x1200
 
Daedal schrieb:
Und wieder der Beweis, dass einfach kein vernünftiger Fallbackpfad für AMD geboten wird wenn GameworX im Einsatz ist. Das ist ja echt schon lächerlich, oder?

Ja, ist lächerlich, gerade auch mit ProjectCars in jüngster Vergangenheit :(

Daedal schrieb:
Aus dem Artikel:
Damit dürfte dies ja geklärt sein. Glatte Lüge seitens Nvidia, da Tesselation anscheinend einfach nicht angesprochen wird aus dem Spiel heraus.

Wie meinst Du das? Tessellation wird doch hier anscheinend exzessiv genutzt, oder wie erklärst Du Dir, dass AMD bei einer fixen Einstellung des Tess-Level auf 8x plötzlich gut performt in Szenen mit hohem Hairworks-Anteil?
 
Zurück
Oben