• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test The Witcher 3: Grafikkarten, Prozessoren und Kantenglättung im Test

Meiner Meinung nach kann ein Dragon Age Inquisition, das schon vor einem halben Jahr erschienen ist, locker mithalten und die Vegation sieht eindeutig besser aus
Dragonage kann mMn. nicht mithalten (habs vor kurzem erst beendet) alleine die Lichtstimmung im Hexer ist um einiges besser
 
Zuletzt bearbeitet:
@Vendetta:
Da bin ich mal gespannt wie sich meine EVGA GTX970 mit ACX 2.0+ schlaegt.
Hab die bisher im "normalen" BIOS Modus nur auf maximal 40% Fan Speed bekommen.
 
Es ist auch nicht so als wäre der Windforce Kühler schlecht, er ist verdammt gut und auch relativ leise, kühlt die GPU nach dem game auch fix auf ~35°C mein Gehäuse hat auch nen Front und Back Lüfter um für ein wenig Zirkulation zu sorgen. Ich spiele aktuell mit 1440p, aktiviertem Hairworks(per ini auf 2x MSAA gedrosselt), Grasdistanz und Dichte auf High, Schatten auf High, Rest auf Maximum. Sieht sehr gut aus, läuft OCed mit min 35 max 45 durchschnittlich 41 FPS lt. ner längeren Fraps Messung, mit 30FPS Lock wunderbar spielbar. -Die GPU läuft dabei aber heiß und scheint auch keine Verschnaufpause zu kriegen, sodass der Kühler relativ bald Richtung 100% Kühlleistung geht, das höre ich sogar durch mein dämmendes Gehäuse und nochmal dämmendes Headset durch :evillol:

Ich glaube ich werde mal statt dem Power Target die GPU Temperatur als Limit beim OC Tool von Gigabyte setzen, auch aufs Risiko von etwas schlechterer Performance...
 
@Vendetta ja das ist wohl auch so. In Witcher 3 wird wohl alles auf der GPU berechnet, was von einer GPU berechnet werden kann. Deshalb wohl auch die extrem geringe CPU Last ;)
 
Vendetta schrieb:
Es ist auch nicht so als wäre der Windforce Kühler schlecht, er ist verdammt gut und auch relativ leise...

Ja, das glaube ich dir! Die Windforce hat einen guten Ruf! Ich habe aufgrund guter Erfahrungen mit EVGA deren 970 SSC mit dem verbesserten Kuehler genommen und ich bin 100% zufrieden damit. Von den EVGA Produkten liest man allerdings zumindest in deutschen Foren vergleichsweise wenig.
 
Hab jetzt einfach auf 72°C die GPU beschränkt, Lüfter dreht deutlich leiser, die GPU taktet aber auch "nur" noch bis max. 1470MHz herum, reicht aber auch. Scheinbar verkraftet die GTX970 GPU keine Temperaturen über ~75°C(zumindest nicht bei so gierigen Spielen wie dem Witcher) -die Treiber Shutdowns sind immer bei höheren Temperaturen passiert.

strubo0 schrieb:
Kann jemand ein Feedback geben. Habe heute ein Update bei Witcher bekommen. Ca 300MB gross. Seit diesem Update habe ich auf Ultra mit meinem System durchwegs 60FPS. Ausser Hairworks ist alles auf dem hoechsten. Am Dienstag hatte ich noch zwischen 35 bis 40 FPs. Das Bild sieht irgendwie auch anderst aus. Weniger weich... Evtl. Treiberfehler bei mir??

Dafuer habe ich imme rnoch sehr viele abstuerze... :(

Ich glaube langsam die Abstürze liegen einfach an der überlasteten GPU, hast sicher auch die "Treiber hat aufgehört zu arbeiten, wurde wiederhergestellt blabla" meldung unten rechts oder? Abhilfe schafft moderateres Overclocking und Reduzierung der Settings(speziell sichtweite des Grases und Schatten würd ich nicht auf Ultra sondern hoch stellen)

Mich wundert bei all der GPU Belastung auch nicht, dass CDPR auf Physix über GPU verzichtet hat und das die CPU machen lassen(wobei auch hier einiges die GPU stemmen muss nehme ich bei der extrem niedrigen CPU Usage an).
 
Kann man noch mal einen Benchmark-Test mit dem Patch 1.0.3 machen? Dieser hat aus meinen Augen doch recht viel in Sachen FPS bei Hairworks gebracht.
 
Zuletzt bearbeitet:
Was die Kepler Karten hier abliefern ist wirklich schlecht. Ich hab zwar The Witcher 3 (noch) nicht, aber wenn hier seitens Nvidia nichts passiert, ein Fix und Stellungnahme erfolgt, dann bin ich mittlerweile durch eben die zur Zeit häufigen aufeinaner folgenden Negativ-Fakten seitens Nvidia, doch mehr wie gewillt eine entgültige Umstellung auf AMD zu vollziehen. Dies auch jedem als Empfehlung weiter zu geben und im Familien/Freundes-Kreis zu nichts anderem mehr zu raten.

Natürlich verliert eine alte GPU Generation nach dem Release einer neuen nach und nach an Support und Leistung(steigerung) und verliert somit immer weiter an Attraktivität und Nutzen, aber in diesem Fall hier, auch noch bei einem Nvidia optimierten Spiel ist und war dieser Abfall noch nie so schnell und absolut nicht nachvollziehbar (es sind ja nicht nur unzureischende Frames im gesamten, sondern z.B. auch schlechte Performance bei egal welchen Presets: Low oder High, alles gleich schlecht).
Auf keinen Fall sollte eine grade so abgelöste GPU Generation gleich soweit abseits ihrer normalen sonst üblichen Performance fallen, ganz besonders deren High-End-Sparte nicht (wie gesagt Nvidia optimiert?!).

Mir geht es dabei nicht nur rein speziell um diesen Fall (natürlich sollte hier und jetzt was dagegen passieren), sowas sollte nie und bei niemandem passieren. Auch geht es mir nicht um einen Geldverlust, den hab ich beim Kauf sowieso bewusst mitgenommen. Hier geht einfach was nicht mit rechten Dingen zu (man muss sich nur mal die Kepler, Maxwell + dazu passenden AMD Kandidaten anschauen). Da läuft von Nvidia bewusst oder unbewusst (was erst schlimm wird, wenn nicht reagiert wird) was nicht rund, und dies scheint zu große Bahnen an zu nehmen. Wäre super wenn Computerbase da nach hacken und testen würde!

Hairworks hat mit alle dem auch nichts zu tun, lässt sich ja ausschalten und dann wird das Problem nur noch deutlicher sichtbar. Genauso die Pixelfüllrate oder VRAM Theorie ist längst wiederlegt. Es kann unmöglich sein, daß dieser Unterschied so riesig allein durch den Architekturunterschied aufkommt.....natürlich ist da wohl der Ansatz, aber seitens Optimierung bzw. Treiberanpassung sollte das problemlos kompensiert werden (wie schon mehrmals nun gesagt: Nvidia optimiertes Spiel?!). Es sei denn eine solche Kompensation/Anpassung ist eben nicht erwünscht seitens Nvidia!?
 
Zuletzt bearbeitet:
@Chiller
Nvidia-Deutschland hat sich der PC Games Hardware gegenüber noch zum Thema Kepler und The Witcher 3 geäußert. Die ältere Architektur schneidet in dem Rollenspiel unverhältnismäßig schlecht in unserem Benchmark-Parcours ab. Eine gut übertaktete GTX 780 schafft es beispielsweise nicht über eine leicht übertaktete GTX 960 – Letztere ist eigentlich nur etwas schneller als eine GTX 760. "Nvidia untersucht die gemeldeten Probleme. Wir werden unsere Kunden informieren, sobald wir können", heißt es.
...Quelle PCGH :-)


edit:
zeedy schrieb:
So ein Käse...Klar High End von 2013 mit dem High End von 2015 vergleichen. Oder 438mm² vs. 601mm². Da kannst du noch so lange herumalbern, Fakt ist, Nvidia hat die 780Ti als Antwort auf die 290X veröffentlicht. Und mittlerweile liegt die Radeon regelmäßig mehr oder weniger deutlich vorne und auch die aktuell preislich konkurrierende (und mit 398mm² unwesentlich kleinere) GTX970 wird wie man sieht immer wieder mal geschlagen. Punkt..
Fakt ist, es gibt nicht nur Kepler High-End & das „High-End von AMD“, muss sich dann auch mit den Grakas messen lassen, welche es von der Konkurrenz käuflich zu erwerben gibt ...und zwar die komplette Palette.
Außerdem gehst Du wieder auf meine Kernaussage null/nicht ein, dafür schäme Dich ...Punkt mit Ausrufezeichen!^^
„Man könnte dadurch auch sagen, warum muss bzw. soll sich ein Bulli oder Vishera mit einem Haswell-Prozi messen lassen & bald Skylake? DAS ist unfair!
Bitte Bulli nur mit Sandy vergleichen & Vishera logischerweise mit einem Ivy-Prozi. Geduld & die Karten werden ja bald neu gemischt & dann muss sich NV auch mit den Komponenten messen lassen, die es von Seiten AMD zu kaufen gibt.“
Zusätzlich liegt Hawaii im Bereich Performance, je nach Gameengine, Szene & Setting, nicht regelmäßig vor Kepler High-End ...aber ich lass Dir mal den Glauben.^^

zeedy schrieb:
Danke, deinen "Witz" habe ich schon beim ersten Mal verstanden, und konnte tatsächlich fast ein wenig schmunzeln. Wie ich geantwortet habe nennt man einen guten Konter, vor allem weil das was du geschrieben hast inhaltlich keinen Sinn ergeben hat und tatsächlich ein Eigentor war ;)
Wie soll ich mich nicht angesprochen fühlen wenn du schreibst, "zieh mal deine rote Brille ab, nur gibt es die halt nicht" ... Herrje, du kommst dir anscheinend ganz schön schlagfertig vor, doch glaub mir, du täuschst dich ^^
Einen (guten?) Konter in Form von einem Trollavatar & dem Vermerk, ich soll meine grüne Brille abnehmen? Herrlich ... ;)
Du hast den „Brillenwitz“ nicht verstanden & dies bestätigst Du erneut. Die rote Brille ist ein Schwenk zum Bereich 3D-Gaming & da gibt es von dem Label AMD keine eigene Hardware.
Sei es geeignete Monitore oder wie angesprochen entsprechende Brillen. Das sich Deine imaginäre Brille „nicht abziehen lässt“ ist ja bekannt & glaub mir, soo pfiffig bist Du nicht.^^

zeedy? Wie immer, drollig & trollig ... :D
 
Zuletzt bearbeitet:
Vendetta schrieb:
Kann es eigentlich sein, dass der Witcher die GPU besonders heftig ran nimmt und ich meine damit EXTREM heftig. Meine GTX970 Windforce kühlt die GPU in der Regel locker unter 70°C eher Richtung 65°C auch wenn sie 100% Auslastung aufweist. Im Witcher muss der Lüfter auf unfassbaren 100% laufen, damit die Karte nicht über 75°C kommt.

Ist normal, TW3 lastet die GPU fast vollständig aus. Der Lüfter auf meiner MSI Gaming geht fast auf Furmark-Niveau. Finde ich gut so, zeigt dann, was die Übertaktungen der Leute wirklich taugen :D
 
Also wenn man das sinnlose Blur und Feldtiefe ausschaltet rest auf Max + HairWorks an (mit Tesselation auf 8x) bekomme ich aber locker die gleichen FPS mit meiner R290X 8 GB wie hier die Benchmarks ohne Hairworks erreichen X)
Allerdings sind die Cut-Scenes schon übel wenn man die nicht auf 60 FPS stellt, selten solch "unflüssige" 30 FPS gesehen wie bei TW3
 
Ich habe einfach mal nach "TressFX" gesucht um mir das zum Vergleich nochmal anzusehen, bin dabei auf eine (an CDPR gerichtete) Petition gestoßen, dieses bei Witcher 3 zu unterstützen. Keine Ahnung, ob ich das hier verlinken soll/darf, aber ihr findet es ganz schnell, wenn ihr nach "tressfx" sucht. Sicher wäre es letztlich AMDs Aufgabe, es einzubauen, aber so eine Gelegenheit würden die sich kaumm entgehen lassen^^ wenn es CDPR nur zulässt. Wenn die das dürfen.
 
nVidia hat angeblich kurz vor Release einen optimierten Gameworks Build patziert, der, oh Wunder, AMD Grafikkarten benachteiligt. ;)

Harte Methoden
 
RonnyRR schrieb:
Schön wärs ja. W bedeutet in Blickrichtung des Chars zu laufen, nicht in die Kamerablickrichtung. Das ist ja der springende Punkt.

Habs gestern Abend nochmals getestet und das ist definitiv NICHT so wie Du sagst. Sobald ich "W" drücke, läuft der Hexer IMMER in die aktuell gewählte Kamerablickrichtung.
 
Fire'fly schrieb:
nVidia hat angeblich kurz vor Release einen optimierten Gameworks Build patziert, der, oh Wunder, AMD Grafikkarten benachteiligt. ;)

Naja, im Gegensatz zu Project Cars sehe ich aber keinen Nachteil für AMD bei TW3, das haben CDPR schon sauber programmiert. Die Leistung der Karten entspreicht deren Rohleistung, mit der erzwungenen Tessalation per Treiber kann man auch Hairworks ohne große Verluste bekommen.

TW2 lief damals mit meiner 560Ti in 1920x1080 vergleichweise grottig, heute läufts prima in 3200x1800 und einer R9 290.
 
AnkH schrieb:
Habs gestern Abend nochmals getestet und das ist definitiv NICHT so wie Du sagst. Sobald ich "W" drücke, läuft der Hexer IMMER in die aktuell gewählte Kamerablickrichtung.

Ja, habs auch nochmal getestet und stimmt, er dreht immer in die Kamerarichtung....auch bei der Pad-Steuerung. Ist also nicht ganz so schlimm wie ich befürchtet hatte und M/T sollte eigentlich so vernünftig spielbar sein, auch wenn er bei schnellen Drehungen (180°) nen ziemlichen großen Wendekreis hat.

Sorry.
 
hrafnagaldr schrieb:
Naja, im Gegensatz zu Project Cars sehe ich aber keinen Nachteil für AMD bei TW3, das haben CDPR schon sauber programmiert. Die Leistung der Karten entspreicht deren Rohleistung, mit der erzwungenen Tessalation per Treiber kann man auch Hairworks ohne große Verluste bekommen.

Ja diesen Treiberkniff kennst du als Tech Experte aber nicht jeder PC Spieler, ein bitterer Nachgeschmack zum Nachteil AMDs bleibt schon.

CDPR mußte auch stark auf AMD optimieren, schon allein der großen Konsolenanteil bringt das mit sich.
 
nur mal was zur allgemeinen info.

gronkh hat sich gegen hairworks bei seinem let´s play entschieden. die bildrate wäre ihm insgesamt zu schlecht. er spielt es diesmal imho nicht mit 4k (macht er seit evil within) sondern auf fullhd mit konstanten 60fps.

meines wissens hat gronkh einen 980er grafikkartenverbund und auch so nen highend rechner.

wie gesagt, nur mal zur info.
 
Zuletzt bearbeitet:
Zurück
Oben