• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test The Witcher 3: Grafikkarten, Prozessoren und Kantenglättung im Test

cruse schrieb:
das geruckel haut schon hin. ich hab auf deiner res knapp 50-70% mehr fps wie du bei GTA5.
Seht es ein, euer zeug ist veraltet.

btw. ich hasse direct upload. 10 mio popups und bild lässt sich nicht vergrößern :grr:

Mal schauen, ob es noch ein paar Patches wie bei Witcher 2 gibt..:(

Habe jetzt Directlinks eingefügt, ohne Vergrößerung ist tatsächlich kacke.
 
Falls es jemand interessiert.

Mit meinem unten genannten System erreiche ich ca. 40 FPS. Settings sind High, mit HBAO+ (ein paar Einstellungen sind noch bissel hoeher) Aufloesung ist FullHD.
Die SLI Skalierung ist wie versprochen sehr gut. Mit nur einer Karte habe ich 22FPS (wie im Test) und mit zwei um die 40 FPS. Also wie von CD Project versprochen, fast eine Verdoppelung. Ich spuehr bei mir aber, dass die 1.5GB RAM von der Karte nicht immer ausreichen. Hier empfiehlt sich doch definitiv eine Karte die mehr als 2GB hat.

Gruesse
strubo0
 
Vendetta schrieb:
Bitte vergleich das nicht mit dem Witcher und dessen Storytelling!

Ja, darum kribbelts ja auch doch etwas. Hab Videos und ein bißchen Lets Play geschaut (Demos bekommt man ja nicht mehr :() und es ist schon was anderes. Das dachte ich bei Skyrim aber auch.

Vielleicht mach ich es doch. Sehe gerade bei GOG dass es eine 30 Tage Geld Zurück Garantie gibt :D
 
Zuletzt bearbeitet:
@Wolfgang

Was ist der Knackpunkt in der Architektur (oder gibts noch nen andern), weswegen Kepler gegenüber Maxwell so abkackt?

Und danke für den sehr schönen Test.
 
Auch wenn das hier hinten keiner mehr lesen wird..
Man muss sich unbedint den neusten nvidia-Treiber installieren. Ohne gibts FrameTime schwankungen :freak:
 
Ich spiele es auf dem TV mit Gamepad. Doch etwas zu herausfordernd für eine einzelne 350€ Karte auf 3440x1440 ...
 
@seebear, ggf. wäre AutoHotkey (http://ahkscript.org/) etwas für dich. Das Programm fängt Tasten- und Mauseingaben ab und gibt sie gemäß Skriptanweisung weiter. Ein mal damit auseinandergesetzt, kann man sich fast jede Tastenbelegung basteln. Eine einfache Umbelegung einer Taste sähe dann so aus:

Code:
 t::z ;t wird zu z
~t::z ;t bleibt erhalten und löst zusätzlich z aus
+t::z ;shift-t löst z aus
 
Marguth schrieb:
Man muss sich unbedint den neusten nvidia-Treiber installieren. Ohne gibts FrameTime schwankungen :freak:

Ganz ehrlich? Ich pfeiff auf FrameTime-Schwankungen wenn ich dank dem 350.12 Treiber dafür 20% mehr FPS habe und erst noch keine Abstürze, Treiber-Resets oder sonstigen Müll, mit dem sich aktuelle User vom neusten nVidia Treiber rumschlagen dürfen...
 
nato44 schrieb:
Hab ich auch schon gemerkt. Einfach schlecht umgesetzt..zumal die Grafik von Witcher 3 diese grottige Performance auf gar keinen Fall rechtfertigt. Habt ihr euch mal die Vegetation angeschaut? Willkommen im Jahre 2009:

http://fs2.directupload.net/images/150520/h2jxwlbt.jpg
http://fs1.directupload.net/images/150520/h4mkmae2.jpg
http://fs2.directupload.net/images/150520/bsi5nbao.jpg
http://fs1.directupload.net/images/150520/6tq627yr.jpg


Und da anscheinend wie berichtet vieles auf der GPU berechnet wird, liegt mein Xeon 1230 flach und die GTX770 ist der ultimative Flaschenhals. Danke CD Projekt.
Spiele auf 1440p.
GTA 5 läuft bei mir da auf high mit >60fps.
Witcher 3 dagegen ruckelt sich auf mid Settings einen mit 25-35fps ab (und sieht wie gesagt nicht gerade überragend aus).
1080p läuft dann schon besser mit 50-60fps. Also skaliert das Spiel einfach mal mega scheiße nehme ich nun an.

Im Gegenatz zu GTA kann man the Witcher mit 30FPS vernünftig spielen und es sieht bei weitem besser aus.
Im pCGH Forum wurde oft erwähnt das man einfach die FPS bei 30 festsetzen soll, dann läuft verdammt flüssig.
Klar gibts auch hier in TW3 ein paar Dinge die grottig aussehen aber insgesamt ist es noch das am besten aussehende Spiel bisher, GTA auf max sieht nicht so gut aus da ist es klar das weniger Leistung gefordert wird.
Da Nvidia die Performance auf Kepler versaut hat (sieht man gut bei den PCGH Benchmarks, da ist eine Titan 1 die damals doppelt so teuer war nur gut 2FPS schneller als eine 7970/280x) ist deine 770 nunmal nicht mehr schnell genug für 1440p.
Stell lieber auf 1080p und schraub die Details hoch.
 
Zuletzt bearbeitet:
Kepler Nutzer kommen sich ja echt verarscht vor !
 
Micha der erste schrieb:
Kepler Nutzer kommen sich ja echt verarscht vor !

Und mir kann keiner erzählen, dass Nvidia keine Zeit hatte, das Spiel entsprechend auf seine Grafikchips zu optimieren ;)
 
Ganz und garnicht... Ich spiele auf Full HD auf High mit im Schnitt 40-50FPS. Hbao+ ist ein, Hairworks aus. Für mich völlig ausreichend mit der GTX 770.
 
Grauenhaft optmiert das Spiel. Das Spiel is so weit entfernt von next Gen,zieht aber Leistung wie eines.
Programmieren können sie nicht aber scheint wohl im Trend zu sein. GTA5,AC etc alle miserable Konsolenports :stock:
 
Ich finde es sehr schade was Nvidia da mit der GTX 700 Reihe macht.... meine GTX 780@ 780TI schafft 10Fps weniger wie diese Krüppel 970 die wollen einen Wohl zum Neukauf zwingen.
 
Micha der erste schrieb:
Kepler Nutzer kommen sich ja echt verarscht vor !

Nvidia will damit wohl dezent drauf hindeuten das es Zeit für eine neue Grafikkarte wird. :evillol:


Turican76 schrieb:
Grauenhaft optmiert das Spiel. Das Spiel is so weit entfernt von next Gen,zieht aber Leistung wie eines.
Programmieren können sie nicht aber scheint wohl im Trend zu sein. GTA5,AC etc alle miserable Konsolenports :stock:

Nach der PCGH Redaktion ist das Gegenteil der Fall, es ist das bisher am besten optimierte Spiel überhaupt und soll wohl ne Art Ausblick auf DX12 sein, die CPU ist absolut nebensächlich und nur reine Grafikleistung zählt.
Man sollte hier auch von dem Gedanken wegkommen das man 60FPS braucht, wenn man nach den ganzen Kommentaren geht läuft es mit einem 30FPS lock perfekt flüssig.


Ich werd es mit meiner 3,5 Jahre alten 7970 auf 1080p mit einer Mischung aus hohen+ultra Details wohl bei 30+ FPS flüssig spielen können wenns nach den Benchmarks geht.
Wenn das nicht gut optimiert sein soll weis ich auch nicht.
Wer meint 30FPS sind zuwenig und man braucht mehr, bitte die Kommentare im PCGH Forum lesen.
http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196/
 
Zuletzt bearbeitet:
Kepler Nutzer kommen sich ja echt verarscht vor !
kein Stück das 20% Märchen darf jeder mal selbst testen alte Treiber bringen bei meiner 760 ganz exakt nichts...
Wenn ich mir die benches so ansehe Performen die alten Karten doch in etwa so wie man es erwarten sollte.

habe und erst noch keine Abstürze, Treiber-Resets oder sonstigen Müll,
Overclock etwas zurückdrehen und schon Läuft es. Bei mir crasht auch der alte Treiber wenn ich die Karte auf den sonst üblichen werten laufen lasse.
 
Zuletzt bearbeitet:
Lunke schrieb:
@ComputerBase

Im offiziellen Nvidia Forum gibt es zahlreiche Berichte, dass der neue GeForce 352.86 Treiber schlecht bzw. überhaupt nicht für die Kepler-Architektur optimiert sei (bezüglich The Witcher 3). Einige berichten sogar davon, dass der frühere GeForce 347.xx Treiber in The Witcher 3 eine bessere Performance liefere, obwohl dieser noch gar keine The Witcher 3 spezifischen Optimierungen enthält.

Hier der Link: https://forums.geforce.com/default/...l-as-performance-in-the-witcher-3-wild-hunt-/
Der Post hat binnen 2 Tagen bereits über 20.000 Views, und es gibt bereits Stellungnahme eines Moderators, dass das Problem untersucht werde. (Post #76 u.a.)

Mich würde es jetzt brennend interessieren, ob an den Berichten etwas dran ist, ob man mit früheren Treibern tatsächlich eine bessere Performance erreicht, und ob man vielleicht eine Stellungnahme von Nvidia anfragen könnte.

Neinnein, da hat man nichts am Treiber verbockt, das liegt einzig und allein an der genialen Maxwell-Architektur. Da Maxwell in anderen Spielen auch niemandem die Butter vom Brot reisst, ist Maxwell eben in silicon perfekt auf die Ansprüche von wild hunt abgestimmt.
Das musst Du jetzt mal CB glauben!

Eine weitere Möglichkeit wäre auch Tessellation, bei der die neuen GCN-Iterationen und vor allem Tonga deutlich stärker sind als das Originaldesign. Ebenso denkbar ist eine Mischung aus beiden Faktoren.

Bei all dem rumgerate wird ja wohl eine richtige Antwort dabei sein, hab nur Vertrauen!

War bestimmt nur wieder fehlerhafte Kommunikation zwischen Technik und Marketing, tut uns echt leid...

P.S.: Da sich hier bestimmt noch einige Verschwörungstheorien auftun werf ich nochmal was rein: Wild Hunt ist ein Multiplattformtitel, d.h. sie können AMD garnicht wegoptimieren, das Spiel muss auf GCN gut laufen, gameworks hin oder her.
Aber was haben die Konsolen so an sich? Richtig, vergleichsweise mäßige CPU-Leistung. Was bring ich also meiner engine bei? Möglichst viel auf die programmierbaren shader auszulagern anstelle die CPU damit zu belasten.
Wo lag die Rechenleistung der PS4, der CPU-Teil irgendwo auf Atom-Niveau und die GPU bei Pitcairn? Kommt hin.
 
Zuletzt bearbeitet:
Also bei mir läuft es flüssig auf hoch mit den Einstellungen/ Hardware: AMD x4 840 ( 5 Jahre alt), 8Gb Ram, Nvidia GTX 750 2 Gb Ram

Auf "AUS" gestellt: Bewegungsunschärfte, Weichzeichnen, Chromatische Abweichung, vsync, NV Hairworks.

Andere Einstellungen: HBAO+ an, Anzeigemodus -Randloses Fenster-, Schatten -mittel-, Texturquali. -höchste-! ( bei GRakas von 2 Gb kann man höchste nehmen), Hardware Cursor -an- ( bessere Navigation im Menü mit Maus).

Weiterhin hat PCGH Messungen mit den CPUs gemacht ( link User über mir #94 ) wo sich gezeigt hat das 4"echte" Kerne besser sind als 2+ SMT , bei deren hardwarecombi macht das 11 fps aus.
 
Zuletzt bearbeitet:
Fighter1993 schrieb:
Ich finde es sehr schade was Nvidia da mit der GTX 700 Reihe macht....

Nvidia macht absolut gar nichts. Hast du dich mal gefragt wie es sein kann dass die CPU überhaupt nicht gefordert wird?

Das Spiel lässt fast alles über die GPU berechnen, die GPU wird zum absoluten Flaschenhals und ohne eine moderne und effektive Architektur für solche Berechnungen über die GPU, kacken ältere Karten wie Kepler ab.


Dass die R9 285 vor der R9 280X ist, womit Nvidia überhaupt nichts am Hut untermauert meinen Standpunkt.
 
Komisch, das Spiel läuft sogar trotz Hairworks-Integration auf AMD-Karten, ohne angepasste Treiber, halbwegs ordentlich im Vergleich (ohne Hairworks, oder mit Tessellation-Anpassung). Sieht so aus als wäre vor allem Slightly Mad schuld daran, dass Project Cars so schlecht auf AMD-Karten läuft?

Nicht, dass Hairworks jetzt besonders toll aussieht, oder dass es einen Grund für die extrem Tessellation dabei gäbe. Und es ändert auch nichts daran, dass dieser Blackbox-Effektkram was für die Tonne ist.
 
Zurück
Oben