• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test The Witcher 3: Grafikkarten, Prozessoren und Kantenglättung im Test

Ich vermute mal, Gronkh ist ein Let's Player? Verfolge sowas nie wirklich, konte mich da nie mit anfreunden. Die Zeit die ich habe, verwende ich dann doch, um lieber selber zu Zocken :D
 
jep, gronkh ist aber der let´s player schlechthin in deutschland mit über 3mio abos.

spielt gerne auch indiezeug und bringt mir so evtl. perlen ins gedächtnis:)

aber hast recht, selber spielen ist definitiv besser:)
 
Glaub so ziemlich der bekannteste Lets Player, den es gibt. Und auch mit Abstand der Lustigste.

Früher oder später werde ich mir das Spiel auch mal anschaffen. Da bin ich mal gespannt wie sich das auf WQHD mit G-Sync anfühlt. Da interessiert es mich normalerweise recht wenig ob ich nun konstant 60 FPS oder irgendwas zwischen 40 und 60 FPS habe ;)
 
Ja, kann auch nicht verstehen, wie die Leute da, regelmäßig und stundenlang auf Youtube irgendwelche Lets Plays schauen können, krasse Zeitverschwendung :lol:
Ab und zu schau ich mir auch mal abends am Handy eins seiner Lets Plays an, die mich interessieren (zB P.T., Cry of Fear oder andere Horrorspiele die nichts für meine Nerven sind ^^) weil der Typ einfach authentisch und witzig ist. Aber dass man damit richtig fett Kohle machen kann, weil solche Videos so viele Clicks generieren, ist schon lächerlich. Vor allem finde ich, dass diese Videos in erster Linie Unterhaltungsvideos sind, wenn da jemand meint quatschen zu müssen, dass muss das unterhaltsam sein. Aber es gibt ja mittlerweile dutzende von Lets Player mit Millionen von "Fans"... Dieser Pewdiepie oder wie der heißt, der Typ "verdient" mit diesem "Job" angeblich Millionen! Und er könnte unsympathischer echt nicht sein, total unecht, die Videos geschnitten und übereditiert und seine Stimme...diese Stimme vor allem wenn er schreit, heilige Scheiße die tut mir nach 2 Minuten richtig weh in den Ohren :kotz:

Gronkh hat soweit ich weiß ein Dual-CPU System, 2 Xeons, und 3 alte Titans im SLI.

zurück zu Witcher 3:
Huddy meinte dazu
We've been working with CD Projeckt Red from the beginning. We've been giving them detailed feedback all the way through. Around two months before release, or thereabouts, the GameWorks code arrived with HairWorks, and it completely sabotaged our performance as far as we're concerned. We were running well before that...it's wrecked our performance, almost as if it was put in to achieve that goal.
Wer weiß, vielleicht würden die Radeons noch besser performen ohne den kurz vor Release aktualisierten Gameworks Code. Und vielleicht ist das der Grund, warum Kepler so abkackt. ;)
 
Zuletzt bearbeitet:
@zeedy

Ich finde es lustig wie du immer versuchst deine Meinung allen anderen aufzuzwingen mit einer ekelhaften und beleidigenden Art...
Lebe und lass Leben, ist doch jedem selbst überlassen wie er seine Freizeit verbringt... und behalt solchen verbalen Müll einfach für dich.


@Topic

SLI und Crossfire wird derzeit, soweit ich weis, bei TW3 nicht unterstützt weshalb es nicht "möglich" ist auf 4K zu spielen.
Hairworks ist da nur der Tropfen auf dem heissen Stein.
 
Zuletzt bearbeitet:
Hab grad mal geschaut, 3,6 Mio Abos. Das ist hart :D
@Phear: in WQHD würdest mit der 970 sogar ohne Gsync gut dastehen. Ich hab noch nie nach einen genauen Frames geschaut (hab kein Fraps laufen und spiels nicht über Steam), aber es war bisher in jeder Situation super flüssig ohne Stottern oder Drops.
@Bridax: 3200x1800 läuft aber gut auf einer R9 290. Alles auf hoch, ohne internes AA. SSAO und kein Hairworks.
 
Zuletzt bearbeitet:
@Bridax aber sonst gehts ganz gut ja? Wem zwinge ich denn bitte meine Meinung auf? Ich äußerte diese nur und das ohne jemanden persönlich zu beleidigen. Persönlich beleidigen ist das was du mit deinem Kommentar getan hast. Also behalte du doch deinen verbalen Müll einfach für dich.
 
Bridax schrieb:
SLI und Crossfire wird derzeit, soweit ich weis, bei TW3 nicht unterstützt weshalb es nicht "möglich" ist auf 4K zu spielen.
Hairworks ist da nur der Tropfen auf dem heissen Stein.


SLI und Crossfire funzt.


...allerdings grottige Performance.
 
Zuletzt bearbeitet:
zeedy schrieb:
Ja, kann auch nicht verstehen, wie die Leute da, regelmäßig und stundenlang auf Youtube irgendwelche Lets Plays schauen können, krasse Zeitverschwendung :lol:
Aber dass man damit richtig fett Kohle machen kann, weil solche Videos so viele Clicks generieren, ist schon lächerlich. Aber es gibt ja mittlerweile dutzende von Lets Player mit Millionen von "Fans"... Dieser Pewdiepie oder wie der heißt, der Typ "verdient" mit diesem "Job" angeblich Millionen!

Dein Beitrag in gekürzter Version strotzt nur so von Hörensagen/ Engstirnigkeit / Intoleranz und dummen Unterstellungen. Es zwingt dich keiner ein PiewieS. anzuschauen. Man muss nicht alles gutheißen aber dumm drüber schwätzen muss auch nicht sein. Wenn man Engstirnig und intolerant gegenüber nur ! anderen Video Formaten ist sollte man sich ein anderes Hobby suchen. Mahlzeit.:)
 
Zuletzt bearbeitet:
Vendetta schrieb:
Kann es eigentlich sein, dass der Witcher die GPU besonders heftig ran nimmt und ich meine damit EXTREM heftig. Meine GTX970 Windforce kühlt die GPU in der Regel locker unter 70°C eher Richtung 65°C auch wenn sie 100% Auslastung aufweist. Im Witcher muss der Lüfter auf unfassbaren 100% laufen, damit die Karte nicht über 75°C kommt. Die Settings scheinen relativ egal zu sein und ja ich Overclocke die Karte natürlich ein wenig, dass sie mit rund 1500MHz im Boost läuft. Ohne OC bleibt sie auf rund 70°C auch ohne dröhnende Kühler aber pendelt sich bei schwachen 1300MHz ein, was je nach Setting 10+ FPS weniger sind und nicht wirklich akzeptabel ist...

Kann es sein, dass es was mit Hairworks zu tun hat? Habe das MSAA per ini Änderung auf 2x runtergeschraubt, die Performance ging gewaltig nach oben aber GPU Auslastung und Temperatur bleibt enorm.


Prinzipiell nimmt TW3 die GPU ordentlich in den Schwitzkasten, das hat mit Hairworks allein nichts zu tun. Es ist vielmehr Konsequenz der Art und Weise, wie CDPR programmiert hat - beinahe so viele Tasks wie möglich werden auf der GPU berechnet. Konsequenz dessen ist auch, dass nur sehr langsame CPUs überhaupt limitieren würden, ein Haswell-i7 ist sogar mit 2 Ghz Takt noch mehr als schnell genug (check' mal deine CPU-Auslastung im Vergleich - du wirst feststellen, sie fällt ziemlich gering aus).
 
Chiller24 schrieb:
Was die Kepler Karten hier abliefern ist wirklich schlecht. Ich hab zwar The Witcher 3 (noch) nicht, aber wenn hier seitens Nvidia nichts passiert, ein Fix und Stellungnahme erfolgt, dann bin ich mittlerweile durch eben die zur Zeit häufigen aufeinaner folgenden Negativ-Fakten seitens Nvidia, doch mehr wie gewillt eine entgültige Umstellung auf AMD zu vollziehen. Dies auch jedem als Empfehlung weiter zu geben und im Familien/Freundes-Kreis zu nichts anderem mehr zu raten.

Natürlich verliert eine alte GPU Generation nach dem Release einer neuen nach und nach an Support und Leistung(steigerung) und verliert somit immer weiter an Attraktivität und Nutzen, aber in diesem Fall hier, auch noch bei einem Nvidia optimierten Spiel ist und war dieser Abfall noch nie so schnell und absolut nicht nachvollziehbar (es sind ja nicht nur unzureischende Frames im gesamten, sondern z.B. auch schlechte Performance bei egal welchen Presets: Low oder High, alles gleich schlecht).
Auf keinen Fall sollte eine grade so abgelöste GPU Generation gleich soweit abseits ihrer normalen sonst üblichen Performance fallen, ganz besonders deren High-End-Sparte nicht (wie gesagt Nvidia optimiert?!).

Mir geht es dabei nicht nur rein speziell um diesen Fall (natürlich sollte hier und jetzt was dagegen passieren), sowas sollte nie und bei niemandem passieren. Auch geht es mir nicht um einen Geldverlust, den hab ich beim Kauf sowieso bewusst mitgenommen. Hier geht einfach was nicht mit rechten Dingen zu (man muss sich nur mal die Kepler, Maxwell + dazu passenden AMD Kandidaten anschauen). Da läuft von Nvidia bewusst oder unbewusst (was erst schlimm wird, wenn nicht reagiert wird) was nicht rund, und dies scheint zu große Bahnen an zu nehmen. Wäre super wenn Computerbase da nach hacken und testen würde!

Hairworks hat mit alle dem auch nichts zu tun, lässt sich ja ausschalten und dann wird das Problem nur noch deutlicher sichtbar. Genauso die Pixelfüllrate oder VRAM Theorie ist längst wiederlegt. Es kann unmöglich sein, daß dieser Unterschied so riesig allein durch den Architekturunterschied aufkommt.....natürlich ist da wohl der Ansatz, aber seitens Optimierung bzw. Treiberanpassung sollte das problemlos kompensiert werden (wie schon mehrmals nun gesagt: Nvidia optimiertes Spiel?!). Es sei denn eine solche Kompensation/Anpassung ist eben nicht erwünscht seitens Nvidia!?



Sehe ich auch so. Ich finde es Unglaublich wie NV die 780 droppt. Da muss NV aktive gegen die 7xx Serie programmiert haben.


Ich will nur noch die 390X. Die 6GB dinger 980Ti Jucken mal gar nicht.
 
Vendetta schrieb:
Ich glaube langsam die Abstürze liegen einfach an der überlasteten GPU, hast sicher auch die "Treiber hat aufgehört zu arbeiten, wurde wiederhergestellt blabla" meldung unten rechts oder? Abhilfe schafft moderateres Overclocking und Reduzierung der Settings(speziell sichtweite des Grases und Schatten würd ich nicht auf Ultra sondern hoch stellen)
.

Die Meldung hatte ich noch nie. Sehe einfach im Taskmanager dass das Spiel abgeschmiert ist. Meldung bekomme ich keine. Gut, hab im eventvwr noch nicht nachgeschaut. OC Betreibe ich im moment keines mehr. Bios und wie gesagt Treiber sind allesamt aktuell. Werde mal die Einstellungen wieder auf High stellen. Bis auf ein zwei Einstellungen. Evtl. liegt es auch an meinen SLI Setting. Hab da nicht genau die gleichen Karten drin. hatte aber damit noch nie Probleme.
 
Ist eigentlich jemandem mal aufgefallen, wie krass auch die GTX 750 Ti einbricht? Gerade mal auf HD 5850 Niveau! Oder verglichen mit einer GTX 760 wird gerade mal 68% der Performance erreicht, so wie es auch schon in früheren Tests teilweise der Fall war.

Die GTX 750 Ti basiert doch ebenfalls auf Maxwell. Wie passt das mit dem Argument von ComputerBase zusammen?
ComputerBase schrieb:
So zeigt sich zum Beispiel schnell, dass die Maxwell-Grafikkarten den Kepler-Pendants klar überlegen sind.
@ComputerBase
Das Thema rund um das schlechte Abschneiden der 700 Serie hat im Nvidia Forum bereits über 70.000 Views erreicht. Reicht das, um z.B. mal eine Stellungnahme seitens Nvidia anzufragen bzw. eine News darüber zu verfassen?
 
Also CB, professionell ist das nicht. So wird sich das erklärt??? Das ist ja Chip - Computer Bild niveau.

Diese NV freundlichkeit ist einfach Übertrieben, aber wäre es AMD, dann wäre das Thema ganz sicher größer aufgerissen worden als hier.
 
Vendetta schrieb:
Kann es eigentlich sein, dass der Witcher die GPU besonders heftig ran nimmt und ich meine damit EXTREM heftig. Meine GTX970 Windforce kühlt die GPU in der Regel locker unter 70°C eher Richtung 65°C auch wenn sie 100% Auslastung aufweist. Im Witcher muss der Lüfter auf unfassbaren 100% laufen, damit die Karte nicht über 75°C kommt. Die Settings scheinen relativ egal zu sein und ja ich Overclocke die Karte natürlich ein wenig, dass sie mit rund 1500MHz im Boost läuft. Ohne OC bleibt sie auf rund 70°C auch ohne dröhnende Kühler aber pendelt sich bei schwachen 1300MHz ein, was je nach Setting 10+ FPS weniger sind und nicht wirklich akzeptabel ist...

Ich habe normalerweise immer so 58-59 grad auf der GPU. Bei Witcher 3 sinds dann schon 61-62 grad bei der selben Wassertemperatur. Aber der "King of the Hill" ist FEAR 2 mit 65 grad xD. keine Ahnung wieso. Da wird auch das Wasser gleich 1-2 Grad Wärmer....
 
Vendetta schrieb:
Kann es eigentlich sein, dass der Witcher die GPU besonders heftig ran nimmt und ich meine damit EXTREM heftig. Meine GTX970 Windforce kühlt die GPU in der Regel locker unter 70°C eher Richtung 65°C auch wenn sie 100% Auslastung aufweist. Im Witcher muss der Lüfter auf unfassbaren 100% laufen, damit die Karte nicht über 75°C kommt. Die Settings scheinen relativ egal zu sein und ja ich Overclocke die Karte natürlich ein wenig, dass sie mit rund 1500MHz im Boost läuft. Ohne OC bleibt sie auf rund 70°C auch ohne dröhnende Kühler aber pendelt sich bei schwachen 1300MHz ein, was je nach Setting 10+ FPS weniger sind und nicht wirklich akzeptabel ist...

Kann es sein, dass es was mit Hairworks zu tun hat? Habe das MSAA per ini Änderung auf 2x runtergeschraubt, die Performance ging gewaltig nach oben aber GPU Auslastung und Temperatur bleibt enorm.

Jep, s. Zahlen aus meinem Post:
https://www.computerbase.de/forum/t...laettung-im-test.1477428/page-7#post-17410597
 
RonnyRR schrieb:
SLI und Crossfire funzt.


...allerdings grottige Performance.
Mit 970 SLi und alles auf Ultra sowie Postprocessing High/maxed habe ich um 60 frames, das pendelt zwischen 55 und 65.
Bei Action auf 50 runter, in manchen Gebieten geht es auf 75 fps. Ich spiele auf 2560*1440, ich hatte weniger fps erwartet. SLI läuft - bei mir - tadellos. Mit 3,5 GB VRAM Karten :D
 
Zurück
Oben