Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsThe Witcher 3: Nvidia arbeitet an FPS-Problemen von Kepler-GPUs
CD Projekts Rollenspiel The Witcher 3 sieht zwar hübsch aus, benötigt jedoch für maximale Details potente Hardware. Grafikkarten mit Nvidias Kepler-Architektur fallen aber sowohl gegenüber neueren Maxwell-Modellen als auch im Vergleich mit in anderen Spielen gleichstarken Radeon-Modellen von AMD zurück.
Zahlreiche Nutzer vermuten deshalb, dass Nvidia GPUs mit älterer Architektur mit den Treibern der vergangenen Monate künstlich beschnitten habe, um den Verkauf aktueller Maxwell-GPUs anzukurbeln.
Potente Hardware? Das lese ich jedes mal zu Witcher und halte ein 4 Jahre alten i5-2500k und 270X nicht gerade für das Maß für potente Hardware. Das ist gerade mal Mittelklasse. Damit läuft es in FullHD auf hoch bis ultra mit 30 FPS. Somit lässt sich das auf Niedrig/Mittel auf noch schlechterer Hardware problemlos spielen.
Dazu wird der Prozi nicht mal ansatzweise benötigt. Sprich ein kleiner 4-Kern Prozi mit Mittelklasse Grafikkarte und Witcher 3 sollte kein Problem sein. Jeder 500-600€ PC sollte Witcher problemlos spielen können, wenn man nicht auf die Grafik fixiert ist. Auf Mittel sollte das Spiel ja auch wie auf jeder Konsole aussehen.
@Thema
NVIDIA bescheidet künstlich die Grafikkarten, damit man sich ja eine neue zulegt.
Und der Treiber wird bestimmt den Technisch absurd hohen x64 Faktor auf x32 senken, man sieht Optisch keinen Unterschied, aber die Performance steigt (~15-20%) dann endlich auf das Maß, was der 780 gerecht wird, womit sie ihre Leistung auch auf die Straße bringt
Ähnlich dem, was im CCC vom Endnutzer selbst gemacht werden kann, dem Nvidia Kunden aber verwehrt wird. Täte allgemein gut, dass man derartige Features seinen Settings entsprechend einstellen kann, zumal ja bekannt ist, dass x16 keinen Optischen Unterschied bringt ( trockene Haare ) bzw. es sogar besser aussehen lässt ( Wasser ) x32 für die Haare aber doch ganz ok ist, sobald die Haare " nass " sind, sieht man unter x16 doch noch einen guten Unterschied, der bei x32 aber dann auch weg ist.
Woran mich das jetzt erinnert ist folgendes: Problem, Reaktion, Lösung – Erschaffe ein Problem, warte die Reaktion ab und dann biete die Lösung an…und alle jubeln..
Doch, sie wurden langsamer gemacht, da sie mit x64 Faktor quasi ausgebremst werden. Dass dieser Wert nicht wirklich Sinnvoll ist, lässt einem, auch wenn es nur eine Vermutung ist, doch recht verwunderlich stimmen.
Zumal ja keiner behaupten kann, sie würden es nicht vorher wissen, haben doch eng mit dem Studio daran gearbeitet.
Mal sehen was genau geändert wird, intern im Treiber, was den generellen Tess Faktor betrifft.
Da dies von CB nicht weiter verfolgt wird, müssen es wieder die User machen. Schade.
Interessant ist aber, bei Hairworks on, ändert sich das Bild für die R9 285 und die 280X ist wieder schneller. Dabei ist die R9 285 eigentlich jene Karte, die mit Tessellation besser umgehen kann.
Ich finde das Argument mit der Tesselation auch dahingehend etwas merkwürdig da die 290er von AMD ja bei hoher Tesselation ebenfalls recht stark einbrechen, die 290(x) aber in dem Spiel ohne Hairworks eine ziemlich gute Performance abliefert.
Und zumindest im CB Test die Kepler Karten bei hohem Tesselationsfaktor besser abschneiden als der Hawaii Chip, daher kann ich mir schon gut vorstellen dass da künstlich die Bremse angelegt wurde :/ Kann ja nicht sein dass eine popelige 960 mit einer 780 gleichzieht ...
Edit:
Und das Nvidia immer wieder zwielichtige Aktionen bringt ist ja nix neues und machen sie ja immer wieder mal gerne, wie das erneute blockieren von OC der mobile Karten erst kürzlich und dann das erneute Zurückrudern weil es die Leute halt doch wieder gecheckt haben und sich zurecht aufgeregt haben.
Interessant ist aber, bei Hairworks on, ändert sich das Bild für die R9 285 und die 280X ist wieder schneller. Dabei ist die R9 285 eigentlich jene Karte, die mit Tessellation besser umgehen kann.
Das erklärt ebenfalls nicht den plötzlich wachsenden Abstand der 290(X) zur 780(Ti), ich bin da deiner Meinung!
Es sieht einfach so aus als würden Kepler GPUs gebremst werden.
Naja wenn der Faktor zu hoch eingestellt ist, dann ist es an sich ein Treiber Problem. Diese Aussage wäre also korrekt. Ob das absichtlich so gemacht wurde und nur weil es aufgeflogen ist geändert wird ändert daran nichts.
Kann man das rein Software technisch betrachtet irgend wie nachweisen, das nVidia die Treiber so manipuliert, das man "gezwungen" wird eine neuere / stärkere Grafikkarte zu kaufen ?
Falls ja wird man gerichtlich gegen nVidia vorgehen oder werden wieder mal sehr viele Leute die Klappe halten und nichts dagegen unternehmen ?
Ist das normal, das nVidia solche Praktiken anwendet ?
O.K. mir fällt nur diese aktuelle Sache mit der VRAM und der GTX 970 ein, wie war es denn so in der Vergangenheit ? Hat da nVidia auch ähnliche Praktiken angewendet oder waren die so brav wie AMD / ATI ?
Ist das nicht anlügen und betrügen gegenüber dem Kunden / Gamer ?
schon, wer sonst bietet seinen Kunden solche tollen "Features" wie krüppel Speicheranbindung von dem die kunden "begeistert" waren (ich hoffe doch ich versteh deine Aussage richtig als ironisch gemeint ).
Edit:
wie war es denn so in der Vergangenheit ? Hat da nVidia auch ähnliche Praktiken angewendet oder waren die so brav wie AMD / ATI ?
Also wenn ich mich korrekt erinnere gabs das auch schon bei der GTX 660 in der 2GB Variante, da waren 1 GB auch nur mit 128bit angebunden und der rest mit mehr, müsste jetzt aber danach suchen, könnte die Zahlen falsch im Kopf haben.
ja. Nachdem man wieder laut schreien musste... wurde auch mal langsam Zeit, waren doch von Anfang an bei der Entwicklung dabei, wieso fällt denen das denn nicht auf?
@Buttermilch,
was will ich mit nem WHQL. Der sagt nix über den Treiber aus. Sieht man ja, bei dem WHQL Treiber, wie der funktioniert: GeForce Forum viele viele Whiners, abstürze usw.
Und wozu soll sich AMD denn beeilen, dass Spiel läuft ohne Treiber Optimierungen bereits gut. Die kommenden werden das bestehende ja noch weiter verbessern. Out of the Box 0 Problemo mit einer 1 Jahre alten GPU in einem GW Spiel.
Das macht AMD. Allein deshalb, wird NV wohl was unternehmen müssen. Aber wer weiß, vllt hat man schon die Lösung gefunden, wie man GCN langsamer *hust... Kepler schneller machen könnte.
Keine Ahnung, gibt es denn irgendwelche Leistungsprobleme mit The Witcher 3? Oder sonst irgendwelche? Mir sind keine aufgefallen (PCars mal ausgeschlossen, wurde aber auch nur von/für Nvidia programmiert).