Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestThe Witcher 3 Next Gen im Test: Benchmarks der Community zum Patch 4.02
Habs gerade getestet und ich hab mit 4.01 so 80 FPS in Novigrad gehabt und bin mit 4.02 jetzt bei 63 FPS OHNE RAYTRACING!!! Das noch Bugs in der Map das beim reinzoomen alles geblurt ist und die Cam ab und an blau stich hatte. Waren aber nur temp die Bugs, aber sowas hatte ich vorher nicht. Habs aber wieder ausgemacht.
Und zu Cyberpunk, da siehts seit Patch 1.5 auch nicht so toll aus mit vollen RT Settings, und selbst mit RT Mittel Preset kommt eine 3080 gerade mal auf knapp 40 FPS
Das ist aber auch nur der Durchschnitt der entsprechenden Szene und sagt auch nichts über die Verteilung der Werte aus, die den Durchschnitt am Ende erzeugen. Die Ergebnisse sind zum relativen Vergleich der unterschiedlichen Konfigurationen geeignet, was ja auch der eigentliche Sinn ist.
Im Spiel selbst dürfte die Performance abseits der gewählten, sehr fordernden Benchmark-Szene besser sein, weil diese Szene nicht repräsentativ für das gesamte Spiel ist. Sie ist gerade so gewählt, dass sie bezogen auf das Spiel überdurchschnittlich hohe Anforderungen erzeugt.
Außerhalb der am Redwood Market stattfindenden Mission sieht das selbst mit niedrigerem GPU-Takt und UV etwas anders aus (RT mittel und neuem HD Reworked Project Mod):
Rund und smooth ist zwar immer noch anders, eine 3080 sollte aber noch etwas mehr bringen.
Davon abgesehen ist RT aktuell so oder so sehr fordernd, wenn es nicht gerade bis auf Anschlag optimiert wurde und ggf. sehr umfangreich zum Einsatz kommt. Daran wird sich wohl auch nichts ändern. Aber immerhin ist man nicht gezwungen RT zu nutzen. Nichts Neues soweit.
Ich finde es nachvollziehbar, dass es unbefriedigend ist, wenn für höhere FPS mit RT der GPU-Aufwand und die Anschaffungskosten unverhältnismäßig steigen.
In CP77 geht es noch einigermaßen auch mit Mittelklasse-GPUs, die Wrapper-Umsetzung in NG W3 drückt das Ganze auf gleicher Hardware aber in unbequeme Regionen. Nachvollziehbar, dass das nicht gerade begeistert.
Man muss aber sagen, dass die Modcommunity da wieder super Arbeit leistet. Es gibt diverse RT Optimierungsmods, die die Leistung spürbar anheben. Mit meinen Einstellungen, RTGI und RTAO bin ich in 1440p FSRQ meistens über 60fps, was für mich ausreicht.
RTGI sieht halt einfach viel besser aus als normal. Bei RTAO muss ich mal schauen wie HBAO+ im Vergleich ausschaut, noch keine Zeit gehabt. Wenn ich Zeit finde, mache ich auch mal ein Benchmark mit meinen Einstellungen und Mods.
Zudem finde ich die Frage berechtigt. Warum ist das Spiel mit RT deutlich fordernder als z.B. Cyberpunk?
Es gibt zwar mittlerweile die Option die Qualität der GI zu reduzieren, trotzdem pfeifft jede GPU auf dem Niveau einer 3070 oder darunter aus dem letzten Loch.
Das wirkt so, als wäre RT nur noch mit aktuellen High End GPUs sinnvoll nutzbar, wo wir doch jetzt seit Jahren schon Spiele haben, in denen RT viel weniger Leistung kostet und trotzdem einen Mehrwert hatte.
Bis Dato war Cyberpunk auch noch einer der mit abstand fordernsten RT Titel und jetzt setzt Witcher 3 nochmal einen drauf, ohne wirklich sinnvoll skalierbar zu sein.
Zumal die CPU Anforderungen mit RT immernoch extrem hoch sind. selbst wenn man nur eine RT Funktion aktiviert. Auch hier deutlich schlechtere (CPU) Performance als in Cyberpunk. So schlecht, dass es eigentlich nur mit Frame Generation sinnvoll ist, überhaupt erst RT anzuschalten.
Ich verstehe halt diesen "Trend" nicht von wegen, dass RT jetzt auf einmal nur noch auf HighEnd Systemen nutzbar sein soll (siehe auch Portal RTX) wo wir vor 1-2 Jahren noch so weit waren, dass es auch auf mittelklasse Systemen gut nutzbar war.
Siehe Metro Exodus Enhanced. Das ist weniger fordernd als Cyberpunk und hat ein Wahnsinns Upgrade durch RT bekommen.
Jetzt hübscht man Witcher mit ein wenig RT auf und plötzlich ist das ding 50% fordernder als Cyberpunk - der RT Showcase schlechthin.
Das riecht halt alles ziemlich fishy...
Ich würds verstehen, wenn man die Anforderungen bei neuen Spielen weiter anzieht. Aber dass die Einstiegshürde gerade bei so alten Spielen so hoch liegt, ist für mich nicht nachvollziehbar. Gerade bei so alten Spielen würde selbst minimalstes RT schon viel Mehrwert im Vergleich zum ursprünglichen Spiel mit seinen veralteten Grafiktechniken bringen. Mehrwert, den man auf RTX2060 und co eigentlich gut und sinnvoll nutzen könnte.
Stattdessen wird hier massenweise RT fähige Hardware der letzten 2-4 Jahre für nahezu unbrauchbar erklärt und die User die die RT Fähige Hardware haben sind jetzt bei so nem alten Spiel trotz RT Upgrade praktisch dazu genötigt RT aus zu machen und profitieren nahezu gar nicht von den Möglichkeiten ihrer Hardware, wenn sie nicht bereit sind die performance komplett in den Keller zu drücken.
Das ist einfach nur verdammt schade um die Hardware und vergeudetes Potenzial.
Wenn du nur mal in der Lage wärst zwei Sekunden über dein Gesülze nachzudenken, wärst du zu der Konklusio gekommen das der ganze alte Krempel Jahre, teils Jahrzehnte als ist und nur DX12 übergestülpt bekommen hat. Sich dann noch wundern das die Performance wundern ist dann der Gipfel der Ignoranz
Sowohl GOG Galaxie als auch Witcher 3 wurden neuinstalliert, AMD Treiber beim 4.02 Test war einmal der alte von Dezember und der aktuelle und es hat sich nichts geändert, so macht Benchen natürlich keinen Sinn. Schade
Alles ohne RT und DLSS ist mit dem Patch schlechter als vorher. Mein UV habe ich für den Benchmark rausgenommen da ich es im Dezember noch nicht hatte.
Mit FG konnte ich nicht durchführen da das Spiel dann nach 20 Sekunden abstürzt
Wie sieht denn die Performance unter Linux aus?
Kann man das im Artikel aufschlüsseln?
Ich frage deshalb, da mir die FPS auf der Einstellung "Höchste" mit einer RX 6700XT bei WQHD (wahrscheinlich unter Windows in diesem Artikel) niedriger sind, als bei mir unter Linux mit der Einstellung "Höchste+"
Wird in DX12 oder DX11 getestet?
Ich habe auf DX11 umgestellt, da höhere FPS bei gleicher Optik, soweit ich das sehen kann.
Raytracing ist bei ner RX 6700XT ja keine Option und FSR macht einfach nur das Bild unscharf.
System: RX6800OC, 5800X3D, DDR4-3800, W11, 4.02
1.920 x 1.080, Preset „Höchste“: 83
2.560 x 1.440, Preset „Höchste“: 59
3.840 x 2.160, Preset „Höchste“: 29,3
Also mit RT hatte ich im Gegensatz zum letzten Mal ein wenig mehr FPS. Aber jetzt im Höchste Setting bin ich irgendwie bestürzt, kaum schneller als eine 5700XT. Die 1440p und 2160p Werte sind ja grauenvoll. In 4k bin ich so schnell wie eine Vega56, irgendwas läuft doch da falsch.
Ergänzung ()
Mal die Probe auf's Exempel gemacht. 720p FSR Ultra Performance. 140 fps avg bei 98% Auslastung Grafikkarte, wie auch immer das geht. Also wenn die irgendwas an der CPU Utilization geändert haben, dann in die falsche Richtung.
Ergänzung ()
So Problem bei mir gefunden. Es sind die Screenspace Reflections. Damit hab ich nur die Hälfte der Fps.
Irgendwas scheint mit der SSR Option nicht zu stimmen. Ohne RT auf niedrig sind sie kaum noch vorhanden, dafür brechen die Frames nicht ein. Mit RT scheint es vollkommen egal zu sein, ob hoch oder niedrig eingestellt ist, an der Optik ändert sich auch nichts wirklich.
Und jetzt extra die SSD unzupartitionieren ist mir zu viel Aufwand.
Ich hab ja soweit ich das sehe, ja eh mehr FPS unter Linux, von daher 😅
Das gleiche übrigens mit Transport Fever 2, auf dem gleichen PC unter Windows, schon öfters ruckler bei Kamerafahrten gehabt.
Unter Linux butterweich, OK läuft auch nativ mit Vulkan unter Linux 👍
Die Windows Version nutzt DirectX.
Wenn ich Mal Zeit finde mache ich gerne einen Benchmark unter Linux mit den gleichen Einstellungen im Artikel. Nur sehe ich dort nicht ob DX12 oder DX11 verwendet wurde, oder hab ich's nur übersehen?
Definitiv. Da läuft irgendwas falsch, klar das Wasser sieht deutlich besser aus, aber die benötigte Mehrleistung ist krass. Da bleibt echt nur zurücksetzen auf 4.0, unter 4.01 ist es quasi identisch mit 4.02.