• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Ghost of Tsushima im Test: Wenn FSR 3.1 immer so abliefert, hat AMD viel geschafft

pacifico schrieb:
Es hat schon seinen Grund warum Vsync in den Menüs der Spiele ausgegraut ist wenn man framegen aktiviert.
sry, ich weiss nicht von welchen spielen du redest. Aber Vsync konnte ich bisher immer im spiel aktivieren mit FG(AMD). Nur war es häufig bugy, da war VRR besser. mit AFMF im treiber ist VRR auch praktisch pflicht, für ein sehr gutes ergebnis, bis jetzt.

Aber bei diesem Spiel funktioniert Vsync +FG um welten besser als VRR. Und vor allem sauber.( zumindest bei AMD)
 
  • Gefällt mir
Reaktionen: SweetOhm
pacifico schrieb:
Das ergibt tearing.

Vielleicht bekommst du das nur nicht mit....

Es hat schon seinen Grund warum Vsync in den Menüs der Spiele ausgegraut ist wenn man framegen aktiviert.

Das kann doch jetzt nicht dein Ernst sein. Auch Wolfgang hats dir nochmal bestätigt.

Und ich sehe doch den Unterschied, dass ich Tearing bekomme, wenn Vsync aus ist und ich nahe der maximalfrequenz meines Monitors bin. Sobald ich Vsync im Treiber einschalte ist es weg.

Wie willst du mir da dann weiß machen, dass ich es nicht sehe?

Hör bitte auf Unwahrheiten zu verbreiten. Vsync funktioniert mit DLSS FG und FSR FG.
 
  • Gefällt mir
Reaktionen: SweetOhm
Mimir schrieb:
Hier z.B. 1440p Quality Upscaling. Links DLSS, rechts FSR.
[IMG]https://www.computerbase.de/forum/attachments/1716112184745-png.1484924/[/IMG]
und wenn du dir das in bewegung anschaust, siehst du davon nix. selbst im 50% langsameren Video nicht. Das Video Standbild(mit den Artefakten ) Würdest du im Spiel selbst als standbild auch nicht so sehen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Mimir schrieb:
Und ich sehe doch den Unterschied, dass ich Tearing bekomme, wenn Vsync aus ist und ich nahe der maximalfrequenz meines Monitors bin. Sobald ich Vsync im Treiber einschalte ist es weg.
Dann hat nvidia das Problem nicht sauber gefixt. Sonst hätte ich keine Streifen in Forbidden West zum Beispiel....
 
Northstar2710 schrieb:
und wenn du dir das in bewegung anschaust, siehst du davon nix. selbst im 50% langsameren Video nicht. Das Video Standbild(mit den Artefakten ) Würdest du im Spiel selbst als standbild auch nicht so sehen.

Ich finde man sieht es selbst im Video in Bewegung ohne Zeitlupe sehr deutlich.

Bei Jedi Survivor als es anfangs noch kein DLSS hatte sondern nur FSR ist es mir auch sehr stark aufgefallen, so dass ich dann mit TAA gespielt habe, bis mit einem der späteren Patches dann DLSS nachgepatcht wurde.

Ist halt blöd, wenn der Charakter völlig verpixelt, wenn er sich bewegt bzw. man angreift. Sowas hast du halt praktisch 99% der Spielzeit im Bild...

Aber gut, wenn es jemand nicht sieht oder es nicht stört, umso besser. Gibt auch Sachen die mir weniger auffallen als andere. Das muss jeder selber bewerten.
 
Hier übrigens ein Vorschlag zu optimierten Einstellungen für WQHD/DLAA ohne signifikanten optischen Verlust.

GhostOfTsushima_2024_05_19_16_06_44_428.jpg


Anscheinend werden die Änderungen sofort übernommen, so dass sich die Auswirkungen auf die FPS schnell erkennen lassen. Im Ergebnis sind es dann zwischen ca. 115 und 145 FPS je nach Szene. Mein ReShade-Preset nimmt sich ca. 6% FPS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
blackiwid schrieb:
(...)daher trau ich CB wenn sie sagen das es kein grosser Unterschied bei diesem Spiel gibt, (...)
Dein Vertrauen scheint aber arg angekratzt zu sein, obwohl es dafür keinen Grund gibt. Computerbase ist seit Jahren eine der neutralsten Instanzen im Netz.

blackiwid schrieb:
Ich lese 1000 Berichte wie FSR 1000x schlechter wie DLSS sei, aber wenn wenn über mehrere Treiberversionen hinweg mit extrem teuren Nvidia Karten Spiele einfach ruckeln... dann ist das keine News Wert? Sorry Nvidiabase...
blackiwid schrieb:
Ja Gaming haben sie sich halbiert in einem Jahr, wie man das in dem ganzen Artikel bei ner Gaming Webseite wie Computerbase nicht nennen kann... ja bleibt halt Nvidiabase.
blackiwid schrieb:
Naja kauft alle eure Nvidia Karten... die paar Leser von Nvidiabase werden den Gesamtmarkt schon nicht ändern,
blackiwid schrieb:
ich war ueber den Begriff Nvidiabase immer kritisch, und bezog das auch immer zuerst auf die Autoren und Seitenbetreiber,
blackiwid schrieb:
, mein Punkt war nur das es unwahrscheinlich ist, das hier ständig AMD besser behandelt wird als Nvidia,
AMD und Nvidia werden gleich behandelt, das Problem ist die fast durchgehend stattfindende Enttäuschung, da es AMD (fast) nie schafft die schnellste GPU in einer Gen mit dem besten Featureset zu bringen. Das letzte Mal war vor rund 20 Jahren.

Am wahrscheinlichsten ist die "gewollte" Opferrolle.
 
  • Gefällt mir
Reaktionen: Fallout667 und MrHeisenberg
Czk666 schrieb:
Du hast wahrscheinlich vsync an. Bist du unter deiner Monitor Herz rate oder füllst du sie komplett aus?
mit vsync. aber auch ohne bemerke ich keine fiese Frametimes
 
arvan schrieb:
Das heißt das Parieren ist direkt und unterbricht ggf. andere laufende Attacken? Das würde ich gut finden. Mag dieses Animation Lock gar nicht.
alles flüssig, keine Verzögerungen oder sonstiges. Was meinst du mit unterbricht laufende Attacken ? Das die restlichen Angreifer warten, bis du fertig bist mit deiner Animation ?

Vigilant schrieb:
Etwas nervig finde ich die Ausweichbewegung, die zwei Tasten erfordert (ALT + WASD). Für Tastatur-Steuerung nicht optimal.
das glaube ich dir sofort - mit dem Pad hast du solche Probleme nicht :p, dafür ist das Bogen schiessen halt eher mäh mit Gamepad.
 
ShowOff schrieb:
Das die restlichen Angreifer warten, bis du fertig bist mit deiner Animation ?
Nein, dass die eigene Animation der eigenen Attacke jederzeit unterbrochen werden kann, um sofort Parieren auszuführen.
 
Schinken42 schrieb:
Solange die relativen Abstände gleich sind, sind beides valide Benchmarks.
Sehe ich schon anders, ob meine GPU nun mit über 60FPS oder nur mit 40FPS getestet wird.
Da ist mir der Abstand zu den anderen Karten ziemlich wurscht.
Ergänzung ()

Wolfgang schrieb:
Also mit dieser Aussage kann halt keiner etwas anfangen.
Wir suchen explizit immer fordernde Szenen aus, was die meisten schlicht und ergreifend nicht tun (die muss man ja auch erstmal finden). Da fängt es ja schon mit an.
Sorry, aber das ist ja wohl eine eher lächerliche Aussage.
 
  • Gefällt mir
Reaktionen: Snoop7676
RKCPU schrieb:
Die Zahl der Käufer mit bester Hardware ist aber gering und nun denkt die Branche an gute Performance in der Mittelklasse und Konsolen.
Verstehe nicht ganz den Zusammenhang des Kommentars aber ich bin absoluter Fan von Upscaling
bzw. von intelligentem Upsampling weil das neben mehr FPS auch eine gute Kantenglättung liefert
und von Frame Generation (Zwischenbildberechnung) was Konsolen und Mittelklasse Hardware hilft.
4K nativ zu rendern ist reine Energieverschwednung und TAA macht das Bild bei Bewegung unscharf.

Mal ganz einfach in Zahlen ausgedrückt:

FHD 1920 x 1080 = 2,1 Millionen Pixel
QHD 2560 x 1440 = 3,7 Millionen Pixel
UHD 3840 x 2160 = 8,3 Millionen Pixel

Da kann man sich schon denken was für eine hohe Rechenleistung nötig ist um UHD/4K zu rendern.

Wie mit einfachen Zahlen:

FHD 120 FPS = 100 Watt
QHD 120 FPS = 200 Watt
UHD 120 FPS = 400 Watt

Nutzt man nun in UHD/4K FSR oder DLSS Quality kann man den Stromverbauch auf 300 Watt senken
und mit Zwischenbildberechnung bis auf 200 Watt sprich man braucht gar keine High End GPU mehr,
zumindest solange man kein Ray/Path Tracing nutzt weil das ist dann wieder eine ganz andere Liga.
 
  • Gefällt mir
Reaktionen: H6-Mobs
Vielen lieben Dank für den sehr ausführlichen Test ! :)

Etwas schade finde ich nur, das nicht Intels Xess 1.3 im "Ultra Quality Mode" verglichen wurde. :)

Besagter Modus entspricht seit der neuesten Version der bisher bekannten Quality Stufe von FSR/DLSS. Also jene mit dem Skalierungsfaktor 1,5. Intel hat hierbei ja die (Skalierungs-)Stufen verändert, so sich diese nun etwas verschoben haben.

https://github.com/intel/xess/releases/tag/v1.3.0

So hat Intels "Perfomance" seit neuestem dem Skalierungsfaktor 2,3 statt 2,0; weswegen man hierbei für den Direkt-Vergleich mit FSR Performance, eher auf Xess Balanced gehen müsste (rein von der Skalierung).

Zumindest im direkten Vergleich zu FSR 2.2 hab ich mit Intels 1.3 (Ultra Quality-Mode) sowohl in Cyberpunk/Forbidden West und Ratchet und Clank eindeutig weniger Ghosting und weniger Artefakte.

Der bekannte Moire-Effekt (an Zäunen z.Bsp.) hab ich so gut wie gar nicht mehr. Hier hat Intel mit der letzten Version ganz schön zugelegt.

Dank Austausch der libxess.dll ist das für Spiele mit unterstützten Xess 1.2 auch gar kein Problem.

Ein Direktvergleich mit FSR 3.0/3.1(?) und die Sicht einer Technik-Seite und ihren erfahrenen Leuten hätte mich daher hier vermutlich auch sehr interessiert.

PS:
Als AMD Karten Besitzer bevorzuge ich derzeitig in allen Fällen wo es geht, die Intel Upscaling Methode in 1.3 (zumindest gegenüber FSR2); da diese aus meiner Sicht schon sehr nah an NVidias DLSS rankommt.

GoT sieht m.M.n. mit Xess 1.3 und der Stufe "Ultra Quality" und FSR 3 Quality (beide 1,5 Skalierung) sehr ähnlich aus. Wobei ich hierbei aber immer noch Xess bevorzuge, da ich mir mehr Detailschärfe und noch weniger Ghosting/Bildflimmern einbilde.
 
Zuletzt bearbeitet von einem Moderator: (Danke an Mimir für den Hinweis. Das entsprechende Wort korrigiert. :))
  • Gefällt mir
Reaktionen: SweetOhm, Czk666 und Mimir
Paul Mazdak schrieb:
Der bekannte MemoirenEffekt (an Zäunen z.Bsp.) hab ich so gut wie gar nicht mehr. Hier hat Intel mit der letzten Version ganz schön zugelegt.

Lol, sorry musste grad schmunzeln, es heißt Moiré Effekt. Memoiren sind was ganz anderes :lol:

Ansonsten stimme ich aber zu. XeSS ist ganz weit vor FSR. Auch in dem Spiel hier und viel näher an DLSS als an FSR.

Allerdings muss man wie du schon sagst jetzt den Ultra Quality Modus nehmen, um die interne Renderauflösung aufs selbe Maß wie bei den anderen bei Quality zu bringen (66%). Denn XeSS ist eben langsamer bzw. teurer als FSR und DLSS.
Das wird wohl auch der Grund gewesen sein, warum Intel die Auflösungen reduziert hat. Der Quality Modus von XeSS performt jetzt seit Verison 1.3 mit der reduzierten Auflösung genauso gut wie DLSS oder FSR im Quality Modus.

Meiner Meinung nach hätte es das nicht gebraucht und am Ende sorgt es nur für Verwirrung. Zumal man jetzt neben Quality auch Ultra Quality und Ultra Quality Plus hat. Das ist irgendwie quatsch. Man hätts einfach so lassen sollen mit dem Wissen, dass der XeSS Algorithmus einfach teurer ist. Fertig. Das wär viel simpler gewesen.
 
  • Gefällt mir
Reaktionen: SweetOhm und Paul Mazdak
Mimir schrieb:
Ansonsten stimme ich aber zu. XeSS ist ganz weit vor FSR. Auch
Bei anderen spielen grösstenteils ja, besonders wenn das spiel mit TAA eine Flimmerorgie ist. Aber bei diesem spiel empfinde ich FSR tatsächlich etwas besser als XeSS (bewegtes Bild, kein Screenshot vergleich) Allerdings finde ich das man zumindest im Absatz ein Paar Worte zu XeSS schreibt wie es sich auf ARC karten presentiert gegenüber der Konkurrenz. Da es dort ja auch besser performen soll.
 
  • Gefällt mir
Reaktionen: SweetOhm
MrHeisenberg schrieb:
Naja, aber dein Argument ist keines. Ich soll FSR 3.x mit DLSS 1 vergleichen? Damit würdest du sagen, dass AMD es in 3 Iterationen über mehrere Jahre nicht geschafft hat, besser als DLSS 1.0 zu werden.
Das ist kein Argument für FSR, sondern dagegen.

Ich habe mit keinem Wort erwähnt das du FSR 3.x mit DLSS 1 vergleichen sollst. Das hast du glaube ich falsch verstanden.

Jedes neue Feature braucht seine Zeit bis es reifer ist. Die erste Version von FSR lief jedenfalls wie Grütze und hat die Bildqualität verschlechtert.

Leider habe ich keine persönlichen Erfahrungswerte mit DLSS 1 machen können, da ich erst auf die 2070 Super umgestiegen bin als DLSS 2.0 schon drausen war und ich gebe ehrlich zu es hat mich sehr beeindruckt, was Nvidia da entwickelt hat.

Seit Anfang dieses Jahres tut sich für mich gefühlt nach Ewigkeiten endlich mal was wirklich bemerkbares in der Performance der AMD Treiber. Und AFMF nimmt auch gerade erst an Fahrt auf. Da wird sich zur Freude aller AMD Karten Besitzer gerade bei den RDNA 2 und RDNA3 Karten noch einiges tun wie ich finde.

MrHeisenberg schrieb:
Warten wir erstmal FSR 4.0 ab. AMD plant das auch über die HW zu beschleunigen. Mal sehen, ob das dann immer noch so breit nutzbar ist ;)

Über FSR 4.0 habe ich mich noch nicht informiert und sollte AMD das über die Hardware beschleunigen, dann bleibts halt ein Exclusivfeature für die zukünftigen AMD Karten ??? Warten wir es einfach mal ab.

MrHeisenberg schrieb:
Können sie technisch bedingt aber leider nicht.

Warum eigentlich ? Aus dem gleichen Grund wie dann bei FSR 4.0 ???
 
  • Gefällt mir
Reaktionen: SweetOhm, MrHeisenberg und Mcr-King
Ich bin jetzt auch wieder bei xess gelandet. Gefällt mir dann doch besser als fsr. Die Bäume in der Ferne, Zäune, ... Mit xess besser. Die fehlende Schärfe hole ich dann mit dem Treiber dazu.
 
  • Gefällt mir
Reaktionen: SweetOhm, Paul Mazdak, Celinna und eine weitere Person
Wurde endlich mal geklärt, warum in allen Spielen immer der Wind mit 500 km/h blasen muss? Zum brechen, echt!
 
Auch eine Option, um die Bildqualität für Auflösungen unterhalb 4K zu steigern:

CX_2024-05-20_00-45-59_GhostOfTsushima_.png
 
mcbloch schrieb:
Sehe ich schon anders, (...)
Dann hast du das Prinzip "testen" bzw. "Test" missverstanden. Sowohl die Methode wie auch die Ziele.
 
  • Gefällt mir
Reaktionen: SweetOhm und BloodGod
Zurück
Oben