• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Ghost of Tsushima im Test: Wenn FSR 3.1 immer so abliefert, hat AMD viel geschafft

DLSS, FSR und XeSS sowie deren Implementierung sind in jedem Spiel absolut zu begrüßen, nur dürfen sie halt einfach keine Ausrede dafür sein, das Spiele schlecht optimiert werden.

Ein Grafik-Blockbuster sollte auf einer GeForce RTX 4090 in 4K/UHD mit 60 FPS laufen, mehr Frames und weniger Verbrauch durch DLSS oder gar doppelte FPS durch Frame Generation sollte dann ein nettes Extra und für jeden der mag optional sein.

Es wird aber zukünftig leider in eine andere Richtung gehen. Das ist ja bei einer Vielzahl der Titel bereits absehbar.

Ich persönlich spiele auch alle Spiele in 4K/UHD mit DLSS Quality, aber es darf halt kein Muss sein.
 
  • Gefällt mir
Reaktionen: SweetOhm, Chuzam, Aimero und 2 andere
Die optischen Auswirkungen davon sind zwar sichtbar, der FPS-Gewinn ist aber zugleich ungewöhnlich hoch.
Für einige hier erwartbar hoch. 😊 Aber danke, dass das nachgeholt wurde. Damit erhöht sich der Nutzen des Tests. Gerne auch bei anderen dann.

Schinken42 schrieb:
Nur innerhalb eines Benchmarks, eben unter gleichen Bedingungen, ist Vergleichbarkeit gegeben
Ja, eben. Deswegen konnten einige nichts mit den Ergebnissen von Wolfgangs Konfiguration anfangen und schauen halt auch bei anderen Quellen, nach anderen Benchmarks. Ist doch alles in Ordnung. Jeder schaut da, wo er am besten für sich selbst nützliche Informationen herausziehen kann.
 
Durch das Hoch-Preset legt die AMD-Grafikkarte gegenüber der maximalen Detailstufe damit um satte 137 Prozent zu, bei der Nvidia-Hardware sind es 112 Prozent
Da brauch ich dann, wenn ich es dann spiele, nicht lange überlegen. Hoch statt Ultra und ich sollte mit 7900xt durchgehen saubere 120 fps in 4k haben.

Edit. Habe das entsprechende Diagramm übersetzen, Sorry.
 
Zuletzt bearbeitet: (Tomaten auf den Augen.)
  • Gefällt mir
Reaktionen: SweetOhm
Sind nur ein paar wenige Optionen, die für eine Optimierung ausreichen:

1716287663250.jpeg

Größter Effekt bei Schattenqualität, gefolgt von Detailstufe. Der Rest hat nur sehr wenig oder keinen Einfluss auf die Performance.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
[Bur4n] schrieb:
Diesmal vorbildlich dazu geschrieben^^
Anhang anzeigen 1484506

Trotzdem werde ich es erstmal nicht kaufen, auch wenn es mich sehr in den Fingern juckt.
Der Teil ist schon mal besser gelaufen als bei Helldivers2, aber angeblich sollen alle Vorbestellungen des Spiels in den Ländern ohne PSN Service kurz vor Release storniert worden sein, bei Steam, Epic und GMG.
Weiß jemand näheres dazu? Anscheinend kann das Spiel in diesen Ländern trotzdem noch gekauft werden.
 
SVΞN schrieb:
Ein Grafik-Blockbuster sollte auf einer GeForce RTX 4090 in 4K/UHD mit 60 FPS laufen, mehr Frames und weniger Verbrauch durch DLSS oder gar doppelte FPS durch Frame Generation sollte dann ein nettes Extra und für jeden der mag optional sein.

hierzu hätte ich eine Frage.
Also ja DLSS senkt den GPU Verbrauch etwas aber ich hatte in Erinnerung, dass nun der CPU Verbrauch ansteigt.
Ich hab nun kein Werte aber wäre dies an sich nicht eine 0 Rechnung?
Sprich das was ich bei der GPU einspare gönnt sich nun die CPU.

Wäre super wenn dies einer erklären könnte 😊
 
lSonicXl schrieb:
Also ja DLSS senkt den GPU Verbrauch etwas aber ich hatte in Erinnerung, dass nun der CPU Verbrauch ansteigt.
der Gpu verbrauch sinkt nur wenn du einen fps limitter einsetzt und das limit erreichst, oder durch die höheren fps in ein cpu limit läufts. wenn du jetzt in ein cpu limit läufts durch höhere fps, dann hast du natürlich einen höheren verbrauch bei der cpu da sie mehr arbeiten muss. Allerdings verlangt eine Gpu meisst mehr strom als eine cpu. Von daher ist es wahrscheinlich keine null rechnung.

du kannst das auch ganz einfach an deinem pc testen. nimm ein spiel welches mit limitter läuft. und schau dir den verbrauch am PC an. jetzt reduzierst du einfach die Auflösung. und schwupps sparst du strom.

Dlss macht eigentlich nix anderes nur das es mit einem Algorithmus und der nvidia Hardware eine rekonstruktion macht, so das am ende die kleinere Auflösung die Qualität der höheren(nativen) Auflösung entspricht. dadurch wird natürlich etwas strom benötigt von der Gpu. das heisst ohne dlss könntest du vielleicht etwas mehr strom sparen (wieviel keine ahnung) aber du hättedt nunmsl eine schlechtere Bildqualität.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und lSonicXl
Merkt ihr denn allgemein (unabhängig von GoT) große Unterschiede zwischen "hoch" und "sehr hoch" oder gar "Ultra"?

Ehrlich gesagt, kann ich mich gar nicht mehr erinnern; wann ich jemals auf "sehr hoch" oder "ultra" gestellt habe. Ausnahme bildet dabei für mich nur die Texturqualität.

Für mich selbst, war der sichtbare Nutzen ohne aktivierten RT, dabei oftmals eher marginal (in eigentlich allen Spielen); da ich dies bis auf gemachte Screenshots, im alltäglichen Spielgeschehen gar nicht mitbekommen habe. Dafür ist die Leistung auf Sehr hoch/Ultra mit meinen bisherigen Mittelklasse-Karten eigentlich so gut wie immer massivste eingebrochen.

Daher verfahre ich schon seit paar Jahren so, das ich in den Presets nur auf "hoch" stelle & unerwünschtes abstelle (Motion Blur, DOF und son Kram). I.d.F. hoffe ich dann mit FSR/Xess in 4k die 60fps zu erreichen, was wiederum in den allermeisten Fällen auch sehr gut klappt.

GoT ist eigentlich das perfekte Beispiel wo ich bisschen Sorgen hatte das ich die 60FPs nicht erreiche. Jedoch sind diese locker mit "hoch" drin. Während ich bei "Sehr hoch" einen absoluten Leistungsabfall zu verzeichnen habe, aber wenig von einer merklich, verbesserten Bildqualität bemerke.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: SweetOhm, Vigilant und Kuristina
Ehrlich gesagt ignoriere ich die Presets meistens und schaue mir selbst an, was welchen optischen Effekt hat und wie das die Performance beeinflusst. Häufig ist es schlicht so, dass max. Regleranschlag ein mieses "Optik-/Leistungsverhältnis" hat.

Im Falle von GoT sind das zwei Regler eine Stufe runter. Dafür dann aber DLDSR 4K auf WQHD, DLSS Q und VSync 1/2 auf 82 FPS. Die sind dann aber auch fixed, die Optik prima und das Gameplay jederzeit smooth.
 
  • Gefällt mir
Reaktionen: SweetOhm und Paul Mazdak
Paul Mazdak schrieb:
Merkt ihr denn allgemein (unabhängig von GoT) große Unterschiede zwischen "hoch" und "sehr hoch" oder gar "Ultra"?
ich schaue mir immer die fps mit ultra und medium an und schaue welcher grafikregler die grössten leistungseinbussen erzeugt und stelle daran meine gewünschte qualität/fps ein.

und danach stelle ich auf die igpu um schaue wie fps mit low/ultra low sind und man mit welchen einstellungen ich das Spiel spielen könnte.
 
  • Gefällt mir
Reaktionen: SweetOhm und Paul Mazdak
Kuristina schrieb:
(...)
Ja, eben. Deswegen konnten einige nichts mit den Ergebnissen von Wolfgangs Konfiguration anfangen und schauen halt auch bei anderen Quellen, nach anderen Benchmarks. Ist doch alles in Ordnung. Jeder schaut da, wo er am besten für sich selbst nützliche Informationen herausziehen kann.
Nein, eben nicht 🙄.
Es tut mir leid, aber wenn du glaubst man könnte aus Benchmarks wegen unterschiedlicher absoluter Werte unterschiedlichen Nutzen ziehen, andere Informationen gar, verstehst du die gesamte wissenschaftliche Methode nicht.
Kann ich nicht anders sagen. Du kannst es glauben oder nicht, aber ich empfehle einiges an Literatur zum Thema "wissenschaftliche Methode".
Mir musst du ja nicht glauben.
 
  • Gefällt mir
Reaktionen: SweetOhm
Du bist da gedanklich ganz woanders. Lass gut sein. Ich weiß schon, wonach ich schauen muss. 🙂
 
Wolfgang schrieb:
Es kommt die neuste Version 1.3 mit den neuen Presets zum Einsatz.
Ich habe mit da einfach in Ultra HD den Performance-Modus angesehen und das sah halt weder in der DP4a- noch in der MXM-Version besser als FSR aus. Warum sollte ich da also XeSS mit in den Vergleich ziehen, was den Arbeitsaufwand - der übrigens sehr hoch für Bildqualitätsvergleiche jeglicher Art ist - nur noch mehr erhöhen würde.

Und ja, darum interessiert uns XeSS eben auch nur oberflächlich. Wenn es von den 2 großen Konkurrenten in dem Spiel bessere Lösungen gibt, interessiert eine dritte Variante für schlussendlich nur sehr wenige Spiele eben keinen. Das ist genauso wenn zum Beispiel in einem UE5-Spiel DLSS, FSR und TSR unterstützt werden, DLSS und TSR klar besser aussehen als FSR, nun dann interessiert eben auch FSR keinen

mir stellts auch heute noch Haar- und Zehen-Nägel auf wenn ich das lese, sorry... (anderen gehts dafür vielleicht mit meiner Textwand so :) )

..dir ist schon bewusst, wie das wirkt? (auf mich.. und vielleicht auch andere Leser / Interessierte )

Für mich liest sich das da oben eigentlich wie

"Upscaler 1 sieht einfach besser aus wie Upscaler 2, weil ich (@Wolfgang) es so sage, drum ist es so, und drum interessiert es keinen anderen "

na zum Glück gibt's auch andere Leute die da nicht so in einer Schiene denken, ohne Links, Rechts, auch mal bisschen über Tellerand, und so..

Es wirkt diesmal einfach unprofesionell, überhastet, halbherzig,

bzw schwingt extrem! viel persönliche Bias mit. Das meine ich, heraus zu lesen. Warum eigentlich ? ;)
hat man dich nächtelang gezwungen, dir ein und dasselbe Bild-Material zur ersten XeSS Version 1.0 anzugucken? Oder hat man dir Arc GPUs hinterher geworfen? ;)

Nein ich weiß schon, du durftest Intels frühe Treiber dazu testen, schon klar.. Da fühle ich mit dir, mir gings ähnlich. aber ansonsten kann ich kein Verständnis für dich aufbringen.

vielleicht ist Blau halt einfach nicht deine Farbe, da kommst du scheinbar nicht drüber hinweg, kann man nix machen dann ;)

PS: warum überhaupt Benchmark Diagramme mit akkuraten Diagrammen erstellen und FPS Werten / Prozentangaben, und der Namen der einzelnen GPUs?
Spart euch doch die Mühe, macht beim nächsten Spiele Benchmark nen Artikel mit der Überschrift "RTX 4090 is am schnellsten, alles andere langsamer" und fertig.

Dann spart ich euch tatsächlich mehr als nur ein paar Sekunden, die es gedauert hätte,

die zusätzlichen Screenshots mit XeSS zu erstellen und irgendwie irgendwo gleich mit hochzuladen oder wenigstens nach zu reichen, oder wenigstens ein zwei Sätze mehr darüber zu verlieren...

Ich frage also nochmal, dann geb ich's auf, es ist eh zwecklos fürchte ich..

CB wirkt nicht zuletzt auch dadurch abermals ein Stück unglaubwürdiger/weniger integer/unsachlich/unprofesionell/uninterssant/irrelevant :

WARUM sieht XeSS in dem Spiel DEINER Meinung nach schlechter aus?
bzw ist es zu keinem Zeitpunkt eine gute Wahl / Alternative ?
WAS sieht schlechter aus?
und WIESO sollte XeSS uninteressant sein, nur weil es weniger Spiele dafür gibt?

Denn gerade in den "wenigen" Spielen ist es nämlich durchaus sehr oft eine gute Alternative zu FSR,
kommt halt auf die "persönlichen!" Präferenzen an, und ist teils die bessere Wahl im vgl. zu FSR.. ja, manchmal auch auf nicht-intel = amd Karten, und via DP4a...

Warum ich auch in Ghost of Tsushima trotzdem noch XeSS (meistens!) bevorzuge, hab ich im Community Bench Thread kurz angedeutet, nachdem ich mir dann kurzschlussartig das Spiel doch gleich selber zugelegt hatte, nach eurem Nicht-Testen-Wollen bzw dem Kommentar oben der danach auch nicht weiter half.

Auch TechPowerUp hatte zuerst noch nichts, geht nun im neuen Artikel aber auch darauf ein, mit einem eigenen Absatz, und drückt es dabei evtl besser aus als ich:

Am Ende hat man dort auch noch ein Vergleichs-Video dazu, vielleicht merkt man es dort besser bzw kann es erahnen..
https://www.techpowerup.com/review/ghost-of-tsushima-dlss-vs-fsr-vs-xess-comparison/
Ghost of Tsushima's game world is surrounded by different varieties of trees and vegetation, many of which are always in motion due to a dynamic wind system and other weather effects. In this game, FSR 3 is the only upscaling solution that struggles to retain details in moving vegetation, resulting in shimmering and pixelation. However, the amount of shimmering in motion is still lower when compared to the native TAA solution or other FSR implementations that we've tested previously, and the shimmering is most visible at low resolutions, such as 1080p. The FSR 3 image also has a degraded quality of particle effects, such as fire effects or waterfalls, and the typical disocclusion artifacts with pixelation in motion are also present, especially around Jin when moving through the world or during combat. Running FSR 3 in "Native AA" mode will reduce the visibility of these artifacts, but unfortunately won't eliminate them completely. On the other hand, XeSS in its DP4a mode handles all of these small details much better, producing a very stable image in motion, however, because of the major difference in the developer set sharpening filter values between FSR 3 and XeSS, the overall softness of the XeSS image in this game may not be very appealing for some people.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, CadillacFan77 und Paul Mazdak
Benjamin_Blume schrieb:
wer's noch nicht kennt: ZOCKT ES! LOHNT SICH! :)Atmosphärisch eines der Highlights.
🙏

Benjamin_Blume schrieb:
Und was noch auffällt bzw hatte das Thema erst neulich mit einem Bekannten:
AMD Grafikkarten sind wirklich nur "back catalogue" Karten, also für alte Spiele gut geeignet, für aktuelle Engines eher nen Flop. v.a. bei Raytracing und Reconstruction.
Habe gehört das FSR 3 FG nicht so gut wie DLSS FG ist aber so schlimm? BTW das Game hier hat gar kein RTX? Warum erwähnt man das dann?

Benjamin_Blume schrieb:
Alles was dafür optimiert war, läuft auf "aktuellen" Radeons sehr gut. Alles was danach kam, eher meh. Kann man echt nicht mehr empfehlen.
Aso deshalb laufen die Radeons hier sehr gut😂 #alteengine
 
lynxx83 schrieb:
Für mich liest sich das da oben eigentlich wie

"Upscaler 1 sieht einfach besser aus wie Upscaler 2, weil ich (@Wolfgang) es so sage, drum ist es so, und drum interessiert es keinen anderen "

[...]

Am Ende hat man dort auch noch ein Vergleichs-Video dazu, vielleicht merkt man es dort besser bzw kann es erahnen..
https://www.techpowerup.com/review/ghost-of-tsushima-dlss-vs-fsr-vs-xess-comparison/

Fand ich als Begründung leider auch schwer nachvollziehbar. :(

Der Performance-Mode von Xess 1.3 lässt sich m.M.n. sowieso schwer mit FSR Performance vergleichen.
Durch die Skalierungsänderung seitens Intel auf 2,3 (statt wie bisher 2,0), wäre i.d.F. der Modus: XeSS (1.3) Balanced der ´korrektere´ Bildvergleich gewesen.

Größtes Problem bleibt die Unschärfe, wo man nachjustieren sollte. Dafür ist mit 1.3 die auftrende Ghosting/Schlierenbildung (im Vergleich zu Xess 1.2/FSR 2.1/FR2.2) deutlich reduziert worden.

An anderer Stelle hatte ich ja schon mal geschrieben, das Xess 1.3 sehr stark zugelegt hat.
Mein Eindruck ist (zumindest aus den Videos), das es schon sehr, sehr nah an DLSS inzwischen rankommt.

In allen Spielen, die ich besitze und wo der Austausch der libxess.dll möglich ist, nutz ich z.Bsp. nur noch Xess 1.3, statt FSR(2.1/2.2).

Dies jedoch im Ultra-Quality-Mode; welcher FSR Quality seit neuestem entspricht. Beide besitzen dabei den selben Skalierungsfaktor.

CP2077:
Mit einem der letzten Patches wurde m.M.n. FSR ziemlich verhauen (und ich fand eine der älteren Varianten besser). Mit Xess habe ich so gut wie keinen Moire-Effekt mehr (Zäune). Auch die Straßenlaternen flackern nicht mehr ab und zu. Also dieser Treppeneffekt bzw. das leichte aubblitzen ist so gut wie verschwunden. Das Ghosting beim Fahren, welches ich mit FSR2.1 bzw. 2.2 hatte ist ebenfalls nicht mehr da. Allgemein erscheint mir das Bild insgesamt laufruhiger.

SM Miles Morales:
Im Startbildschirm hat Morales so eine Jacke mit Fell an. Mit FSR verpixelt dieses leicht, während ich mit Xess 1.3 eine starke Verbesserung im Direktvergleich bemerke. Auch hier finde ich das Straßenbild beim schwingen mit Intels Variante ebenfalls deutlich laufruhiger.

Witcher 3:
Mit Xess 1.3 ist die Vegetation nochmals um einiges beruhigter; auch wenn FSR2 schon gute Dienste leistet. Bei Windmühlen in der weiten Entfernung, "verkanten" nicht mehr die Windräder.

HFW:
Die Wasserdarstellung bzw. die dort stattfindenden Reflexionen scheinen mit FSR2 desöfteren zu verpixeln. Bzw. das Icon für Pflanzen/Sammelbares zeigt ein ähnliches Verhalten.

Mit Xess 1.3 habe ich das nicht mehr. Wichtiger aber der Umstand, das ich nicht mehr diesen "Sternschnuppen"-Effekt bei Insekten/Pollen haben. Letzteres hat mich tatsächlich bisher immer massivst gestört. Aloy "verschmiert" mir auch nicht mehr so beim rennen.

An der Stelle gibts auch ein gutes Vergleichsvideo auf YT:

Minute: 0:09, 0:26 und und 0:51

Den größten "Nachteil", den ich für mich bisher entdeckt habe, war das im Gegensatz zu FSR2 oftmals bzw. so gut wie immer manuell nachschärfen muss. Ein Umstand mit dem ich aber sehr gut leben kann.

PS:
An der Stelle möchte ich jetzt nicht Xess 1.3 als das Alllerheilmittel hochloben. Selber besitze ich nur leider kein Spiel, wo FSR2.2 im Vergleich mit Intels aktueller Variante besser wäre -weswegen mir an der Stelle auch der gegenteilige Eindruck fehlt.

Im Direktvergleich mit FSR 2.1/2.2 sehe ich Xess für mich jedoch derzeitig als "Gewinner";
insofern man kein DLSS benutzen kann.

Ghost of Tsushima ist hierbei so eine Art Zwischending.
FSR3 ist hier zwar merklich besser geworden, trotzdem bin ich inzwischen (mangels NVidia Graka) wieder auf Xess zurück gewechselt.

Das von @lynxx83 verlinkte Video zeigt eigentlich auch mein "Problem" mit FSR3.
Die Schmetterlinge bzw. diese weißen Gräser(?) geben auch weiterhin mal gerne "Schlieren" ab.

Im Hintergrund bei den Bäumen, die Blätter - welcher vor allem in Bewegung gerne mal zu "flackern" beginnen. Für mich gibt es beim Upscaling tatsächlich nichts nervigeres als dies.

Solang hier Xess besser in der Bildstabilität ist und AMD nicht mit 3.1 ggf. nachbessert, sehe ich nicht nur NVidia´s DLSS als größte Konkurrenz an, sondern tatsächlich Intel.

Gerade aus o.g. Gründen, hätte ich mir gerne in jenem Test einen kurzen Blick von Computerbase auf Intel s Upscaling gewünscht. :)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: SweetOhm und lynxx83
Paul Mazdak schrieb:
In allen Spielen, die ich besitze und wo der Austausch der libxess.dll möglich ist, nutz ich z.Bsp. nur noch Xess 1.3, statt FSR(2.1/2.2).
da muss man aber auch schauen, besonders bei niedrigen Auflösungen. Da in den spielen die alten presets enthalten sind ändert sich da der skalierungsfaktor so das dass ergebnis eher schlechter als besser ist. Jagged Allianz 3 ist so ein bespiel.

Ich hatte damals bei starfield eher Xess benutzt als FSR. Weil das spiel native TAA einfach flimmerte an vielen stellen. Das konnte FSR leider nicht beheben. Nach taa im Spiel gefixt wurde bin ich wieder bei FSR3 gelandet.
 
  • Gefällt mir
Reaktionen: SweetOhm
Wolfgang schrieb:
(very, very soon)
Mal eben den Ticker, nach dem nächsten Gaming-Bench checken.. ;) 😂🤣

Und btw: Bald hast du mich so weit, dass ich mir doch keinen WQHD, sondern einen UHD Monitor hole. :D
Aber dann wenigstens kein Riesending, sondern eher so um die ~ 32". Du weißt ja, wegen der PPI. ;)

PS: Muss erst mal irgendwas zocken, um den Kopf frei zu kriegen. Habt n schönen Tag @ all!
 
  • Gefällt mir
Reaktionen: SweetOhm
Kommen noch Benchmarks ohne Frame Generation FSR / DLSS? Oder bin ich einfach blind? :D
 
Zuletzt bearbeitet:
devanet schrieb:
Kommen noch Benchmarks ohne Frame Generation? Oder bin ich einfach blind? :D
Seit wann ist DLSS/FSR Quality Frame Generation?

Mit einer 2060 und Dlss Q geht auf jeden Fall noch hohe Settings
 
Zuletzt bearbeitet:
Zurück
Oben