News Forbidden West, Spider-Man & Co: AMD FSR 3.1 per Update für viele Games von Sony verfügbar

Taxxor schrieb:
Du hast aber außer bei FSR1.0 nicht weniger sondern mehr Bildinformationen, zumindest auf der Quality Stufe. Die Artefakte kommen ja nicht daher dass du zu wenig Informationen hast, sondern dass diese Informationen aus mehreren Frames zusammengestellt sind und die Qualität dadurch bestimmt wird, wie gut die einzelnen Techniken die für das aktuelle Bild am besten geeigneten Pixel auswählen
Die Artefakte kommen je nachdem von ganz was anderem, wie du es sagt, wie gut die einzelnen Techniken bzw deren Algo(s) in Teilen oder als Ganzes funktionieren, bzw welches Pixel quasi dann (bzw) wann gewählt wird ..

aber ansonsten, wie meinst du das denn nun wieder, jetzt steh ich auf dem Schlauch :)

denn selbst auf "Quality" Stufe,

hat man als "Ausgangsbasis" beim alten XeSS bisher und FSR auch jetzt immer noch,
"weniger" Pixel (Pro Bild) zur Verfügung, "nicht mehr" :

kommt bzw kam doch hier zB. Fakor 1.5 zum Einsatz, und so werden eben dann aus "nur" 2540x1440 pixel dann plötzlich am Ende wieder 3840x2160 ..

das meinte ich mit "weniger Bildinformation" als Quelle,

ist vielleicht mit missverständlich ausgedrückt,

es kommen aber eben andre Dinge als "Hilfestellung" hinzu, wenn man so will (kann man das so sagen?)... etwa Jitter Offset, Motion Vector Data, Color Input, MIP/LOD Bias etc..

das sind viele zusätzliche Daten bzw Variablen/Parameter,
mit denen idealerweise nicht nur der Upscaler "intern" was sinnvolles anzufangen wissen sollte,

sondern eben diese auch teilweise vom Spiele-Entwickler vorab berücksichtigt / richtig gesetzt werden sollten bzw müssen, damit auch was vernünftiges am Ende dabei raus kommt.

Und gegenüber FSR hatten nun mal allein aus (Hersteller) technischer Sicht DLSS und XeSS bisher einen deutlichen Vorteil gegenüberzugunsten der Bild-Qualität / temporalen Stabilität

Letzters (nicht nur, aber auch) eben spätestens seit XeSS 1.3 (vs FSR) selbst auf "nicht-Arc" GPUs via DP4a,
und FSR3.x gleichermaßen nun auch auf "nicht-radeon" Karten wie Intels Arc.

Imho bleibt halt immer trotz allem jeweils ein gewisser "trade-off",
bzw ist es ein Balance-Akt / Gratwanderung,
nicht nur für die Hersteller / Bereitsteller des jeweiligen Upscalers,

sondern auch gerade wie/wann/wo man diese verwendet, seitens der Spiele-Entwickler.

so sah ich- bzw hatte ich das bisher immer verstanden..

PS:
"natives" FSR 3.1 vs "natives" XeSS 1.3 , also Faktor 1, kein Upscaling, nur AA + was auch sonst noch dazu kommt,
kann bzw könnte man nun ja seit eher kurzem auch noch direkt vergleichen..

wenn es nur auch hier schon mehr Titel dazu gäbe ;)
 
Zuletzt bearbeitet:
@lynxx83 du hast ja nicht nur die Daten des aktuellen Bildes sondern die Informationen aus den letzten 30-50 Frames, die vom Algorithmus genutzt werden, deswegen heißt es ja temporales Supersampling.

Wenn du mit dem Quality Stufe 1440p als Renderauflösung nutzt, hast du für jeden der ~8Mio nötigen Pixel bei 4K Auflösung immer noch mehrere Daten, mit denen er gefüllt werden kann.
Und wenn der Algorithmus optimal arbeitet, dann bekommst du ein 4K Bild das deutlich genauer ist als ein natives 4K Bild, nicht nur subjektiv besser.


Also kurz: Wenn du einen 4K Monitor hast, dann stehen hinter einem DLSS/FSR/XeSS Quality Bild mehr Informationen hinter der Erstellung der 8Mio Pixel, als bei nativem 4K
 
Zuletzt bearbeitet:
Ich bin aktuell kein großer fan von dem Kram. Klar, hat starke Vorteile und beide Techniken versprechen viel. Vernünftig verfügbar für alle und ordentlich eingebaut werden muss es. Sprich flächendeckend. So is das immer nur n Entweder A oder B gewurschtel. Und das es dann dem Entwickler frei steht eins von beiden oder beides einzubauen und wie machts irgendwie nich besser.

Da bringen mir irgendwelche Demos zu für mich absolut uninteressanten spielen überhaupt nix. MS soll doch da auch irgendwas mit DX am arbeiten sein oder? Keine Ahnung obs das reißen wird.
 
Während ich "Hardware Unboxed" für einen der objektiveren YT-Kanäle halte, was Hardwaretest angeht (nicht jedesmal, aber oft) bin ich mit Tim öfter über Kreuz, was seine Bewertungen angeht.
Aber diesmal hat er einene ziemlich guten Beitrag über die Wichtigkeit von Monitoren gemacht, den ich weiterverlinken kann, weil das Thema Monitor doch unterschätzt wird.

Bei der Refreshrate stimmt ich Tim nicht zu, das hängt vom Anwendungsgebiet ab, schnelle Herz braucht man nur, wenn man Reflexspiele spielt, für Grand Strategie etc. zählt einzig die Bildqualität und in dem Bereich hat Refreshrate kaum einen Einfluss.

Seine Aussage in dem Video, das HDR mehr als Raytracing bringt, dürfte die RT-Liebhaber zum Kochen bringen, ich selber finde Aufwand und Ertrag bei RT auch in keinem Verhältnis und hab von meinem upgrade auf einen 4K-Monitor viel mehr gehabt.

Also, reinhören und sehen und vielleicht kann man sein gaming doch noch verschönern, ohne das man eine neue CPU braucht (wobei ich mir jetzt den 5700X3D für 205 Euro geholt hab), oder seine Niere für die 5090 vorverkauft.

Das Video:
 
  • Gefällt mir
Reaktionen: Czk666
HDR wäre ja ne tolle Sache, wenn es auch in den Spielen ordentlich eingebaut ist.
Ich hab mit meinem OLED schon so viele Settings durch was HDR angeht, aber so richtig zufrieden war ich bisher meistens nicht.
Wobei da auch die Monitore selbst mit reinspielen, alleine was ich bei meinem Samsung Odyssey hier alles einstellen kann.
 
Ja, eines ist leider wahr, ich hab auch 3 Tage bei meinem Monitor rumgefummelt, bis ich zufrieden war, weil die Presetts kompletter Mist waren.

Btw. scheint es beim Kauf neuer Monitore auch Stolperfallen zu geben, wenn bestimmte GPUs anscheinend gewisse Standards immer noch nicht unterstützen?
Bin grad über dies Video gestolpert und der Macher ranted ab über DSR das bei ihm nur läuft, wenn er seinen neuen LG Ultrawide Monitor gimped, weil seine kritisierte Karte kein Display Port 2.1 unterstützt, soweit ich das verstanden habe.
 
Mimir schrieb:
FSR3.1 scheint ziemlich viel Unschärfe und Ghosting/Schlieren ins Bild zu bringen. Zumindest bei den Spielen die ich getestet habe. Das ist teilweise echt durchwachsen.
Ich hab mir in Ruhe Ghost of Tsushima, Spiderman, Horizon Forbidden West und Ratched & Clank angeschaut und bin gemischter Meinung. leichte Verbesserungen was das Bröseln angeht und unterdrücktes Flimmern im Tausch gegen etwas mehr Ghosting und Unschärfe, bzw mehr Flimmern in Ratched und Clank. Einen Fortschritt gegenüber FSR 3 habe ich nicht gesehen.
up.whatever schrieb:
Also haben sie das Ziel erreicht, sich optisch an DLSS anzunähern? :lol:
DlSS hat deutlich weniger Schlieren und Ghosting. Insgesamt gesehen würde ich meinen eher nein. Mal schauen was noch für Implementierungen kommen.
 
Zuletzt bearbeitet:
Taxxor schrieb:
HDR wäre ja ne tolle Sache, wenn es auch in den Spielen ordentlich eingebaut ist.
Ich hab mit meinem OLED schon so viele Settings durch was HDR angeht, aber so richtig zufrieden war ich bisher meistens nicht.
Wobei da auch die Monitore selbst mit reinspielen, alleine was ich bei meinem Samsung Odyssey hier alles einstellen kann.

HDR ist in den meisten Spielen sehr gut umgesetzt.

Viele haben aber auch völlig falsche Vorstellungen.

Manche Leute haben z.B. in SDR nie den sRGB modus genutzt sondern irgendwas maßlos übersättigtes oder die Helligkeit in SDR auf 400-600 nits gestellt.

Wenn man das macht dann wird HDR natürlich erstmal ein Schock sein, weil HDR monitorseitig kaum Einstellungsmöglichkeiten bietet und die Basis eben ein korrekt kalibriertes Bild mit sRGB ist. Idealerweise mit ca 100-150nits paperwhite. HDR erweitert helligkeit und Sättigung dann nur an den Stellen im Bild wo es notwendig ist.

Wenn Tests auf RTINGs in HDR keine deutlichen Probleme aufzeigen, dann sitzt das Problem vorm Display. Bzw. dann bist du sehr wahrscheinlich schon in SDR ein völlig falsches Bild gewohnt.


Ich hab hier einen LG CX mit WOLED und einen AW3225QF mit QD-OLED.

Abgesehen davon, dass der QD OLED bei objekten mit sehr hoher Helligkeit einen tick mehr Farbtiefe hat wie auch von QD OELD zu erwarten sieht das Bild zu 99% identisch aus.

Also wenn du nen OLED hast dann liegts mit Sicherheit nicht am Display
 
Mimir schrieb:
Also wenn du nen OLED hast dann liegts mit Sicherheit nicht am Display
Wie gesagt ich kann alleine über die Monitoreinstellungen schon etliche Kombinationen auswählen die den HDR Look verändern und ich bei keine weis ich ob es jetzt so aussehen soll oder ob es falsch ist.

Einmal hat man eine Option für Max Helligkeit mit Aus-Mittel-Hoch, dann hat man GameHDR mit Ein-Aus dann hat man HDR10+Gaming mit Einfach-Erweitert.

Dann noch die Kalibrierung über Windows wo ich auch unterschiedliche Meinungen lese ob ich den Monitor auf 400 oder 1000nits Kalibrieren soll, das hängt dann wohl davon ab ob man bei max. Helligkeit Aus oder Hoch gewählt hat, sollte aber nicht in Verbindung mit HDRGame gemacht werden dann sollte es aus und auf 400nits kalibriert werden und so weiter…

Speziell bei cyberpunk kommt dann noch dazu dass ich hier ingame noch mal mehrere Optionen habe wo genau so manche Einstellungen in manchen Szenen besser aussehen, in anderen dann wieder schlechter.
Und das sich auch alles in Kombination mit den Monitoreinstellungen wieder verändert.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Aber da mal so als zwischen Frage: 4K ist gesetzt, 1440p und 1080p für euch da dann auch interessant?
Bitte noch 1080p testen.

In 1080p kann mich immer noch keiner der drei Upscaler überzeugen, daher sollten die Spiele-Hersteller auch immer die Möglichkeit vorsehen, nativ ohne Upscaler zu spielen.

Bei XeSS ist Aloy und das Wasser schärfer, aber was weiter im Hintergrund ist, wird bei FSR schärfer dargestellt.
Screenshot 2024-06-28 232728.png
 
Zuletzt bearbeitet:
Cerebral_Amoebe schrieb:
Bei XeSS ist Aloy und das Wasser schärfer, aber was weiter im Hintergrund ist, wird bei FSR schärfer dargestellt.
Das Überschärfen von AMD erzeugt deutliche Artefakte im Hintergrund. Und nicht nur da, man sieht sie im ganzen Bild verteilt. Mehr Details sind da nicht zu sehen. Um das mal zu veranschaulichen.
Fokus auf die Stirn und auf die Augen. "Details" werden hier durch Artefaktbildung (rechts) erzeugt, und die User glauben das Bild sei schärfer. In Wirklichkeit ist es mit dem Holzhammer nachgeschärft und eindeutig schlechter.
Artefaktbildung.PNG
 
Zuletzt bearbeitet:
Taxxor schrieb:
Wer sagt denn dass es nicht kommt?
Seit dem Release von fsr 3 im Dezember gab es glaube noch kein größeres Update

Patch note sind hier: https://cyberpunk.fandom.com/wiki/Cyberpunk_2077/Patches

Was mitgeteilt wurde war dass , das die Entwicklung eingestellt wurde.​


Cyberpunk 2077 Patch 1.61: Update liefert AMD FSR 2.1

und
"We are still working on the FSR3 support for Cyberpunk 2077."
Ergänzung ()

Taxxor schrieb:
HDR wäre ja ne tolle Sache, wenn es auch in den Spielen ordentlich eingebaut ist.
Ich hab mit meinem OLED schon so viele Settings durch was HDR angeht, aber so richtig zufrieden war ich bisher meistens nicht.
Wobei da auch die Monitore selbst mit reinspielen, alleine was ich bei meinem Samsung Odyssey hier alles einstellen kann.
Gerde Netflix ist immer zu dunkel.
 
Zuletzt bearbeitet:
Norebo schrieb:
Pixel werden in Pixel pro Inch (PPI) angegeben und die Fläche wäre halt Inch zum Quadrat.
Das deutsche Fachwort wäre wohl "Pixeldichte".
Ich will jemandem Bananen verkaufen und dann kommst du an und sagst uns das Bananen, Fachsp. Musa-Arten und -Sorten immergrüne, ausdauernde, krautige Pflanzen sind.
 
Quidproquo77 schrieb:
In Wirklichkeit ist es mit dem Holzhammer nachgeschärft und eindeutig schlechter.

Wo siehst Du hier Artefakte!? Es ist deutlich nachgeschärft... Natürlich sieht man bei entsprechender Vergrößerung dann mehr Pixel... :rolleyes:

Das hat aber nichts mit Artefakten zu tun.
 
Tulol schrieb:
Ich will jemandem Bananen verkaufen und dann kommst du an und sagst uns das Bananen, Fachsp. Musa-Arten und -Sorten immergrüne, ausdauernde, krautige Pflanzen sind.
Nun, nicht alle Bananen schmecken gleich gut, halten gleich lange und sehn gleich gut aus.

Ganz zu schweigen davon, das manche sich als Gurken herausstellen könnten...
 
Pleasedontkill schrieb:
Bin entäuscht, aber so ist das, wenn man belogen wird. NV käufer kennen das.
Apropo;
Sie hätten eben sagen sollen, :"bringen wir, wenn uns NV lässt."
Dann hätte ich gewusst, das es das verschmierte FSR2.x bleibt.
"bringen wir, wenn uns NV lässt"

Das wäre für AMD bestimmt die cleverste Aussage gewesen, gerade wenn man sich die DLSS / FSR Geschichte/Shitstorm bei Starfield mal anschaut. :rolleyes: :mussweg:

Aber ja, ich bin was FSR 3.x und Cyberpunk angeht genauso enttäuscht.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
Bitte liebes Sony:
FSR 3.1 noch als kleines Schmankerle für GOW1, HZD, DG, Uncharted und LOS Part 1 nachreichen.

Alles auch heute noch immer noch sehr tolle Spiele. Gerade die (inzwischen) ´älteren´ Teile, könnten die ein oder andere Upscaling-Frischzellen-Kur ganz gut vertragen. :)

PS:
Bin tatsächlich mehr als positiv überrascht wie FSR3.1 gegenüber FSR 2.2 nochmals merklich aufholen konnte. Vor allem in Spiderman bzw. MM merkt man einen starken Unterschied. In Quality FSR3.x flackern Gitter/Latternen um einiges weniger, als dies mit FSR 2.1/2.2 (Mod) der Fall war. Auch das Fell (Startsequenz, wo Miles in der UBahn steht) ist sowohl mit FSR 3.1/Xees 1.3 nochmals um einiges besser, als bisherige Upscaling Versionen.

In aktuellen Spielen ist es derzeitig für mich ein Kopf-an-Kopf rennen zwischen Xess 1.3 und FSR3.1. Beide performen für mich je nach Spiel/Sequenz inzwischen so gut, das die Unterschiede zur nativen Auflösung m.E vernachlässigbar sind oder nur das ggf. geschulte Auge etwaige Artefakte/Ghosting bemerkt. Find ich super. :)

PSS:
Zu DLSS kann ich leider (mangels nötiger Hardware) nichts groß sagen.
 
Zuletzt bearbeitet:
Casillas schrieb:
"bringen wir, wenn uns NV lässt"

Das wäre für AMD bestimmt die cleverste Aussage gewesen, gerade wenn man sich die DLSS / FSR Geschichte/Shitstorm bei Starfield mal anschaut. :rolleyes: :mussweg:

Aber ja, ich bin was FSR 3.x und Cyberpunk angeht genauso enttäuscht.
Eher nicht, war wie von Anfang an angenommen, Sturm im Wasserglas.

Wie die kleinen Kinder haben sich die Leute benommen!
Es wurde nichts versprochen und man war/ist nichts schuldig . Gleichzeitig wurde nachgeliefert, wobei FSR immernoch nicht gefixt ist.

Absolut respektloser Kindergarten da drausen, dem Anstand und Geduld fehlt!
 
Ersteindruck von Digital Foundry.

FSR 3.1 ist nach wie vor beRAUSCHEND. :p


Screenshot 2024-07-02 090923.jpg



Meine Meinung: Im Endeffekt bekommt man ein bisschen weniger Bildrauschen und etwas mehr Kantenstabilität für im Gegenzug deutlich verstärktes Ghosting und andere Nachzieheffekte, die vorher bei weitem nicht so ausgeprägt waren.

Würde das höchstens als Alternative zu FSR2.2 durchgehend lassen, aber nicht als Upgrade.
 
Zuletzt bearbeitet:
Zurück
Oben