• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077: Mod bringt Unterstützung für AMD FSR 2.0

Ja, eine 1080 ist definitiv noch stark genug.

Es kommt wie gesagt auch stark darauf an, wie viel FPS man in einem Spiel hat.
In Spielen wo man mit einer schwachen GPU, bei der der Algorithmus länger braucht, trotzdem generell hohe FPS hat, kann es zum Nachteil werden.
Da aber meistens schwache GPUs auch niedrige FPS und damit hohe Frametimes haben, fällt es hier dann auch nicht so stark ins Gewicht und man bekommt trotzdem mehr Performance raus.
 
  • Gefällt mir
Reaktionen: NMA
Gibt zurzeit selbst nach Veröffentlichung kaum Spiele, die FSR 2.0 jetzt implementiert hätten.

Schad irgendwie.
 
  • Gefällt mir
Reaktionen: Kirschgeschmack
Dominicus1165 schrieb:
Da ich halt nen G-Sync Monitor 1-144hz (echter G-Sync Modul) habe, ist es ab circa 30 fps absolut spielbar und "butter"weich.
G-Sync behebt lediglich Tearing also Bildrisse bei Bewegung und verringert den Input Lag gegenüber V-Sync
aber am Ruckeln durch eine zu geringe Framerate, wozu ich 30FPS definitiv zähle, kann G-Sync Nichts ändern.
Statt Geld in ein G-Sync Modul zu verschwenden, sollte man lieber in eine stärkere Grafikkarte investieren. :daumen:
 
  • Gefällt mir
Reaktionen: paccoderpster, FLCL und Otsy
0ssi schrieb:
Statt Geld in ein G-Sync Modul zu verschwenden, sollte man lieber in eine stärkere Grafikkarte investieren. :daumen:
Ich will hier jetzt nicht G-Sync-fanboyen, aber das ist Quatsch. G-Sync sorgt seit Jahren bei mir dafür, dass ich eben keine 3090 brauche, um in fast-4K butterweich zu zocken.
 
  • Gefällt mir
Reaktionen: end0fseven
0ssi schrieb:
G-Sync behebt lediglich Tearing also Bildrisse bei Bewegung und verringert den Input Lag gegenüber V-Sync
aber am Ruckeln durch eine zu geringe Framerate, wozu ich 30FPS definitiv zähle, kann G-Sync Nichts ändern.
Statt Geld in ein G-Sync Modul zu verschwenden, sollte man lieber in eine stärkere Grafikkarte investieren. :daumen:
Das ist falsch. Gsync verhindert Ruckeln, kein Tearing. Gegen Tearing hilft FPS an die maximale Frequenz des Monitors limiten
 
  • Gefällt mir
Reaktionen: BlueBringer und ChrissKrass
Eidgenosse schrieb:
Gibt zurzeit selbst nach Veröffentlichung kaum Spiele, die FSR 2.0 jetzt implementiert hätten.

Schad irgendwie.
Bei laufenden Projekten dauert das gerne sehr lange.
Auch wenn man z.B. schon DLSS drin hat und die Implementierung 3 Tage dauern würde, wird mit sowas meist gewartet, bis sowieso ein größerer Patch ansteht und da kommt es dann rein. Wenn das in 3 Monaten ist, dann ist es eben in 3 Monaten.

Und auch bei neuen Spielen, die in den nächsten 6-12 Monaten rauskommen und wo evtl schon DLSS eingeplant ist, wird dann oft erst mal so released wie geplant und sich dann um neue Features gekümmert, anstatt dass man jetzt noch irgendwas zusätzlich implementiert.
 
  • Gefällt mir
Reaktionen: DrDeadlift und Eidgenosse
Eidgenosse schrieb:
Gibt zurzeit selbst nach Veröffentlichung kaum Spiele, die FSR 2.0 jetzt implementiert hätten.

Schad irgendwie.
Vor der Veröffentlichung lässt es sich ja auch schlecht implementieren.

Ich denke mal, dass jetzt sukzessive weitere Implementierungen folgen. Für den Moment finde ich die Entwicklung okay. Wichtig wird insbesondere, dass FSR 2.0 den Weg in künftige Spiele findet und möglichst keine DLSS only Titel mehr kommen.
 
  • Gefällt mir
Reaktionen: DrDeadlift, AssembIer, up.whatever und eine weitere Person
Eidgenosse schrieb:
Das ist falsch. Gsync verhindert Ruckeln, kein Tearing. Gegen Tearing hilft FPS an die maximale Frequenz des Monitors limiten
Tearing kann immer entstehen, wenn die FPS der GPU und die Frequenz des Monitors nicht übereinstimmen.
VSync eliminiert daher Tearing, nur dass man hier eben auf eine fixe Frequenz beschränkt ist und man dadurch, dass die GPU viel warten muss, auch einen hohen Input Lag hat.
Das wird mit Gsync und Freesync angegangen, indem die Hz immer dynamisch gleich mit den FPS gehalten werden und so ebenfalls kein Tearing entstehen kann.

FPS an die maximale Frequenz des Monitors limitieren alleine hilft ohne Sync auch nicht, da die Frametimes trotzdem nie so glatt sein werden, dass es synchron läuft. Daher, wenn man die FPS des Monitors in jedem Fall übertreffen kann hilft VSync ohne allzu großen Input Lag und wenn man das nicht kann, eben lieber adaptive Sync.

Ohne Synchronisation hilft gegen Tearing nur, eine so hohe Monitorfrequenz wie möglich zu haben.
Mit >500Hz Monitoren wird es Adaptive Sync auch nicht mehr brauchen, da man bei solch hohen Frequenzen kein wirkliches Tearing mehr wahrnehmen kann, obwohl es ständig auftreten wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tulol, Khalinor, fgordon und 8 andere
Taxxor schrieb:
Dass die fixe Zeit, die in jedem Frame für den Algorithmus gebraucht wird, zu hoch ist, als dass man damit am Ende noch einen FPS Gewinn erzielen könnte.
Je nachdem, in welchen FPS Bereichen man sich bewegt, können diese sogar runter gehen.
Ist bei max. 60fps aber unproblematisch, oder?
 
Suspektan schrieb:
Ist bei max. 60fps aber unproblematisch, oder?
Ja, idR schon. Kommt natürlich auch auf die auflösung an, denn je niedriger deine native Auflösung, desto weniger Performance bringt die Reduzierung.
Dann kann man sich irgendwann auch überlegen, ob die Mehrperformance hoch genug ist, dass es sich lohnt.

Wenn du 50FPS in 1080p hast, dann wirst du mit FSR Quality vielleicht 20% durch die Reduzierung der Auflösung bekommen, das wären dann 60FPS.
Wenn deine GPU nun 1.5ms für FSR benötigt, bist du schon nur noch bei 55FPS, wenn sie 2ms benötigt nur noch bei 53FPS
 
Beitrag schrieb:
Wie gut lässt sich Cyberpunk denn mit sowas wie einer GTX 1080 in WQHD noch spielen, nativ ohne Upscaling?
Da würde FSR 2 sicher ordentlich was zu einer besseren Spielbarkeit beitragen.
Ganz ok.
Ich hatte das letztes Jahr gemacht.
Selbe Karte selbe auflösung. Habe mich am Performance Guide irgendwo im Internet orientiert.
Welcher genau weiß ich nicht mehr.
Aber 60fps waren manchmal drin. Die Bugs waren schlimmer als die Performance.
 
Taxxor schrieb:
Wenn deine GPU nun 1.5ms für FSR benötigt, bist du schon nur noch bei 55FPS, wenn sie 2ms benötigt nur noch bei 53FPS
Die genannten Framerateverluste gehen von 16ms Frametime aus, was aber zunächst doch nur eine reine Haltedauer der Bildanzeige darstellt und voraussetzt, dass keine (zeit)Reserve zur Bildberechnung mehr zur Verfügung steht.
Also so hab ich es zmdst. verstanden
 
@Taxxor aber müsste eine niedrigere Auflösung nicht auch die Rechenlast und damit die Rechenzeit des FSR Algorithmus verringern? Weniger Inputpixel, weniger Outputpixel = weniger Rechenaufwand?
 
Suspektan schrieb:
Die genannten Framerateverluste gehen von 16ms Frametime aus, was aber zunächst doch nur eine reine Haltedauer der Bildanzeige darstellt und voraussetzt, dass keine (zeit)Reserve zur Bildberechnung mehr zur Verfügung steht.
Also so hab ich es zmdst. verstanden
Die Zeitangaben sind absolut. Ob du 10ms Frametimes oder 20ms Frametimes hast, die Zeit für FSR ist immer ziemlich genau die gleiche.
Von 1.5ms ausgehend, wenn du nach Auflösungsreduzierung also auf 10ms landen würdest, hast du mit FSR 11.5ms (-13FPS/13%), wenn du bei 20ms landen würdest, hast du mit FSR 21.5ms(-3,5FPS/7%)

In der FSR Demo hab ich in der Szene "Sponza" z.B. bei ~210FPS mit FSR 2.0 Quality ~460µs für FSR, in der Szene "AbandonedWarehouse" habe ich bei ~875FPS ~454µs.

FSR nimmt mir also in beiden Szenen ca 0.46ms weg.
In der ersten Szene entspricht das 20FPS, in der zweiten Szene sind es ca 590FPS^^

guggi4 schrieb:
@Taxxor aber müsste eine niedrigere Auflösung nicht auch die Rechenlast und damit die Rechenzeit des FSR Algorithmus verringern? Weniger Inputpixel, weniger Outputpixel = weniger Rechenaufwand?
Das ist korrekt, aber wenn wir über langsame Karten reden, dann hätten diese halt nochmal höhere Werte in 1440p^^
Der Zeitaufwand wird übrigens geringer, wenn man mit der Qualität runter geht. Ich hätte eigentlich gedacht je mehr Unterschied zwischen Render und Zielauflösung ist, desto länger dauert es, aber es ist tatsächlich einfach so, dass es bei gleichbeleibender Zielauflösung weniger Zeit braucht, je geringer die Renderauflösung ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, Baal Netbeck und rumpeLson
Beitrag schrieb:
Wie gut lässt sich Cyberpunk denn mit sowas wie einer GTX 1080 in WQHD noch spielen, nativ ohne Upscaling?
Ich hatte eine Vega56 auf UWQHD (+30% mehr Pixel) mit optimierten Settings und Upscaling (CAS 85%) bei um die 40 FPS laufen. Es war nicht optimal, aber ok. Leider hat FreeSync nix gebracht in dem Bereich und ich musste V-Sync auch zuschalten.

Eine 1080 wird in WQHD sogar noch einen Tick besser abschneiden und würde vmtl. auch von FSR2 profitieren, Tick weniger Leistung aber bessere Bildqualität.
 
hab das Spiel erst vor 2 Wochen installiert aber ich bin unfassbar begeistert
Mag daran liegen, dass der letzte Patch wohl alle Probleme ausgeräumt hat
Diese Welt und diese Details, unfassbar
 
  • Gefällt mir
Reaktionen: Kuestennebel79
Eidgenosse schrieb:
Das ist falsch. Gsync verhindert Ruckeln, kein Tearing. Gegen Tearing hilft FPS an die maximale Frequenz des Monitors limiten
Da hast du entweder das Nvidia Marketing zu Ernst genommen oder verwechselst Etwas.
G-Sync ist eine Bildsynchronisation also werden die Hz des Monitors an die FPS angepasst.
Das ist nötig um Tearing zu vermeiden denn ohne Bildsynchronisation gibt es eben Bildrisse.

Auch ohne Bildsynchronisation hat man keine Ruckler also gibt es keine Ruckler zu verhindern.
Lediglich mit klassischen V-Sync gibt es Ruckler bzw. Drops wenn man weniger FPS als Hz hat.
30FPS bleiben 30FPS und ruckeln immer wegen der geringen Framerate also auch mit G-Sync.
 
  • Gefällt mir
Reaktionen: Rassnahr, Taxxor, Apocalypse und 3 andere
Taxxor schrieb:
Von 1.5ms ausgehend, wenn du nach Auflösungsreduzierung also auf 10ms landen würdest, hast du mit FSR 11.5ms, wenn du bei 20ms landen würdest, hast du mit FSR 21.5ms
Ok, aber erst wenn ich in ein bestimmtes Limit laufe, reduziert sich die Framerate mit fsr.
Also bei 60 fps wird es wohl bei max. 16ms bzw. real irgendwo darunter liegen, wenn man jetzt jegliches Framebuffering außen vor ließe.
 
Suspektan schrieb:
Ok, aber erst wenn ich in ein bestimmtes Limit laufe, reduziert sich die Framerate mit fsr.

Dann auf jeden Fall, wenn du z.B. ein CPU Limit bei 80FPS hast und schon bei 75FPS bist, dann pusht dich FSR nur auf maximal 80, und danach wird die Zeit für FSR wieder abgezogen und du kannst unter 75 landen.
 
Zurück
Oben