Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsUpsampling: Vier von Fünf RTX-Spielern nutzen DLSS – auch auf CB?
4K ist auch zehn Jahre später was für Premium Gaming. 4K displays sind zwar weit verbreitet weil sie mittlerweile sehr günstig geworden sind...
Aber die dazu passende GPU ist weiterhin im Premium Segment verortet.
Upscaling kaschiert dies ein bißchen. Aber im Grunde genommen nutzen viele Leute ein Display das mindestens eine Klasse über der verwendeten GPU liegt.
Daher ist es auch kein Wunder das Upslcaing immer populärer wird
FSR ist in 4k fast schon Pflicht für mich. Wenn eine Spielschmiede die Implementierung vergeigt hat, greife ich gerne auf Mods zurück um die Qualität deutlich zu heben z.b bei CP 2077, obwohl es gerade in Nvidia Titeln eher stark nach Absicht aussieht.
FSR FG und AFMF 2 ist seit Monaten Standard in meinen Spielen und es funktioniert bestens. Ich habe nahezu immer deutlich mehr FPS als eine 4090, selbst als eine fiktive 5090 für ein Bruchteil des Preises.
Die hiesigen Meinungen über DLSS FG begutachtend, dämmert es mir wieso Frame Generation noch so einen schlechten Ruf hat, was auch die Tests bestätigen. DLSS FG ist einfach nicht konkurrenzfähig und viel zu eingeschränkt nutzbar.
Für mich ist das beste Feature für eine GPU ever und liefert zuverlässig bis zu 100% mehr Fps in jedem Spiel. Vielleicht können Nvidia Nutzer auch mal in den Genuss kommen, wenn ein ähnliches Feature exklusiv für die RTX 6000 GPUs erscheinen wird.
Wenn es nach dir geht braucht man gar keine FPS mehr, da nur noch die Latenz das entscheidende Kriterium ist.
Baal Netbeck schrieb:
"Damals" waren die Ansprüche auch geringer...und vor allem gab es einen klaren Zusammenhang zwischen FPS und Latenz....man musste nur die FPS messen und das Produkt mit den höheren FPS hatte auch die bessere Latenz.
Also vergleichst du nun DLSS Performance/Ultra Performance mit 120 FPS mit DLSS Quality inkl. FG bei 120 FPS? Also deutlich mehr BQ im Austausch für eine höhere Latenz?
Wie willst du denn Nativ 120 FPS erreichen? Das geht doch überhaupt gar nicht und darin steckt der Fehler in der Argumentation. Man muss Latenz und FPS als Gesamtes sehen und sich nicht auf eines fokussieren.
AxelStu schrieb:
Du musst schon die gleiche fps für den Vergleich heranziehen, alles andere macht doch überhaupt keinen Sinn.
Wenn du die gleichen FPS heranziehst, dann unterschlägst du ja schon den Vorteil von FG.
Man hat eben keine gleichen FPS, was man hat ist ein Latenznachteil, der aber auch nur dann zutrifft, wenn das Spiel ohne FG eine Reflex-Aktivierung zulässt. Und selbst das bringt in Singleplayer Spielen wenig.
Bei Multiplayer Spielen, würde ich FG nur zuschalten, wenn Reflex vorhanden ist, ansonsten nicht.
Man sollte aber nicht lügen und behaupten, dass die Technik die Latenz verbessert.
Oder anderen vorschreiben wollen, dass sie die Latenz ignorieren sollen, weil doch früher nicht darüber gesprochen wurde.
Wer seine 30 FPS mit FG aufplustert und dann glücklich ist, den beglückwünsche ich...ist doch super.
Für mich und viele andere wird dann aber der eh schon schlechte Input Lag noch schlimmer und ich suche nach anderen Wegen um an mehr FPS und weniger Input Lag zu kommen.
Wenn man schon viele FPS hat und es sich reaktionsschnell anfühlt....dann kann FG in Verbindung mit einem Monitor mit vielen Hz die Bewegungsschärfe verbessern.
Das würde ich je nach Spieltyp und Umsetzung auch nutzen.
Im Moment bin ich mit meiner Hardware nicht in der Situation, dass ich in Spielen die FG unterstützen auf ein hohes FPS Niveau komme.
Für mich ist FG daher immer mit spürbar schlechterem Input Lag verbunden und das stört mich mehr, als mich die zusätzlichen Frames freuen.
...Daher mein Fazit....kein FG wenn ich nicht eh schon FPS über 100 habe....das habe ich in meinen FG-unterstützdenen-Spielen nicht...daher kein FG für mich.
Warum hat man davon nichts?
Ich sehe das komplett gegenteilig. Gerade in dem von dir genannten Framebereich macht doch FG am meisten Sinn, wenn es gut funktioniert. Man hat einerseits ein flüssigeres Bild, weil der uplift von 80 FPS auf (mal angenommene 120) deutlich bessere Bewegungsschärfe bietet, gerade mit adaptive Sync. Auf der anderen Seite hält sich der Inputlag in Grenzen da man ja von einen guten Basislevel kommt.
Für mich fühlt sich daher gerade in dem von dir genannten Framebereich FG besser an als in niedrigeren.
Habe das aber momentan nur als AMD Nutzer mit den AMD Techniken testen und nutzen können.
Du bist mal wieder auf Krawall aus.
Aber muss das immer so schlecht gemacht sein?
Ohne FPS ist die Latenz unendlich.
Natürlich will ich also hohe FPS.... aber eben keine FG-Frames, wenn die Latenz dadurch spürbar schlechter wird.
Wenn ich nicht auf ausreichende FPS bzw. ein für mich akzeptables Latenz Niveau komme, dann spiele ich das Spiel nicht weiter.
Stalker 2 hätte ich gerne weiter gespielt, aber ich bekomme es nicht durch angepasste Optionen und Upscaling auf ein Niveau(Optik und FPS), das mir zusagt.
Dann wird es halt in 1-2 Jahren gespielt, wenn ich eine neue Grafikakrte habe und bis dahin gibt es viele andere Spiele die ich noch spielen kann. Der Pile of Shame ist groß.
Das liegt ja nicht an Reflex, sondern die Ruckler hast du dann im Spiel Nativ genauso und keine sauberen Frametimes. Also zaubern kann FG auch nicht. Aber gerade dann, wenn die Frametimes nicht sauber sind, bringt ein dazwischengeschobenes Bild deutliche Beruhigung.
Doch doch. Gibt viele Spiele bei denen das langsame schwenken der Kamera, wenn man z.B. den Analogstick des Controllers nutzt mit Reflex deutlich unruhiger wird, als ohne Reflex.
Zusätzliches FG kann das nicht ausgleichen.
Das muss sich auch nicht immer auf die gemessenen Frametimes auswirken. Häufig ist es so, dass der Frametime Graph ohne Reflex deutlich zackiger ist und mit Reflex und vor allem mit FG deutlich glatter. Rein optisch ist die Frameverteilung am Display aber ohne Reflex häufig trotzdem besser. Hat vermutlich auch damit zu tun, dass die FPS und Frametime Tools eher die CPU Frametime messen und nicht wirklich das, was die GPU am Ende ans Display schickt.
Ist leider ein sehr komplexes Thema, aber praktisch kannste das ja ganz einfach selber ausprobieren. In Horizon solltest du den Unterschied zwischen Reflex an/aus auf einem VRR Display erkennen können. Der Unterschied ist jetzt nicht dramatisch, aber doch sichtbar.
Und ja, FG "kann" das Geruckel etwas eindämmen, wenn es denn vom Spiel selbst und nicht durch die Wechselwirkungen mit Reflex kommt. Auch deswegen, weil durch die performancekosten von FG auf der GPU die "reale" CPU Framerate ebenfalls etwas sinkt was zu glatteren Frametimes führen kann. Gibt halt sehr viele Wechselwirkungen.
Grundsätzlich "kaputt" ist die Technik aber nicht. Gibt auch viele Spiele in denen Reflex absolut gar keine negativen Auswirkungen hat und mit FG alles perfekt smooth ist. Es ist halt Engine abhängig. Auch ohne FG und Reflex sind eben manche Games smoother und haben besseres framepacing als andere Spiele. Das ist leider etwas, das bei Videospielen im allgemeinen nunmal "normal" ist.
Dann wird es halt in 1-2 Jahren gespielt, wenn ich eine neue Grafikakrte habe und bis dahin gibt es viele andere Spiele die ich noch spielen kann. Der Pile of Shame ist groß.
Du hast doch gar keine Möglichkeit Frame Generation auf einer 1080Ti oder Radeon VII überhaupt adäquat in den Spielen zu testen. Und davon ausgehend kannst du doch gar nicht wissen, wie sich die Features verhalten, da FG auf der Radeon VII gar nicht mehr so gut läuft wie auf aktuellen Karten mit integrierter Latenzreduktion.
Baal Netbeck schrieb:
Oder anderen vorschreiben wollen, dass sie die Latenz ignorieren sollen, weil doch früher nicht darüber gesprochen wurde.
Man soll die Latenz keinesfalls ignorieren. Nur muss man eben sehen, dass Tools wie Reflex bzw die interne Latenzreduktion von RDNA3 die Latenz auf ein angemessenes Niveau senken, was diesen Faktor gerade in Singleplayerspielen recht irrelevant macht, da gut genug. Und dann kann ich die höhere Bildrate fürs Auge voll mitnehmen.
Baal Netbeck schrieb:
Wer seine 30 FPS mit FG aufplustert und dann glücklich ist, den beglückwünsche ich...ist doch super.
Von 30 FPS ausgehend würde ich das nur in langsamen Titeln wie Baldurs Gate, The Last of Us, oder Red Dead Redemption machen. In Cyberpunk brauche ich für den Kampf schon mindestens 35-40 base fps, damit es nicht störend wirkt.
Bei Stalker habe ich FG auch immer angeschaltet gehabt, alleine schon aufgrund der CPU Limits.
Der Vorteil ist halt man muss keine Optionen optimieren, sondern spielt mit der maximalen Qualität.
Antilag im Treiber ist halt nicht das gleiche wie Reflex.
Baal Netbeck schrieb:
Im Moment bin ich mit meiner Hardware nicht in der Situation, dass ich in Spielen die FG unterstützen auf ein hohes FPS Niveau komme.
Wenn du nur von 20-30 FPS kommst kein RDNA 2/3 hast und der Lag von FSR da mit draufkommt, dann kann ich mir schon vorstellen, dass das nix bringt. Aber das ist ja nicht der Status Quo.
Und sobald Reflex 2 noch mit integriert wird, wovon ich auf Dauer ausgehe, ist die Latenz kein Thema mehr.
Baal Netbeck schrieb:
...Daher mein Fazit....kein FG wenn ich nicht eh schon FPS über 100 habe....das habe ich in meinen FG-unterstützdenen-Spielen nicht...daher kein FG für mich.
Wenn möglich nutze ich DLAA, aber DLSS wenn möglich nicht.
Nutze DLSS eigentlich nur wenn Spiele "oft" schlecht Optimiert sind, um dabei ein wenig mehr FPS rauszuholen. Aber meist bringt auch dass sehr wenig, weil es eben "schlecht" Optimiert ist!
Spiele die sowieso nur maximal 60 FPS können oder darauf Limitiert sind, machen da oft Probleme.
Frame Generation habe ich selbst nicht (RTX 3xxx Serie), aber schon bei Bekannten gesehen wie es Tearing, Delays und/oder Artefakte auslöst aber auch das Bild einfach schlechter macht!
Nur wenn er GSync / FSync kann. Sonst kann ein klassischer Monitor nur diskrete Wiederholraten, meist eben 60 Hz. Ein anderes Signal wird er normal nicht akzeptieren, bzw. intern immer auf 60 Hz umrechnen - mit den bekannten Problemen.
Du nutzt also GSync mit fest 100Hz. Und dazu musst Du entweder einen Custom Mode definitieren, oder, was einfacher und auch runder läuft, einen Framelimiter im Treiber auf 100 fps stellen. Das hat den selben Effekt, ist nur besser für die Eingabelatzenz und - wie gesagt - das Framepacing.
Denn durch das Warten auf die nächste Austastungslücke bei 100Hz blockierst Du die Renderpipeline.
Ergänzung ()
Baal Netbeck schrieb:
V-sync(im Treiber) + G-sync und es bleibt in jeder Situation ohne Tearing.
Ja, aber nur weil bei ausgeschaltetem VSync die Framerate über die Monitorfrequenz steigen darf und dann hat man Tearing.
Aus keinem anderen Grund. Das ganze Gerede mit "Hand in Hand" ist total over top. Der VSync Schalter hat nur diese eine Funktion bei aktiviem GSync: Die Begrenzung auf die max. Frequenz des Monitors.
Ergänzung ()
mibbio schrieb:
Die meisten Monitore haben in den EDID/DDC Informationen tatsächlich mehrere Wiederholraten hinterlegt, mit denen sie angesteuert werden können. Der Grafikkartentreiber bzw. das OS liest diese Informationen aus und stellt die entsprechenden Wiederholraten dann in den Einstellungen zur Auswahl.
Das ist mir bekannt, das meine ich aber nicht. 100Hz ist nie eine EDID Frequenz.
Man kann sie über eine Custom-Resolution definieren, aber wozu? Und wie gesagt, das geht auch nur, wenn der Monitor mitspielt, was bei GSync Monitoren wohl immer der Fall ist, sonst eher zweifelhaft.
An meiner Aussage, dass ein FL immer besser ist, als an die Sync-Barriere zu stoßen und die Renderpipeline auszubremsen, ändert das nichts.
Ein FL greift an anderer Stelle ein, so dass die CPU weiterhin neue Frames rendern darf, während der VSync den Ready-Call blockiert und damit die Pipeline ausbremst.
Ergänzung ()
Capthowdy schrieb:
Ich verfolge und nutze G-Sync schon seit seiner Einführung und ganz ehrlich: ich glaube eher einer Seite wie Blurbusters, die sich sehr ausführlich mit dem Thema auseinandersetzen und das auch sehr umfangreich dokumentieren, als irgendjemandem der außer "Trust me bro" praktisch nichts vorzuweisen hat.