Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestDLSS 3 vs. FSR 3 im Test: Frame Generation von AMD und Nvidia im Duell
Seltsamer weise Spielte sich COD mit FSR Nativ +FG bis vor kurzem bestens auf meiner 7900XTX.
Gestern musste ich es raus nehmen, deutlich wahrnehmbarer inputlag. Keine Ahnung was sich da geändert hat.
( hab den Artikel eben erst gelesen, daran liegt es nicht ^^ )
Seltsamer weise Spielte sich COD mit FSR Nativ +FG bis vor kurzem bestens auf meiner 7900XTX.
Gestern musste ich es raus nehmen, deutlich wahrnehmbarer inputlag. Keine Ahnung was sich da geändert hat. ...
Nach der Installation vorsichtshalber den ShaderCache löschen und man wird beim 1.Gamestart und evtl.
beim 1.Mal auf Map xyz erstmal ein Einruckeln haben, wo die Shader neu kompiliert werden.
btw.
Ob sich zusätzlich am Spiel noch Was geändert hat, who knows.
Ganz ehrlich - dein ganzer Post strotzt nur so vor Hass und Missgunst - wo ist dein Problem? Dann nutze es eben nicht, wenn du es nicht brauchst, oder nicht nutzen willst.
Fakt ist, diese Technologie(n) machen in bestimmten Konstellationen definitiv Sinn, haben teilweise kaum bis gar keinen spürbaren (obgleich messbaren) Effekt auf die Latenz/Eingabeverzögerung und erlauben (wie gesagt, noch mal: in bestimmten Konstellationen) ein flüssigeres Spieleerlebnis, das man so sonst nicht hätte.
Also soll jeder es nutzen und sich daran erfreuen wer will - alle anderen lassen es eben bleiben. Das ist doch völlig egal ob da jetzt künstliche Bilder erzeugt wurden oder nicht. Am Ende zählt das was man als Mensch subjektiv wahrnimmt. Und nicht das, was du objektiv betrachtet dir dann selbst daraus machst...
Ich werde solche Kommentare wie deinen, die hier leider allzu oft zu lesen sind, wohl niemals verstehen.
Freu mich wie Bolle, dass via Mod FG auch in Cyberpunk2077 mit meiner 3080 läuft - hoffe es wird in Zukunft einfacher implementiert. Sehe gott sei dank auch keine negativen Dinge, da mein VA schon zu sehr schliert, lol.
Schon traurig, das nur etwas wert hat, wenn es geiles Marketing gibt. Im CBfunk Podcast wird auch immer wieder betont, wie viel mehr man doch von nVidia an die Hand genommen wird. Denke ein großteil der CB NV Sympathie kommt daher.
Zumal, wenn man sich neben FG auch mit SR FSR und DLSS beschäftigt und sich da mal in den Vergleich begibt, die Unterschiede wesentlich geringer sind, als oftmals von den Redakteuren und Usern hier suggeriert.
War auch tatsächlich bislang der Meinung DLSS wäre massiv besser, bis zu dem Moment, wo ein User hier ein Vergleichsvideo reingestellt hat um genau das zu beweisen. Das hat mich spontan in meiner Meinung korrigiert.
Ich denke aber auch, das FG hier nicht groß gemacht wird, weil es eben nicht besser als bei AMD ist. Daher wird hier auch oft argumentiert, dass man kein FG bräuchte und der Sinn nicht da ist. Das wird auch immerzu im Podcast betont.
Aber wie so oft ist auch immer was Wahres dran. DLSS scheint noch ETWAS besser zu sein und FG mag nicht das WUNDER sein, das einen von unspielbar zu flüssig bringt.
Nach der Installation vorsichtshalber den ShaderCache löschen und man wird beim 1.Gamestart und evtl.
beim 1.Mal auf Map xyz erstmal ein Einruckeln haben, wo die Shader neu kompiliert werden.
btw.
Ob sich zusätzlich am Spiel noch Was geändert hat, who knows.
Deine Ursprungsaussage bezog sich auf diesen Artikel, aber kaum kritisiert man deinen Unfug, kommst du wieder mit irgendwas anderem.
Was hast du hier eigentlich für einen Auftrag?
iron_monkey schrieb:
Ich habe mir doch nicht extra mit sehr viel Aufwand eine fiepfreie 4090 besorgt, nur um Strom zu sparen und mir vermeidbare Grafikfehler anzutun... wenn es keine Fehler gibt nehme ich das mit aber auch nur dann.
Aufgrund der letzten Diskussion um FSG und DLSS SR habe ich mir jetzt etliche Vergleichsvideos angeschaut. Mir drängt sich auch langsam die Frage auf, ob der Unterschied wirklich so groß ist. In den Videos musste sehr gezielt im ruhenden Bild herangezoomt werden. Ob das im Spiel dann so relevant ist? Oftmals ist es ja wirklich gleich.
Nein, der Unterschied ist wirklich so groß.
Es gibt Spiele, da schaut FSR SR ordentlich aus, Avatar ist so ein Fall (obwohl ich vor Release gedacht habe, aufgrund des Contents wird das eine Katastrophe. Wurde es aber nicht). Und es gibt Spiele, da schaut DLSS, egal bei welcher Einstellung und Auflösung, deutlich besser aus als FSR. Hier ist zum Beispiel The Talos Principle 2 zu nennen, es gibt aber noch diverse andere Spiele. Da muss auch keiner Zoomen oder mit Zeitlupe arbeiten, die Unterschiede sind sofort zu erkennen.
mannefix schrieb:
habe hier WQHD, bei mir siehts bombe aus. 4070
"Die Bildqualität ist zwischen AMD und Nvidia ebenbürtig
In Sachen Bildqualität zeigen sich keine nennenswerten Unterschiede zwischen DLSS und FSR Frame Generation. Beide Technologien agieren zwar leicht unterschiedlich, schneiden schlussendlich aber gleichwertig ab. Der optische Unterschied kommt dagegen durch den Super-Algorithmus zustande. Hier liegt Nvidia mit DLSS klar vorne – AMD muss diesbezüglich unbedingt nachlegen, um konkurrenzfähig zu bleiben."
= Bildqualität ebenbürtig, optischer Unterschied für Nvidia klar vorne?
Bei Frame Generation sind FSR und DLSS ebenbürtig, bei Super Resolution ist DLSS klar besser. So ist das gemeint.
andr_gin schrieb:
Auch bei der Kombination RTX 4070 + FSR FG wäre es sehr interessant, was passiert wenn man zusätzlich noch Reflex aktiviert. Dies sollte zumindest in der Theorie die Latenz noch einmal deutlich drücken.
Das funktioniert so übrigens nicht, das habe ich getestet.
Wenn FSR FG aktiv ist, kann man Reflex in den Spielen zwar noch im Menü aktivieren, auf die Latenz hat das dann aber keinen Einfluss mehr, diese bleibt gleich. Reflex ist also ohne Funktion, wenn FSR FG genutzt wird.
Die Grafikfehler in Spielen kann ich aber nicht ausschalten und muss sie wohl hinnehmen, die Grafikfehler durch FSR oder DLSS aber schon. Kann man ja nutzen, ich mach es aber eher nicht wenn ich dadurch mehr Grafikfehler habe, muss halt jeder selber entscheiden.
Nochmal: Auch TAA erzeugt Artefakte und Schlieren. Ob das jetzt durch TAA oder DLSS kommt, hat welche Relevanz?
Zumal das nicht mal jedes Spiel betrifft. In Jedi Survivor und A Plague Tale sieht man die Fehler bspw. gar nicht. Wieso also nicht nutzen?
Wenn ich ehrlich bin, sind es für mich 1st world problems, aber es ist immer gut zu wissen, was denn in einem breiten Band von Möglichkeiten, als Ergebnis raus kommt.
Dann muss man nicht selber testen.
btw:
Bin jetzt auf meinem neuen Lappi mit Win11 home unterwegs. Es hat mich echt viele Nerven gekostet, ein lokales Konto, ohne aktives MS Konto, zum laufen zu bringen. Nicht lustig.
In Remnant 2 ist FSR 3 auch schon drin.
Macht im ersten Eindruck (aber nur wenige Sekunden probiert) einen guten Eindruck, ist definitiv kein COD-Szenario. Irgendwieso muss man aber das Spiel neu starten, wenn man die FG an- bzw. abschaltet, das nervt.
Remnant 2 hat mich bei release durch seine extrem gute DLSS Unterstützung beeindruckt.
Der Entwickler sagte ja "Das Spiel ist nicht ohne zu spielen!" Und hat eine Kontroverse losgestossen.
Aber die Qualität war so gut das ich im laufenden Betrieb von DLAA zu DLSS Balanced umgeschalten habe und keinen unterschied feststellen konnte. Wären die FPS nicht gestiegen hätte ich geschworen das wäre nicht aktiv.
Selbst beim Performance Preset sieht man die Unterschiede vorwiegend wenn man Screenshots macht und diese dann vergleicht.