FSR, DLSS, DLAA, XeSS, FG, AMFM, FTR, TAA, Nativ mit Upsampler... wird es zu viel?

Das ist sicherlich eine Frage die tief in die Nische geht, aber: bei Until Dawn beispielsweise (und sicherlich bei vielen anderen Titeln auch) gibt es die Option, neben Upsampling auch die Qualität der Kantenglättung einzustellen.
Heisst das im Endeffekt also, dass zusätzlich zu FSR, welches ja bereits eine entsprechende Kantenglättung aufweist, noch weiteres TAA oder FXAA genutzt wird? Quasi oben drüber? Und die Qualität entscheidet darüber, was verwendet wird? Oder ist dies eine direkte Steuerung der Kantenglättungsqualität innerhalb des Upscalers?

Es wird nirgendwo erklärt oder erläutert. Und natürlich muss man oftmals die Unterschiede mit der Lupe suchen - also könnte man sagen, lass es einfach aus. Aber darum geht's mir nicht, sondern darum, dass wieder irgendwelche Dinge ohne Erklärung implementiert werden und alles einfach noch massiv komplizierter machen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Powl_0 schrieb:
Somit gibt man ohne Upscaler auf Quality Setting sowohl Bildqualität als auch Bildrate auf.

So ist es.

Und um den selben FPS Boost wie mit DLSS/FSR zu bekommen, müsste ich die Settings vom Game meist auf niedrig stellen.
Nur was sieht dann besser aus?

a: Nativ mit niedrigen Details ohne DLSS/FSR

b: Hohe/maximale Details mit DLSS/FSR?
 
Baal Netbeck schrieb:
Wobei FSR oft sichtbar hinterher hinkt....ich hoffe das verbessert sich noch, sonst muss ich doch irgendwann eine Nvidia Grafikkarte kaufen.
Mit FSR4 soll eine KI gestützte Umsetzung kommen, identisch zu DLSS. Das Problem das ich dabei sehe, liegt auf Seiten der Entwickler. Teyon zBsp. hat sich bei RoboCop mit der UE5 richtig reingekniet, und das Ergebnis mit FSR 3 (leider noch nicht 3.1) sowie integrierter FG Implementierung, kann meiner Meinung nach, bis auf wenige Abstriche in der Bildqualität, ganz gut mit DLSS mithalten. Vor allem hat mich natives FG sehr positiv überrascht.

Aber betrachtet man die Gesamtheit der Spielereleases 2023/2024, wird leider noch viel zu oft auf FSR 2 zurückgegriffen, und das ist in meinen Augen einfach zu schlecht um mit DLSS mitzuhalten. Bevor ich das nutze, reduziere ich lieber Schatten und Beleuchtung um ein paar FPS mehr zu erhalten.

Baal Netbeck schrieb:
Aber ich sehe noch nicht die Alternative....mehr Aufklärung?
SavageSkull schrieb:
So wie ich verstanden habe, will ja Microsoft mit DirectSR ja eine Schnittstelle in der API anbieten, bei der die Daten bereitgestellt werden. Dann setzt der Treiber von AMD, Nvidia, Intel nur noch seine Umsetzung mit Namen XYZ auf Basis dieser Schnittstelle um. Das Spiel selbst weiß dann von FSR,DLSS,XESS gar nichts, sondern bietet nur das Feature über die DirectX Schnittstelle an.
Ich denke, das wird die Alternative sein.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
coxon schrieb:
Mit FSR4 soll eine KI gestützte Umsetzung kommen, identisch zu DLSS.
Die Ankündigung habe ich auch mitbekommen....Müssen sie halt auch erstmal hinbekommen und Tensor Cores haben sie auch nicht in den GPUs.

Und wenn AMD die gehobene Leistungsklasse komplett verlässt(High end haben sie ja schon aufgegeben), dann werden sie auch immer irrelevanter und die Chance, dass die Entwickler sich mit dem Implementieren von FSR Mühe geben sinkt noch weiter.

Off Topic:
Eine Lösung habe ich hier auch nicht, aber ich hoffe AMD bekommt doch noch die Kurve und und es gibt nochmal schnelle Karten mit konkurrenzfähigem Upscaling.
Ewig will ich nicht mit meiner Radeon VII spielen, da machen mir einige neue Spiele wenig Spaß trotz Anpassen der Grafikoptionen.
...eventuell wird es nächstes Jahr dann ein 4K OLED und eine Nvidia Grafikkarte...gerne würde ich bei AMD bleiben aber ich kaufe auch gerne High end das mich dann begeistert/interessiert...dafür halt seltener.
 
  • Gefällt mir
Reaktionen: coxon
DLSS in der Regel immer ein. Da es eigentlich immer besser ist als nativ mit TAA und obendrauf kriegt man noch eine bessere Performance. Nvidias Deep Learning Antialiasing in DLSS ist bis dato unerreicht. Man kann alternativ, wenn Spiele es hergeben, nativ mit DLAA spielen. Also nur mit Nvidias Deep Learning Antialiasing ohne Upscale. So hab ich Spider-Man gespielt. Bildqualität ist fantastisch.
FSR und XeSS interessieren mich weniger, da ich eine RTX Nvidia stecken hab.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Baal Netbeck schrieb:
Wobei FSR oft sichtbar hinterher hinkt....ich hoffe das verbessert sich noch, sonst muss ich doch irgendwann eine Nvidia Grafikkarte kaufen.
Es ist Common Sense, dass DLSS besser aussieht als FSR, allerdings habe ich zuletzt Forbidden West nach Abschluss von Jedi Survivor begonnen und FSR 3.1 sieht wesentlich besser aus.

Ich finde hingegen, dass RSR+FSR bzw DLDSR etwas komfortabler intergriert sein könnten. Teilweise ist das richtig nervig, wenn dann noch so Eigenheiten dazukommen wie beim Mafia Remake, wo im Vollbild nur 60fps möglich sind. Verstehe auch nicht wieso nicht jedes Spiel mit Upscaling das als Kantenglättungsmethode anbieten kann.

Powl_0 schrieb:
nativ+TAA (was sich bei aktuellen Engines meist nicht abstellen lässt)
Auch das kann (und müsste) man dann im Control Panel wie auch in Adrenalin zwangs-ausschalten (AA off).
 
  • Gefällt mir
Reaktionen: Baal Netbeck und coxon
Captain Mumpitz schrieb:
Von DLDSR hab ich genau jeute zum ersten mal gehört, dass DLAA die "native" Form von DLSS wär, war mir auch nicht bekannt - und somit weiss ich auch nicht, wie DLAA also genau rendert und ob das gut oder schlecht ist.
Wie gesagt, ich persönlich hätte es auch besser gefunden, wenn es einfach DLSS (50%, 66%, 80%, 100%, 133%) gegeben hätte. DLSS gehört dann auch einfach unter die Optionen der Kantenglättung und nicht als separate Einstellung abseits davon in den Settings. Die Prozentzahl sagt dann einfach aus, mit wieviel Prozent der eingestellten Auflösung gerechnet wird. Auch der Quatsch mit der Versionsnummer ist völlig Banane, gerade Version 3.0 kann ja "nur" FG zusätzlich. Da haben sich zwar auch Kleinigkeiten beim Upscaling getan, aber letztlich ist das nichts, worüber ich mir als Nutzer Gedanken machen muß oder möchte.
entengruetze schrieb:
Nur was sieht dann besser aus?

a: Nativ mit niedrigen Details ohne DLSS/FSR

b: Hohe/maximale Details mit DLSS/FSR?
Letzteres, in Details sogar bedeutend besser.
 
Zuletzt bearbeitet:
Captain Mumpitz schrieb:
Im Endeffekt: es kotzt mich tatsächlich ein wenig an, in welche Richtung man sich hier bewegt. Es werden 100 neue Technologien eingeführt, anstatt dass man sich auf was einzelnes konzentrieren oder die Engines/Spiele wieder entsprechend programmieren und optimieren würde.
Es sind ja nicht 100 grundsätzlich verschiedene Techniken, sondern unterschiedliche Implementierungen der gleichen grundlegenden Techniken/Ideen. Solange wir noch wenigstens etwas Wettbewerb bei den GPU Herstellern und den Engines haben, wird sich das nicht vermeiden lassen und ist sicher besser als Monokultur. Hätten wir nur noch Hardware von nVidia und alle Spiele würden mit UE5 laufen, gäbe es natürlich deutlich weniger Auswahl.

Es kommt hinzu, dass die Techniktests, z.b. bei CB den Eindruck erwecken, als wäre ein Spiel nur spielbar, wenn man alles genauestens eingestellt hat. Wenn man es dann mal selber im Spiel ausprobiert, habe ich z.B. oft Mühe die Unterschiede in den Settings überhaupt zu sehen, bzw. wenn ich sie sehe, sie in "besser" vs. "schlechter" einzuordnen. Wenn bei Ultra ein paar Grassbüschel mehr erscheinen, als bei High ist zwar grundsätzlich sichtbar, aber hat auf das Spielerlebniss eigentlich keinen Einfluss.

Bei Raytracing ist oft noch ähnlich: Ja es gibt dann immer die eine oder andere Pfütze die mit Raytracing viel geiler aussieht als ohne, aber die meisten Spiele bestehen nun mal nicht hauptsächlich aus Pfützen.

Anderseits erwecken Redaktionen, Influencer, etc. den Eindruck dies würde alles benötigt werden, dadurch sind die Entwickler gezwungen, es einzubauen. Man denke nur an den fehlenden DLSS Support in Starfield beim Release. Sich auf "eins" zu konzentrieren ist schlicht keine Option für Entwickler.
Und es ist ja nicht so, dass diese Techniken umsonst zu haben sind. Wenn z.B. Motion Vektoren benötigt werden, ist das für die Entwickler ja mehr Arbeit.

Captain Mumpitz schrieb:
Bei aktuellen Benchmarks, aber insbesondere beim eigenen Optimieren der Settings in Spielen selber, stelle ich immer öfter fest wie mich die zahlreichen Optionen eher überfordern als dass sie helfen.
Im Gegensatz zu den Konsolen hat man halt beim PC eine extreme Bandbreite an Hardware mit verschiedener Leistungsfähigkeit, eine große Variation bei den Ausgabegeräten bzgl. Auflösung und Bildfrequenz und dann natürlich auch Spieler die sehr unterschiedliche Schwerpunkte setzen.
Dem Einen sind dreistellige FPS sehr wichtig, der Andere nimmt lieber ein paar Ruckler in Kauf und hat dafür prachtvolle Grafik. Der Besitzer einer 4090 will ja dass seine teure Hardware auch ausgenutzt wird und das Spiel in voller Pracht erscheint, während Andere erwarten, das auch ihre 5 Jahre alte Einsteiger GPU noch ein Spielerlebnis ermöglicht.

Das optimale Spiel sollte also beim Release gerade so eben am Anschlag auf der verfügbaren Top-Hardware laufen und sie dabei optimal ausnutzen, aber auch eben darunter noch spielbar sein.

Also endet man dann in einem Menü mit zig Optionen. Gut ist es, wenn Spiele im Grafikmenü Hinweise geben, was die Option bewirkt, auch ob sie z.B. eher die GPU be/entlastet oder die CPU. Da ist die Qualität sehr unterschiedlich.

Ein Problem ist in der Tat oft die die unbekannte Wechselwirkung zwischen Spiele- und Treibersettings.

Captain Mumpitz schrieb:
Man verlässt sich auf Seiten Entwickler schlicht darauf, dass so oder so mit DLSS und FG usw. gearbeitet wird, um eben ein entsprechendes Resultat zu erreichen.
Wie gesagt, aus oben genannten Gründen bleibt den Entwicklern eigentlich kaum eine andere Wahl. Speziell der Trend zu UHD als Auflösung hat dazu geführt: Nativ überfordert UHD in vielen Fällen selbst sehr leistungsfähige Grafikkarten, einfach wegen der vielen Renderpixel und teilweise sicher auch, weil UHD nur zur Geltung kommt, wenn auch andere Faktoren, wie ewa Polygonauflösung, passend erhöht werden. Anderseits scheinen temporäre Upsampling Techniken sogar oft die Qualität zu erhöhen.
Als natürliche Folge kommen diese Techniken dann auch bei niedrigen Auflösungen zum Einsatz, wobei sie dort oft schlechter funktionieren.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Baal Netbeck, frames p. joule und eine weitere Person
TomH22 schrieb:
Gut ist es, wenn Spiele im Grafikmenü Hinweise geben, was die Option bewirkt, auch ob sie z.B. eher die GPU be/entlastet oder die CPU
Solche Menüs würde ich mir für jedes Spiel von AA sowie AAA-Studios wünschen. Dabei nützt es mir aber herlich wenig wenn einfach steht "kann die CPU-Leistung beeinträchtigen". You don't say?
Activision macht das bei CoD z.B. auch nicht schlecht indem sie anhand von Screens (sehr auffällig) die Unterschiede demonstrieren. So kann man sich wenigstens ausmalen, was die eine oder andere Einstellung überhaupt so tut. Bei Ubi kam das auch hier und da mal vor.

Grade bei einer Flut an Settings, gerne auch mit doch recht kryptischen Bezeichnungen, erkennt man ohne Hintergrundwissen selten, was genau wofür zuständig ist. Und dabei mein ich logischerweise nicht Dinge wie Texturdetails oder Schatten.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
coxon schrieb:
@Drewkev du bist echt witzig mit deiner 4090. Komm mal runter von deinem hohen Roß, es gibt auch andere User mit weniger Rechenleistung als dir zur Verfügung steht.
Was hat das eine mit dem anderen zu tun und warum so bockig? Fühlt sich da etwa wer angegriffen?
Ich habe nur eine RTX 4060 und rendere trotzdem in nativ, was jetzt?
 
Zurück
Oben