• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Red Dead Redemption 2: DLSS hat Probleme, ist aber besser als nativ

Ich finde die Verbesserungen durch DLSS in Kombination mit den Hardware Unboxed Optimized Settings sind extrem gut.
Ich hatte vorher auch den TAA Matsch in 4K und der Schärfefilter im Treiber hat mir überhaupt nicht gefallen. Dieser hat schon bei 10% viel zu stark nachgezeichnet mit deutlichen Verlusten in der Bildqualität.
Ich habe jetzt mit meiner 3080 (@ UV) etwa 85-90 FPS @ 4K HDR und das Bild ist deutlich klarer und ruhiger. Was das angeht bin ich also zufrieden.

Davon ab habe ich seit der Neuinstallation dauerhaft Abstürze und Bugs. Genauso auch die Spikes in der Frametime sind mir direkt beim Spielen aufgefallen. Rockstar hat es immer noch nicht geschafft, das Spiel endlich einmal stabil zum Laufen zu bringen.
(Frisch aufgesetzt System mit neusten Treibern...)
 
hör?! "Warnung wegen Windows 7" ..?
1. Hab ich damals Windows 8 gehabt und dann upgegradet
2. Letzte Installation ist mit dem DL von MS für Win10 geschehen?

Hat das noch wer?
 

Anhänge

  • winver.jpg
    winver.jpg
    84,7 KB · Aufrufe: 319
xexex schrieb:
Weil es einfach zig mal mehr Spaß macht sich sowas auf einer Glotze und bequem auf der Couch anzutun als verkrampft mit Maus und Tastatur vor dem Bildschirm zu hängen.
Ich weiß ja nicht wie du zockst, aber ich flacke sowas von gemütlich vor dem PC beim zocken, das ist schon wieder ungesund für den Rücken. XD

Kenne auch niemand der da "..verkrampft vor dem Bildschirm hängt"

Vllt irgendwelche Kiddies die da um ihr Leben zocken....
 
  • Gefällt mir
Reaktionen: Kettensäge CH
Fällt noch jemandem auf ,dass DLSS scheinbar auch die Farbtemperatur kühler darstellt?
Das wäre ein übler Nebeneffekt!
 
  • Gefällt mir
Reaktionen: CMDCake
DarkerThanBlack schrieb:
Nein. DLSS nutzt Deep-Learning aus 8K-16K Material, welches eben deutlich mehr Details besitzt als 4K.
Dadurch werden dann Pixel in das 4K-Bild dazu berechnet, welche in 8-16K vorhanden sind(grob erklärt).
Das war bei DLSS1.0 so, was sich aber als nicht gerade besonders gut erwiesen hat. Daher kommt ja auch ein Teil der Abneigung gegenüber DLSS.

Seit 1.9/2.0 wählt NVIDIA einen etwas klassischeren Weg, ersetzt aber die teils sehr aufwendige und langwierigen Algorithemn durch ein Neuralesnetz. Dadurch ist die Qualität allgemein gesteigen, es können auch feinere Details nachgezeichnet werden, sogar wenn diese in nativer Auflösung "verloren" gehen.
 
Wolfgang schrieb:
Mhm, interessant. Also die von uns genutzte Testszene lief bis vor dem Patch noch sauber durch, nach dem Patch nicht mehr. Wie es in anderen Gebieten ausschaut, weiß ich aber nicht.
Bin sehr empfindlich was "Microstuttering" anbetrifft, in RDR2 wars aber teils im Szenerienwechsel drastisch, man merkte wie die Frametime anstieg und zackelig wieder abstieg, wobei es auch einen Unterschied zwischen verschiednen Customs (Aorus Master 2x8PIN vs. Aorus XTREME 3x8PIN) ausmachte. Ggf. reagiert das Spiel sehr empfindlich auf stetig schnell wechselnde Taktraten, was zu ein paar % FPS Unterschied führt und dann mit einem Schlag in bestimmten Szenen Frametime Probleme verursacht.
Aber generell wird auf diese Thematik sowieso viel zu wenig eingegangen. Mit Windows 10 gibt es viele Plattform Clock Probleme (HPET), viele Background Services, welche meist zu Stuttering führen, was der Grund ist, wieso ich mehrere versch. Installationen habe (Gaming or Non-Gaming).
Allein schon wenn man bestimmte Hardware nutzt (Corsair/Logitech) mit 1000hz Pollingrate führt das im Wireless Betrieb teilweise zu Problemen.
Ich empfehle hier mal wirklich genau die Frametime in vielen Games anzuschauen, allein schon kleine Miniruckler sind in Cutscenes, in nachladenden Arealen und generell im Spielfluss bei >60-70 FPS unerträglich und direkt ersichtlich.
Ich glaube eure Testsysteme haben meist eine "Clean" Install hinter sich und gefühlt nur 3 Programme drauf?
Kann das sein?
Weil ansonsten würde man merken, wie schlecht eigentlich jedes 2te Spiel am PC läuft (also wie "flüssig").
Was ich auf jeden Fall positiv anmerken muss ist, dass mit dem derzeitigen Windows 11 Insider Build das Stuttering beim Gaming allgemein wesentlich besser geworden ist.
Ggf. könnt ihr das mal auf eure Liste für zukünftige Artikel schreiben, eine exakte und genaue Auswertung wäre hier mal sicherlich für den ein oder anderen nützlich. Nicht jeder zur Hilfe zur Selbsthilfe fähig^^.
 
  • Gefällt mir
Reaktionen: Czk666
DevPandi schrieb:
Das war bei DLSS1.0 so, was sich aber als nicht gerade besonders gut erwiesen hat. Daher kommt ja auch ein Teil der Abneigung gegenüber DLSS.
Er hat doch im Groben recht. Das Netzwerk nutzt zum Training nach wie vor sehr hoch aufgelöste Bilder (16K) als Referenz aus diversen Spielen. Der große Unterschied ist, dass das Training seit DLSS 2.0 (1.9) generisch ist und nicht mehr Spielspezifisch.

Nvidia selbst schreibt dazu:
During the training process, the output image is compared to an offline rendered, ultra-high quality 16K reference image, and the difference is communicated back into the network so that it can continue to learn and improve its results. This process is repeated tens of thousands of times on the supercomputer until the network reliably outputs high quality, high resolution images.
 
Freut mich. Breite DLSS und FSR-Unterstützung ist grundsätzlich wünschenswert.
Aber dieses "Besser-als nativ"-Nachgeplaudere geht mir sowas von auf den Keks.
Denn "Besser" ist ein grundsätzlich objektives Kriterium ohne Einschränkungen.

Viele nehmen derartige Screenshots als Vergleiche für Ihre These. (Quelle: Videocardz)

Bild_2021-07-19_161211.png


Rendertechnisch liefert die native Auflösung unten einfach nicht genug Pixel, um die dünnen lotrechten Kabel durchgehend darzustellen.

DLSS stellt diese durchgängig dar, indem es sie dicker macht, als sie eigentlich sind.
Beide Versionen sind im Vergleich zur Realität unnatürlich.

Denn in der Realität werden die Kabel ja nur optisch größer, wenn man näher rangeht.
Bei DLSS behalten Sie je nach Entfernung die gleiche Dicke, trotz unterschiedlicher Entfernungen.
(Erklärung: Einmal reicht die native Auflösung aus, um die korrekte Dicke darzustellen. Wenn man weiter weggeht nichtmehr, also muss DLSS "nachzeichnen").
Das ist auch der Grund, warum solche Bildausschnitte in Bewegung "wabbelig" aussehen, wie als wenn jemand die dünnen nativen Fragmente mit einem dicken Bleistift einfach übermalt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rosenholz, Celinna, Redundanz und 3 andere
Rock Lee schrieb:
DLSS stellt diese durchgängig dar, indem es sie dicker macht, als sie eigentlich sind.
Beide Versionen sind im Vergleich zur Realität unnatürlich.
Hast du für diese These auch einen Beleg? Also vielleicht ein natives 8k Bild von dieser Szene?
Und es sind nicht nur die Stahlseile, die bei nativ 1440p/FSR Quality im Vergleich zu fehlen. Man findet auf den Bildern noch viel mehr.
 
  • Gefällt mir
Reaktionen: xXGerryxX
foo_1337 schrieb:
Er hat doch im Groben recht.
Aber nur im ganz Grobe hat er da recht.

Es ist richtig, dass DLSS immer noch mit hochauflösenden Bildern trainiert wird, nur ist die Arbeitsweise eben überarbeitet worden. Er hat aber nicht mehr vollständig recht damit, wenn er schreibt, dass die KI Pixel aus 8K/16K Bilder bei 4K hinzurechnet.
foo_1337 schrieb:
Das Netzwerk nutzt zum Training nach wie vor sehr hoch aufgelöste Bilder (16K) als Referenz aus diversen Spielen.
Nur hat sich die Art zwischen DLSS1.0 zu 1.9/2.0 verändert. Bei DLSS1.0 kommt das, was er schreibt dann auch hin: Die KI hat Bilder in Auflösung A bekommen, sollte die hochrechnen und dann hat sie das Feedback aus dem Vergleich mit dem selben Bild in Auflösung B bekommen.

Jetzt bekommt die KI aber nicht nur ein Bild in Aufösung A, sondern mehrere Bilder in der Auflösung und hat damit mehr Daten. Die Bilder sind dabei zeitlich als auch räumlich ein Stück versetzt. Es gibt dabei bereits heute gute Algorithmen, die aus solchen Bildfolgen ein höher auflösendes Bild berechnen können. Diese Algorithmen sind aber wirklich sehr langsam. Bei DLSS 1.9/2.0 setzt die KI an dieser Stelle an.

Sie bekommt n-Bilder und ersetzt die aufwendigen Algorithmen, die die Bilder verrechnet. Dadurch kann man sie auch genereller gestalten.
 
  • Gefällt mir
Reaktionen: xXGerryxX und foo_1337
@Rock Lee @foo_1337
Unwahrscheinlich dass DLSS da irgendetwas rangezoomt hat. Je mehr Details desto besser kann ein Anti-Aliasing arbeiten. Bei Nativ ist es einfach nicht ausreichend.

DLSS ist ja nicht unbekannt dafür Detailreicher zu sein.
 
  • Gefällt mir
Reaktionen: jdiv
Fuchiii schrieb:
Ich weiß ja nicht wie du zockst, aber ich flacke sowas von gemütlich vor dem PC beim zocken, das ist schon wieder ungesund für den Rücken.
Ändert nichts an der Steuerung, die grundsätzlich "unnatürlicher" ist weil die einzige "analoge" Komponente die Maus ist und keinerlei Feedback existiert. Da kannst du noch so gemütlich sitzen, mit einer Tastatur durch die Gegend zu reiten, wo man nicht einmal die Geschwindigkeit frei skalieren kann hat nichts natürliches an sich und darum ging es letztlich bei der Aussage.

Ich könnte mir nie vorstellen ein RTS mit einem Gamepad zu spielen, aber genauso wenig eine Rennsimulation oder ein Jump und Run mit M&T und solche Open World Spiele leben genauso von der Immersion. Wenn ich einen Revolver nutze, dann will ich auch einen Trigger haben, mit etwas Glück sogar mit einem richtigen Feedback und nicht mit der Maus klicken, als würde ich grad ne Excel Tabelle bearbeiten.

Ich würde nie soweit gehen um zu behaupten ein Gamepad wäre grundsätzlich besser, als wenn ich das für mich durchaus für die meisten Spiele sehe, natürlicher ist er aber allemal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Master_Chief_87, Pisaro und v_ossi
Habe grade mal ins Game reingeschaut und den Benchmark laufen lassen. In UWFHD high/ultra OHNE DLSS min 45 max 90 avg 72, MIT DLSS Quality min 33 max 103 avg 81. Die low FPS leiden ziemlich.

Edit: Sorry, Hab ich vorhin schon geschrieben und taucht jetzt erst auf. Passt nicht mehr ganz zur Diskussion :-(
 
Zuletzt bearbeitet:
xexex schrieb:
Ändert nichts an der Steuerung, die grundsätzlich "unnatürlicher" ist weil die einzige "analoge" Komponente die Maus ist
Also "natürlich" gibt's da schonmal gar nicht. Denn natürlich ist keines dieser Eingabegeräte.

Wenn überhaupt reden wir von mehr oder weniger ergonomisch.

Und auch das ist ne Frage der Gewohnheit...

Deine Aussage zum reiten verstehe ich nicht. Ich kann hier zwischen Schritt/Trab/Galopp wählen.
Bist du schonmal geritten? Denn genau zwischen diesen Gangarten wechselt das Pferd. Das hat kein frei skalierbaren Gaspedal :freak:
 
  • Gefällt mir
Reaktionen: LukS, Klever, cbmik und eine weitere Person
Fuchiii schrieb:
Das hat kein frei skalierbaren Gaspedal
Du willst mir jetzt hoffentlich nicht behaupten ein Pferd kann nur in einer einzigen Geschwindigkeit galoppieren oder? Das du nur zwischen drei Geschwindigkeiten auswählen kannst, ist so ein Problem wenn man M&T nutzt. Bei Assasins Creed kannst mit der Tastatur auch nur gehen oder laufen, während du mit einem Gamepad frei die Geschwindigkeit und Richtung vorgeben kannst.
 
  • Gefällt mir
Reaktionen: Clark79
xexex schrieb:
Bei Assasins Creed kannst mit der Tastatur auch nur gehen oder laufen, während du mit einem Gamepad frei die Geschwindigkeit und Richtung vorgeben kannst.
Bin eigentlich auch eingefleischter M&T Spieler. Aber mir geht es wie Dir ... einige Spiele fühlen sich mit Controller weniger "ungelenk" an. RDR2 und ACO gehören für mich definitiv dazu.
Muss nur noch Zielen lernen. Ist im Fernkampf oft wie in der Sesamstraße ... drüber, drunter, durch.
 
Rock Lee schrieb:
Denn in der Realität werden die Kabel ja nur optisch größer, wenn man näher rangeht.

In der Realität sind die Kabel aus der Entfernung definitiv sichtbar, mal ein 8 oder 16 K Bild der Szene anschauen. Die native WQHD Auflösung ist da einfach nur ungenügend.
 
  • Gefällt mir
Reaktionen: jdiv
Zurück
Oben