• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Red Dead Redemption im Test: Benchmarks mit 20 Grafik­kar­ten von Nvidia, AMD und Intel

phipsi schrieb:
Das beste für FullHD ist imho DLDSR kombiniert mit DLSS Quality
Ist auch in 4K das beste, wenn die Leistung passt. Mehr Zwischenstufen wären da wahrscheinlich mal hilfreich, so wie noch bei DSR. Über das Feature redet irgendwie nie jemand, dabei gehört das zumindest bei mir zu den absoluten Favoriten.
 
  • Gefällt mir
Reaktionen: FM301 und phipsi
@ElliotAlderson Was meinst du mit DLDSR(Q)? Ich kann nur wählen zwischen 1.78x DL und 2.25x DL (siehe Anhang). Bei zweiterem wird das Spiel in 2880 x 1620 berechnet, bei DLAA nativ, also 1920 x 1080. Ergo wird DLDSR in der Regel deutlich mehr Leistung ziehen als DLAA.

1730391440267.png
 
  • Gefällt mir
Reaktionen: Kommando
Danke für den Test.
Habe damals bedauert, RDR nicht auf dem PC spielen zu können. Als dann Teil 2 herauskam, wollte ich zuschlagen, habe das aber wegen eines großen pile of shame bis heute nicht getan. So kann ich wenigstens in der "richtigen Reihenfolge" spielen.
Wobei ich es schon deutlich besser gefunden hätte, wenn man ein Remake von Teil 1 gemacht hätte, z.B. auf technischer Basis von RDR2.
 
  • Gefällt mir
Reaktionen: TheHille und FM301
Habs damals auf der 360 gespielt und RDR 2 am PC. Ich hols mir, vielleicht sogar zum Vollpreis, trotz dem auch bei mir mittlerweile riesigem Pile Of Shame :lol:
 
  • Gefällt mir
Reaktionen: FM301
BoardBricker schrieb:
Danke für den Test.
Habe damals bedauert, RDR nicht auf dem PC spielen zu können. Als dann Teil 2 herauskam, wollte ich zuschlagen, habe das aber wegen eines großen pile of shame bis heute nicht getan. So kann ich wenigstens in der "richtigen Reihenfolge" spielen.
Wobei ich es schon deutlich besser gefunden hätte, wenn man ein Remake von Teil 1 gemacht hätte, z.B. auf technischer Basis von RDR2.
Ähm... du weißt aber schon dass RDR2 das Prequel ist?

Richtige Reihenfolge ist also RDR2 und danach RDR1.
 
  • Gefällt mir
Reaktionen: ChrisMK72, FM301 und phipsi
Wenn der LOD Bias angepasst ist, sieht man sowieso kaum einen Unterschied zwischen DLSS Quality und DLAA, das ist auch im DLSS Programming Guide von Nvidia dokumentiert, da braucht man eigentlich auch überhaupt nicht darüber zu diskutieren.^^

DLSS Programming Guide.png

Figure 1. In the example above, we can see that DLSS with a -2.0 Texture LOD Bias is the closest to the native rendering in termsof preservation of details

Ich hab so oft DLAA mit DLSS Quality verglichen und keinen Unterschied sehen können, und das hier hatte mir dann auch klar aufgezeigt warum.^^
 
Che-Tah schrieb:
Richtige Reihenfolge ist also RDR2 und danach RDR1.
Richtige Reihenfolge ist für mich immer nach Erscheinungsdatum. Memento sollte ja auch keiner in richtiger Reihenfolge schauen, damit der Film so funktioniert, wie vom Regisseur vorgesehen. RDR2 wurde ja mit dem Vorwissen aus Teil 1 im Hinterkopf entwickelt. Hier macht es natürlich nicht sooo einen großen Unterschied, aber ein paar Anspielungen würden einem schon entgehen.
Ergänzung ()

Gravlens schrieb:
Ich hab so oft DLAA mit DLSS Quality verglichen und keinen Unterschied sehen können, und das hier hatte mir dann auch klar aufgezeigt warum.^^
Da hab ich andere Erfahrungen gemacht, aber der Unterschied springt einen auf jeden Fall nicht direkt ins Gesicht und für den massiven Performanceverlust lohnt es sich absolut nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheHille, Cohen und phipsi
Gravlens schrieb:
Wenn der LOD Bias angepasst ist, sieht man sowieso kaum einen Unterschied zwischen DLSS Quality und DLAA, das ist auch im DLSS Programming Guide von Nvidia dokumentiert, da braucht man eigentlich auch überhaupt nicht darüber zu diskutieren.^^

Anhang anzeigen 1538857



Ich hab so oft DLAA mit DLSS Quality verglichen und keinen Unterschied sehen können, und das hier hatte mir dann auch klar aufgezeigt warum.^^
Das kommt denke ich sehr auf das Spiel an bzw. wie und ob das ganze implementiert wird. In AC Mirage konnte ich keinen großen Unterschied zwischen DLAA und DLSS Quality feststellen. In Witcher 3 hingegen wirkt DLSS Quality unter FullHD vor allem in Bewegung sehr verschwommen. Das Erzwingen von DLAA über die Mod DLSSTweaks bringt die gewünschte Schärfe zurück.
 
Habu schrieb:
Da hab ich andere Erfahrungen gemacht, aber der Unterschied springt einen auf jeden Fall nicht direkt ins Gesicht
Naja, solange mir keiner eine seriöse Quelle nennt, verlasse ich mich auf die Quelle bzw. den Guide von Nvidia.^^

Und wie gesagt, natürlich muss der LOD Bias angepasst sein, ich habe dadurch in Starfield z. B. sämtliche nachträgliche Nachschärfungen deaktivieren können, und alles das was Nvidia in ihrem Guide schreibt und ich auch umsetzen kann funktioniert auch so wie sie es schreiben, ich bin sehr, sehr zufrieden damit.^^
Ergänzung ()

@phipsi AC Mirage ist aber auch ein Extrembeispiel, da kann man froh sein wenigstens das Chromatic Aberration zu deaktivieren. :D

Und bei Witcher 3 hatte ich hier im Nachhinein gesehen ziemlichen Blödsinn geschrieben, aber ich hatte kurz dannach sowieso nicht mehr weitergespielt im NG+.^^

Da müsste ich mich erst wieder mit beschäftigen, ich hatte eine Datei heruntergeladen die sämtliche mögliche Konfigurationseinstellungen beinhaltete, aber da hatte ich nicht die Nerven das alles durchzugehen.^^
 
Zuletzt bearbeitet:
Gravlens schrieb:
Naja, solange mir keiner eine seriöse Quelle nennt, verlasse ich mich auf die Quelle bzw. den Guide von Nvidia.^^
Das kann ich nicht, habe leider von der Technik dahinter keine Ahnung. Der Artikel vergleicht aber auch DLSS mit TAA Native oder nicht?

Ich kann mich da nur auf mein Auge verlassen und ich finde, da sieht man schon einen Unterschied;
 
  • Gefällt mir
Reaktionen: phipsi
Die 50 Euro sind schon echt ein Witz.

Aber trotzdem schön das sie es noch für PC gebracht haben. Zur Kantenglättung könnte man doch auch VSR benutzen. Also Downsampling....
 
@Habu Ok, aber das ist mehr als nur DLAA zu aktivieren, das wird anscheinend dort durch DLSSTweaks erzwungen, gut das habe ich nicht gemacht, das stimmt, aber davon kann man aber auch nicht ausgehen.^^
3. Very important: open the dlsstweaks.ini file and make sure you have set "ForceDLAA = true".
Und er schreibt auch nichts zu LOD Bias, wenn das nicht angepasst ist dann ist der Unterschied auch größer.^^
 
  • Gefällt mir
Reaktionen: phipsi
@Gravlens Ist der LOD Bias denn grundsätzlich falsch eingestellt? Ich hab das mal angepasst, wenn bei einem Spiel der falsche Wert vom Entwickler eingestellt war, aber sonst nutze ich das nicht. Davon würde ich jetzt genauso wenig ausgehen, wie DLSSTweaks zu nutzen. ^^

Aber DLSSTweaks ändert eigentlich nur die Renderauflösung und ggf. das Preset, das dürfte also genau wie implementiertes DLAA funktionieren. Wobei das immer wieder verbuggt ausgeliefert wird. Bei The Last of Us oder Alan Wake 2 sah es sogar schlechter als Quality aus, glaube ich.
 
Habu schrieb:
Ist der LOD Bias denn grundsätzlich falsch eingestellt?
Bei Cyberpunk nach Release musste man das über den Nvidia Inspector machen, Default war da dort überhaupt nicht aktiviert, als ich DLSS in Cyberpunk zum ersten mal aktiviert hatte war das sehr unscharf, deshalb habe ich nach Lösungen gesucht wie man das ändern kann.^^

Irgendwann später ist dies dann als Grafikeinstellung ins Spiel integriert worden.^^

Der DLSS Programming Guide von Nvidia den ich erwähnt und davon ein Bild gepostet hatte erklärt das ja sehr gut, um mit DLSS die Qualität von Nativ bezogen auf die Details zu erreichen müsste man -2.0 einstellen, was aber zu unschönen Effekten führen kann, deshalb muss man da meiner Erfahrung nach immer den bestmöglichen Kompromiss finden.^^

Bei manchen Spielen hilft aber auch leider der Nvidia-Inspector nichts.^^
 
  • Gefällt mir
Reaktionen: Habu
Habu schrieb:
Das kann ich nicht, habe leider von der Technik dahinter keine Ahnung. Der Artikel vergleicht aber auch DLSS mit TAA Native oder nicht?

Ich kann mich da nur auf mein Auge verlassen und ich finde, da sieht man schon einen Unterschied;
Die Frage ist halt, ob es auch so implementiert wurde wie im verlinkten Guide, also mit LOD Bias -2.
Das können wir so nicht abschätzen.
 
Bitte nicht -2 nehmen, das haben die dort als Veranschaulichung genommen.^^

Ich habe in Starfield -0.6 zuletzt eingestellt, ich wollte jetzt Beispielbilder posten, aber natürlich sieht man da keinen Unterschied, ich glaube ich muss die Einstellung komplett entfernen.^^

Oder es wurde nach den Patches die Schärfung wieder aktiviert, egal, es scheint bei Red Dead Redemption jedenfalls bereits aktiviert zu sein:
Man nutzt einen negativen LOD-Bias bei den Texturen, um für qualitativ bessere Mip-Maps zu sorgen, was wunderbar zur verbesserten Auflösung passt.
https://www.eurogamer.de/red-dead-r...r-xbox-one-x-sensationell-aus-digital-foundry
 
Gravlens schrieb:
Oder es wurde nach den Patches die Schärfung wieder aktiviert, egal, es scheint bei Red Dead Redemption jedenfalls bereits aktiviert zu sein
Wäre ja mal ein Thema für einen Sammelthread mit der optimalen DLSS Version sowie Preset und LOD Bias für einzelne Spiele, wo die Entwickler mal wieder nicht so sauber gearbeitet haben wie hier. Wobei ich bei RDR wohl auch Downsampling nutzen würde, das hab ich auch beim zweiten Teil schon gemacht.
 
Also vergleichbar mit xBox One Enhanced-Version und da finde ich die Farbgebung bei der xBox Version schöner.
 
Zurück
Oben