• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Death Stranding im Test: Benchmarks der PC-Version mit DLSS 2.0 und FidelityFX

Scrush schrieb:
schau dir DLSS 2.0 mal in control an.

das sieht unfassbar blurry aus und um das zu kompensieren scheint es so dass man einen sharpening filter drübergeklatscht hat.

Es sah besser aus als Full HD, und damit erst recht besser als der Matsch, der dabei herausgekommen wäre, wenn ich den neuen WQHD-Monitor Full HD hätte hochskalieren lassen.
 
  • Gefällt mir
Reaktionen: Wintermute
Scrush fährt eigentlich in jedem Beitrag gegen DLSS.

Obwohl es in letzter Zeit diverse Tests gab, die zeigen, dass DLSS 2.0 fantastische Arbeit macht.
Davor war es wirklich grausam. Jetzt definitiv nicht mehr.
 
  • Gefällt mir
Reaktionen: !Whip, adAstra, v_ossi und eine weitere Person
noxon schrieb:
Das ist aber der einzige Vergleich der interessiert.
Es geht nicht darum DLSS mit einem Spiel ohne performancesteigerndem Algorithmus zu vergleichen, sondern TAA mit DLSS.

Dann sollte man aber auch aufhören immer zu sagen "DLSS sieht besser aus, als nativ".

Ich denke niemand streitet ab, das DLSS Performance bringt und das Bild auch akzeptabel aussieht.
Aktuell kann man DLSS kaum vernünftig vergleichen, da DLSS Spiele nur mit Unschärfefiltern und TAA raus kommen (oder zumindest immer nur DLSS vs TAA verglichen wird).
Die Vergleichsbasis ist einfach beschissen. Und klar sieht dann DLSS besser aus und bringt noch zusätzlich Performance. Hätten diese Spiele schärfere Bilder von Haus aus, wäre der Effekt von DLSS mit Sicherheit nicht so groß.

Das ist genauso wie vergleiche mit RTX on, man lässt einfach die Reflexionen weg und schon sieht es gleich viel besser aus. Würde man die Leistung die RTX Reflexionen kosten in rasterized Reflexionen stecken, wäre der AHA-Effekt bestimmt auch nicht so hoch.
 
  • Gefällt mir
Reaktionen: Bccc1 und Mcr-King
Dass schreit ja nach Community Benchmarks. ;)
Ergänzung ()

Taxxor schrieb:
Gar nicht, weil's nicht meine Messungen sind^^

Möglichkeiten:
Andere Szene, andere Auflösung (ziemlich sicher 720p), andere GPU ( Ryzen gehen in DX12 im CPU Limit besser mit einer AMD GPU)

Dass ist was ich immer sage AMD GPU auf AMD CPU immer besser NV GPU auf AMD CPU immer schlechter.

Genau deswegen immer Intel + NV und AMD+AMD sonst gehen mal 7% verloren.

Auch zu DLSS 2.0 ja nicht schlecht aber MSAA und TSAA und FSTAA und andere gute Filter fehlen und genau deswegen kosten PC Games bald 80€ danke NV und Co dafür. ;)
Ergänzung ()

Auch FidelityFX kann mehr nur kostet es Zeit und Geld.

Trotzdem kein Regen WTF macht die Ki da bitte für Käse grade bei dem Game für die Atom wichtig.
 
Zuletzt bearbeitet:
Langsam mache ich mir echt Sorgen um meine Vega 56. Schon in F1 2020 sieht es nicht toll aus, nun auch noch hier. Der Abstand zur RX580 ist ganz schön klein geworden...
 
  • Gefällt mir
Reaktionen: thepusher90 und rumpeLson
Mcr-King schrieb:
Dass ist was ich immer sage AMD GPU auf AMD CPU immer besser NV GPU auf AMD CPU immer schlechter.

Genau deswegen immer Intel + NV und AMD+AMD sonst gehen mal 7% verloren.

Gibt's dazu Daten?
 
  • Gefällt mir
Reaktionen: LukS
Lustige Mitmenschen unterwegs hier

Freut mich, dass jetzt auch PC-Onlygamer dazu kommen das Spiel anzuspielen, vor allem bei dem scheinbar gelungenem Port.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Mcr-King
whyme schrieb:
Aktuell kann man DLSS kaum vernünftig vergleichen, da DLSS Spiele nur mit Unschärfefiltern und TAA raus kommen (oder zumindest immer nur DLSS vs TAA verglichen wird).
Das stimmt doch nicht. Auch die ursprüngliche Behauptung, dass DigitalFoundry immer nur mit TAA vergleichen würde kann ich nicht nachvollziehen.
Ich kann mich jedenfalls sehr gut an die nativen Vergleiche erinnern, die sie bei Control und Wolfenstein: Youngblood durchgeführt haben.
Auch dort sind sie zu dem Ergebnis gekommen, dass DLSS teilweise feine Details sogar besser darstellt als die native Auflösung das kann. Die Szene auf der rechten Seite (4x vergrößert) sieht in der Entfernung zum Beispiel deutlich schärfer aus.


Natürlich ist DLSS kein Wundermittel und Kanten weisen bei naher Betrachtung eine Weichzeichnung auf, die man bei nativer Auflösung nicht hat, aber bei hohen Auflöungen kann das sogar ein wünschenswerter Effekt sein. Es flimmert zumindest deutlich weniger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: !Whip
HwHaTe schrieb:
Scrush fährt eigentlich in jedem Beitrag gegen DLSS.
es ist optisch halt defintiv schlechter als native^^

DLSS ist keine Lösung sondern ein Kompromiss.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Der Paule und Mcr-King
netbuster21 schrieb:
Langsam mache ich mir echt Sorgen um meine Vega 56.
netbuster21 schrieb:
Der Abstand zur RX580 ist ganz schön klein geworden...
Also falls du vor hast, die neuesten Spiele beim Launch zu spielen, würd ich die Vega an deiner Stelle schnell abstoßen. Ansonsten: in ein paar Wochen/Monaten wirds vermutlich besser aussehen. Vega wurde schon immer sehr stiefmütterlich behandelt seitens AMD, jetzt mit Navi ist es noch viel schlimmer geworden, Vega ist auf der Prioritätsliste scheinbar ganz unten.

Mich trifft es nicht wirklich, ich hab meine V56 letzten Sommer für 243€ gekauft und spiele fast nie etwas, dass nicht mindestens 2 Jahre alt ist, bis dahin passt dann auch die Vega Performance und aus Preis-/Leistungssicht war es immer noch die richtige Wahl für mich, trotz der Probleme.
 
  • Gefällt mir
Reaktionen: Celinna und Mcr-King
Scrush schrieb:
es ist optisch halt defintiv schlechter als native^^

DLSS ist keine Lösung sondern ein Kompromiss.

Meinst Du mit nativ "ohne jegliches Anti Aliasing"?

Aber macht dieser Vergleich denn überhaupt Sinn? Aktuelle Spiele MUSS man doch praktisch mit irgend einer Form von AA spielen, weil sonst die Treppeneffekte den Gesamteindruck massiv verschlechtern.

lg
 
  • Gefällt mir
Reaktionen: Xes, hurcos und Fraggball
DLSS ist aber kein AA ^^

klar natürlich ist ohne AA mist das kann ich auch nicht abhaben
 
Ich weiss nicht, wieso immer alle von KI reden! Ja DLSS verwendet ein Deep Learning Model (viele Schichten) damit das Ergebnis "besser" aussieht aber es ist ja nicht so, dass auf dem Rechner die DLSS KI läuft. Das sind nur Ergebnisse welche im Treiber gespeichert sind und angewendet werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
Mcr-King schrieb:
[...]
Dass ist was ich immer sage AMD GPU auf AMD CPU immer besser NV GPU auf AMD CPU immer schlechter.

Genau deswegen immer Intel + NV und AMD+AMD sonst gehen mal 7% verloren.
[...]

Puh, das hätte ich auch gerne mal belegt.
 
  • Gefällt mir
Reaktionen: Apocalypse, LukS, Celinna und 2 andere
Der 7700K ist schneller als der 1600, weil er mehr Ghz hat, nicht weil er mehr Threads hat.
Beim 9900K zum 3600 ist sogar beides der Fall und trotzdem ist der 9900K langsamer?

Die Frametimes des 9100 sind wesentlich schlechter als erwartet. Nur 1/3 des 7700K ist mager.
Wenn man den 9100 und 7700K direkt vergleicht, hat man halb so viel Threads, dann wären wir
im Idealfall (in der Regel weit davon entfernt, HT verdoppelt praktisch nie die FPS Zahl) bei ~45fps
(kann man ja auch leicht prüfen wenn man das HT hier ausschaltet). Aber 8% weniger Boost Takt
auf der gleichen Anzahl an Kernen kostet nochmal 1/3 der Leistung? Ist das für alle hier schlüssig?

1594985480324.png


Ich sage nicht, dass die hier gezeigten Werte nicht stimmen, ich verstehe sie nur nicht.
 
  • Gefällt mir
Reaktionen: !Whip und Mcr-King
Ich weis nur, daß Zen3 Ende des Jahres das Ding rocken wird!
 
  • Gefällt mir
Reaktionen: Celinna, ThePlayer, Pisaro und eine weitere Person
HwHaTe schrieb:
Puh, das hätte ich auch gerne mal belegt.

Werden wir ja bei der RTX30er im November sehen bitte aber neues NT nicht vergessen. ;)
 
Jeder Ruckler zieht die Frametimes weiter nach unten. 4 Kerne sind zu wenig. 9900K ... geh weg!
Zum Glück ist der 3300X nicht im Test, der wahrscheinlich auch am 9900K vorbeigehen würde.

@Wolfgang Könntest du den 3300X noch benchen, oder wäre dann die Demütigung einfach viel zu groß? [lach]
 
  • Gefällt mir
Reaktionen: ThePlayer
Mcr-King schrieb:
Werden wir ja bei der RTX30er im November sehen bitte aber neues NT nicht vergessen. ;)

Aha. Und wo ist jetzt der Beleg zu deiner Behauptung?
Ich wüsste nicht was die neuen Nvidia-Karten und eine eventuelle höhere Leistungsaufnahme damit zu tun haben.

Nochmals das Zitat: "Genau deswegen immer Intel + NV und AMD+AMD sonst gehen mal 7% verloren."
 
  • Gefällt mir
Reaktionen: LukS
Zurück
Oben