• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Death Stranding im Test: Benchmarks der PC-Version mit DLSS 2.0 und FidelityFX

Interessantes Update, haben wir hier wirklich ein Game das mit 24 Threats klar kommt oder kommen die mehr FPS zum 9900k dadurch dass das Game besser mit AMD klar kommt?
Eventuell kommt ja noch ein Test mit 3700x dann dürfte es klarer werden. :)
 
  • Gefällt mir
Reaktionen: Laphonso und Mcr-King
Xes schrieb:
Wow DLSS wird immer interessanter. :)
40% Mehrperformance bei gleicher oder oder sogar leicht besserer Optik ist der Wahnsinn.
Zur Erinnerung: Das ist Vergleichbar mit einem Performance Sprung wie zwischen RTX 2060 vs. RTX 2080 Super, wofür normalerweise über 300€ fällig werden.
Hoffentlich intergieren das noch mehr Spiele.

schau dir DLSS 2.0 mal in control an.

das sieht unfassbar blurry aus und um das zu kompensieren scheint es so dass man einen sharpening filter drübergeklatscht hat.

wie in einem ultra schlechtem reshade preset
 
Halbgott schrieb:
Vollzitat entfernt
Der größte Blödsinn den ich je gehört habe. Als ob jemand ohne irgend ein AA jemals spielen würde. Da muss man aber eine sehr große Toleranz gegenüber treppenartige Kanten haben bzw. Eine sehr geringe Aufmerksamkeit.
 
Zuletzt bearbeitet von einem Moderator: (Vollzitat entfernt)
  • Gefällt mir
Reaktionen: hurcos
vielleicht auch mal wieder ein Kopierschutz der die CPU mit Abfragen zumüllt. Hoffentlich kommen da noch ein paar Nachtests mit mehr CPUs wenn der Kopierschutz das wieder ermöglicht.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
SV3N schrieb:
Schönes Spiel, habe es auf PS4 nur bei einem Freund angetestet, da ich jetzt die PC-Version in Ruhe auf dem CX48 genießen werde.

Optisch hätte die PC-Version gerne noch ein wenig mehr drauflegen dürfen, da hat mich die PC-Version von Horizon Zero Dawn, welches ich im Anschluss spielen werde, mehr geflasht.

DLSS macht einen guten Job und gefällt mir immer besser.

Ich werde wohl erst einen neuen 4000er Ryzen gebrauchen tja 4Core stirbt, glaube dann wird dass Horizon Zero Dawn auch nicht laufen. Ach meno :(
 
BxBender schrieb:
Vollzitat entfernt
Wenn ein Bild besser aussieht ist es nun mal ein besseres Bild. Egal ob 50 % der Informationen durch eine Ki dazugerechnet wurden oder nicht. Das ist doch das gleiche wie wenn alte Fotos oder Videos nachgeschärft werden und dann einfach deutlich besser aussehen. Das Bild ist dann besser. Fakt. Wenn es nicht besser wäre würde man sich nicht die Mühe machen.
 
Zuletzt bearbeitet von einem Moderator: (Vollzitat entfernt)
DLSS 2.0 ist eine große Errungenschaft und DLSS 3.0 wird nochmal alles in den Schatten stellen, jeder der hier kritisiert betreibt Nitpicking.
Wird Cyberpunk DLSS unterstützen? Wenn ja, dann Holla die Forestfee
 
  • Gefällt mir
Reaktionen: !Whip, e_Lap, Laphonso und eine weitere Person
HanneloreHorst schrieb:
Naja, wir bewegen uns ja sowieso in gefühlten Wahrheiten.
Und wenn es ums "fühlen" geht, dann ist es tatsächlich egal.
Hier zeigen die Konsolen, dass das immersive Gefühl auf der Couch eben durch andere Sachen erreicht werden, als am PC.
Ich glaube, dass gleicht sich alles aus, so klein ist der Unterschied hier.
Wofür aber wohl weniger der PC als Plattform was kann, als die Optimierung eben nicht bis zum Ende ausgereizt wurde.
Solche games zocke ich an meinem 120hz oled gsync tv und mit controller. Da ist die pc erfahrung immer überlegen.
 
Halbgott schrieb:
Konsole ist und bleibt die Referenz bei Gaming.

Das gute abschneiden der AMD Karten ist alles andere als verwunderlich, insbesondere bei solchen Engines.

Eigentlich hat man hier mal wieder gar keinen Vorteil, nur das PC Gaming viel teurer ist.
Selbst ein Budget PC ist weit oberhalb einer PS4 anzusiedeln.

Wer mehr als 200 Euro bei einer Grafikkarte am PC ausgibt hat meiner Meinung das Geld verschwendet.
Upgrade lohnt sich erst wieder im September zur Next Gen.

Im Grunde reicht es heute noch eine 5 oder 6 Jahre alte Grafikkarte zu besitzen und kann in Ultra Preset spielen.

Ist sicherlich frustig wenn man viel Geld beim PC raus wirft.

Das Game selbst ist genial, mag aber eh alle PS4 Games. Haben nicht umsonst Wertungen jenseits der 90. Viele 0815 Gamer haben heute eben keinen Respekt mehr vor Story Games und Kunst, wollen einfache und schnelle Kost.

Dein Post ist pure Pauschalisierung.
Ich brauch den PC vorwiegend zum Arbeiten (Home Office) und Hobby (Virtualisierung, Transcoding, Archive Packen/Entpacken und Kompilieren).
Da reicht ein R5 2600X, 16 GB RAM und GTX 1060 6GB gerade so knapp, damit kann ich aber auch par ordentliche Spiele spielen und das quasi gratis. ;)
Für eine PS4 müsste ich mir jetzt extra eine Konsole kaufen, Platz in meinem HiFi Rack schaffen, schauen dass der Fernseher von meiner Familie (Kinder/Frau) nicht besetzt ist und hätte wieder ein Stück Technik mehr in der Wohnung...
 
  • Gefällt mir
Reaktionen: !Whip
AAS schrieb:
Dein Post ist pure Pauschalisierung.
Ich brauch den PC vorwiegend zum Arbeiten (Home Office) und Hobby (Virtualisierung, Transcoding, Archive Packen/Entpacken und Kompilieren).
Da reicht ein R5 2600X, 16 GB RAM und GTX 1060 6GB gerade so knapp, damit kann ich aber auch par ordentliche Spiele spielen und das quasi gratis. ;)
Für eine PS4 müsste ich mir jetzt extra eine Konsole kaufen, Platz in meinem HiFi Rack schaffen, schauen dass der Fernseher von meiner Familie (Kinder/Frau) nicht besetzt ist und hätte wieder ein Stück Technik mehr in der Wohnung...

PS Konsole geht auch am Monitor wie meine Switch HDMI macht es möglich. ;)
 
dann sind wohl die Behauptungen der anderen Seiten schlicht falsch das es Top skaliert bis zu 12 Kerne(Gamestar) oder hier auf Seite 1 CapframeX
Anscheinend reichen 8 echte + 8 virtuelle wohl schon für die beste Skalierung sonst wäre der Abstand zum 9900k definitiv größer wenn 4 echte Kerne zusätzlich noch was bringen würden.

Sieht man gut auch am 3600 zum 3900X der Unterschied ist viel zu gering für 6 echte Kerne weniger.

Edit: Danke @Wolfgang für die CPU Tests
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Ich bin beeindruckt, hab mir da jetzt sehr viele Videos angesehen und finde es unglaublich gut was da NVIDIA rausgezaubert hat.

Selbst 540p mit DLSS 2.0. sieht teilweise besser aus als 1080p Native - wie auch immer das gehen soll.
 
ridgero schrieb:
Ich bin beeindruckt, hab mir da jetzt sehr viele Videos angesehen und finde es unglaublich gut was da NVIDIA rausgezaubert hat.

Selbst 540p mit DLSS 2.0. sieht teilweise besser aus als 1080p Native - wie auch immer das gehen soll.

Biss auf dass der Regen verschwindet habe es auf YouTube nach gesehen.
 
@Taxxor
@ZeroStrat wie erklärst du dir die Unterschiede zwischen deinen Messungen und denen von @Wolfgang? Bei den avg-fps seh ich ja durchaus Parallelen, aber bei den Frametimes ist das Bild dann doch ganz anders.
Wie hast du den 3950X beschnitten? Per BIOS, oder per Software? Kann es am AMD GPU Treiber liegen, dass der irgendwie besser von mehr Threads profitiert? In welcher Auflösung und mit welchen Settings hast du überhaupt getestet?
 
Zuletzt bearbeitet: (Sorry für die Verwechslung.)
Scrush schrieb:
schau dir DLSS 2.0 mal in control an.

das sieht unfassbar blurry aus und um das zu kompensieren scheint es so dass man einen sharpening filter drübergeklatscht hat.

wie in einem ultra schlechtem reshade preset
Sicher, dass das an DLSS liegt? Das Bild ist so schon extrem kriselig/unscharf.
 
naja also zwischen nativen auflösung und DLSS ist dann schon nochmal ein deutlicher unterschied :)
 
incurable schrieb:
Wenn auch hier wieder DLSS nur mit einer verschmierten TAA-Version verglichen wurde (wie bei DigitalFoundry, und seit dem großen DLSS 2.0 Markingpush von Nvidia so weit ich mich erinnere immer) ist das auch keine Kunst.
Das ist aber der einzige Vergleich der interessiert.
Es geht nicht darum DLSS mit einem Spiel ohne performancesteigerndem Algorithmus zu vergleichen, sondern TAA mit DLSS.
Sowohl TAA als auch DLSS rendern mit verringerter Auflösung um die Performance zu steigern. Beide versuchen dabei die Qualität möglichst wenig zu reduzieren. Deswegen werden die beiden miteinander verglichen.

Ergebnis ist, dass DLSS eine bessere Performance UND eine bessere Qualität liefert als TAA. Es ist also in beiderlei Hinsicht die bessere Wahl.

Natürlich kann man jetzt noch DLSS mit dem nativen Bild vergleichen und da Unterschiede heraussuchen, aber das sollte man dann aber auch immer unter den Gesichtspunkten des Performanceunterschieds machen.
Lohnt es sich wirklich aufgrund minimaler Artefakte auf einen Performanceboost von 80% zu verzichten?
Das ist ein Leistungssprung von zwei Grafikkartengenerationen, den man mal eben per Software erzielt.
 
Mcr-King schrieb:
Biss auf dass der Regen verschwindet habe es auf YouTube nach gesehen.
weil das bild blurry wird. siehe das PCGH video zu Death stranding.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King
An den Anblick der CPU Ergebnisse muss sich Intel wohl gewöhnen sobald Zen 3 erhältlich ist... Spass bei Seite, aber die Engine ist echt klasse, sieht gut aus und ist performant, auch ohne DLSS.
 
  • Gefällt mir
Reaktionen: ThePlayer und Mcr-King
stevefrogs schrieb:
@Taxxor wie erklärst du dir die Unterschiede zwischen deinen Messungen und denen von @Wolfgang?
Gar nicht, weil's nicht meine Messungen sind^^

Möglichkeiten:
Andere Szene, andere Auflösung (ziemlich sicher 720p), andere GPU ( Ryzen gehen in DX12 im CPU Limit besser mit einer AMD GPU)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: !Whip, Wintermute, stevefrogs und eine weitere Person
Zurück
Oben