• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Death Stranding im Test: Benchmarks der PC-Version mit DLSS 2.0 und FidelityFX

Ganz einfach die neuen GPUs von NV sind auf AMD CPUs ausgelegt auch.

Also mehr Cores und dem CCX des AMD CPU angepasst davon ab gesehen dass sie alle PCIe4.0 unterstützen.
 
Schade dass man nicht im Spiel selber DSR/VSR nutzen kann. Denn auf 1080p (1200p) sieht TAA auch mit 100% Schärfe einfach schlecht aus. Und ohne TAA bekomme ich auch Augenkrebs. Das ist irgendwie bei allen Titeln die TAA nutzen so. Tomb Raider oder RDR2. Man hat die Wahl zwischen Brei und Matsch.

Abhilfe verschafft einzig DSR/VSR und das geht hier zum Glück über Windows. Das zusammen mit CAS und das Spiel sieht toll aus und läuft super. Warum nicht direkt integrieren? Und warum keine anderen AA Techniken zur Auswahl geben?
 
  • Gefällt mir
Reaktionen: Mcr-King
Hier wird ja wieder mit brandaktueller Hardware getestet in FH. :D
 
  • Gefällt mir
Reaktionen: !Whip
Ich glaub wohl, dass das Spiel perfekt für die Konsole ist.
 
Lord_X schrieb:
Ich weiss nicht, wieso immer alle von KI reden! Ja DLSS verwendet den Deep Learning Model (viele schichten) damit das Ergebnis "besser" aussieht aber es ist ja nicht so, dass auf dem Rechner die DLSS KI läuft. Das sind nur Ergebnisse welche im Treiber gespeichert sind und angewendet werden.
Das trainieren des neuronalen Netzes gehört genau so zur KI, wie anschließend die Berechnungen die im neuronalen Netz durchgeführt werden. Das Eine funktioniert ohne dem Anderen nicht.

Bei DLSS 2.0 stecken übrigens auch keine spielespezifischen Wichtungen mehr im Treiber. Das war bei DLSS 1.0 mal so, dass die Wichtungen für jedes Spiel einzeln bei Nvidia antrainiert werden mussten. DLSS 2.0 funktioniert hingegen mit allgemeingültigen Wichtungen, die auf alle Spiele angewendet werden können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lord_X
borizb schrieb:
Ich sage nicht, dass die hier gezeigten Werte nicht stimmen, ich verstehe sie nur nicht.
Also der 9100 ist eigentlich leicht erklärt, es gibt Grenzen, da sinken bzw steigen die FPS nur ein wenig, es gibt aber auch härtere Grenzen, wo eine CPU dann gar nicht mehr hinternehrkommt.

Je nach Engine passiert das bei unterschiedlichen Stufen, diese hier ist wohl darauf ausgelegt 8 Threads zu brauchen um ordentlich zu laufen.

Von 12 auf 8 Threads runter passiert nicht sooo viel, von 8 auf 4 Threads reicht es dann aber plötzlich nicht mehr aus, um überhaupt schnell genug nachzuladen, dass das Bild flüssig bleibt.

Dieser 30er Wert bei den Perzentilen beschreibt dabei die Drops, denen man trotz dreistelliger average FPS dann eben ausgesetzt ist, weil alle 4 Threads auf Anschlag laufen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS und Mcr-King
@v3locite Ich meine das In-Home-Streamig bzw. Remote-Play von Steam kann mittlerweile auch 4k, wenn Du ein verkabeltes Netzwerk sowie einen halbwegs potenten Client (z.B. Notebook?) am TV hast. Siehe:

[...] Sie haben eine hochleistungsfähige Gaming-Konfiguration, ein verkabeltes Netzwerk und ein sehr gutes Client-Gerät? Dann können Sie sogar in 4K mit 60 FPS streamen! [...]

4k wird mir in den Steam-Optionen angezeigt, ich glaube aber, dass Du auf HDR derzeit noch verzichten muss. Ansonsten wäre ggf. noch ein NVidia-Shield für's InHome-Streaming eine Option, oder aber auch Moonlight. Wobei ich letzteres selbst noch nie getestet hab.
 
Das Spiel fetzt so derbe auf UHD+HDR+Kalibrierung ohne AA und ohne FFX \o/

Und danke für den Test - ich meine mit dem neuen Treiber wäre auch das HDR besser geworden (davor war das Bild eher blass). Aber direkt nach dem neuen Treiber hatte ich die Helligkeit und das HDR im Spiel nachjustiert, wodurch der Eindruck auch dadurch zustande gekommen sein kann. Egal. Das Spiel fetzt sowohl optisch als auch inhaltlich. Top :)
 
  • Gefällt mir
Reaktionen: Mcr-King
Hab mir jetzt mal alle Posts durchgelesen.

Interessant, dass es immernoch so große Unklarheiten bezüglich DLSS gibt.

Mein hier ausgebreitetes Wissen bezieht sich dabei auf meine eigene Implementation von DLSS bezüglich des Projekts an dem ich arbeite im entsprechenden UE4 branch (hier beantragbar https://developer.nvidia.com/dlss). In einigen Punkten muss auch ich den technischen Aussagen vertrauen, die NVIDIA so nach außen lässt, weil die DLSS2.0 Bibliothek "closed" ist.

1. Antialias generell
Es gibt viele kritische Stimmen bezüglich des Vergleichs von DLSS zu TAA, bzw. zu anderen TAA Verfahren, die das Bild weichzeichnen bzw. verwaschen.

Zudem gibt es die Stimmen, die das ungeglättete Bild als Vergleich heranziehen wollen.

Grundsätzlich ist es in modernen Engines zwar möglich, das Bild auch (vermeintlich) nativ zu fahren, jedoch generiert man damit in erheblich höherem Maße das, was man den AA Verfahren hier als Schwäche anlastet
-> jede Menge Artefakte.

Das geht sogar so weit, dass manche Engines überhaupt keinen Betrieb ohne temporales AA mehr zulassen.
Hintergrund:Viele Effekte von modernen Spieleengines setzen zum Teil auf stochastische Renderverfahren (ähnlich dem Raytracing).
Diese Effekte/Verfahren sind, um in performancetechnisch annehmbare Regionen zu gelangen, stark verrauscht, geblurt und über Gradienten geglättet und trotzdem noch darauf angewiesen temporal behandelt zu werden.

Daher ist eine temporal funktionierende Glättung ein Muss, da man ansonsten auch auf 4K erstens eine Flimmerhölle erhält und zweitens das Bild temporal instabil wird (die berühmten Ameisen, die selbst bei Stillstand durchs Bild laufen). Ein aktuelles Beispiel ist da der Resident Evil 2 Remake->Klick mich.

Als Folge davon wäre es völlig sinnlos, das "native" Bild als Referenz heranzuziehen, weil dieses abseits eines einfachen Screenshots so viel Alias und Näherungsfehler bzw. Bildrauschen erzeugen würde, dass es einen deutlich höheren Impact auf die allgemeine Bildqualität haben würde als jedes noch so schäbige TAA- Antialias.

2. Hier fällt immer wieder das Stichwort DLSS3.0 und dabei geistern dabei Vorstellungen umher, als dass es "universell" über den Treiber für alle Titel einstellbar sei.

Dazu wäre zu sagen, dass DLSS2.0 kein postprocessing- AA ist. Es muss also immer und für jeden Titel gesondert unterstützt werden.
Genau wie alle anderen AA- Techniken, die eben nicht im Postprocessing über das fertig berechnete Bild wischen.

DLSS kann als Proxy einfach zwischen jeglicher beliebiger TAA Integration fungieren, wobei für DLSS noch zusätzliche Daten überreicht werden müssen.

Somit muss ich leider vielen die Hoffnung nehmen, dass DLSS2.0 in der aktuellen Funktionsweise, auch auf ältere Titel anwendbar sein wird.

3. Es kommt zusätzlich immer wieder die Frage auf, wie ein Bild, das auf "Upscaling" basiert, bessere Qualität haben soll, als das "native" (steht deswegen in Anführungszeiten, weil das was viele hier als natives Bild bezeichnen rein rendertechnisch oftmals weit davon entfernt ist).

Da müssen wir einen Blick darauf werfen, wie DLSS funktioniert.

1594991848557.png


Es funktioniert also schonmal nicht so, wie sich das einige hier vorstellen.
Niedrig aufgelöstest Bild nehmen, magischen Staub (KI) drüberträufeln und schon kommt ein Bild raus, was ohne Zusatzinformation "schärfer als die Realität" ist.

Der Witz an der ganzen Geschichte (und das ist das was hier einige als Magie bezeichnen) ist, dass es letzenendes keine geringere eingabe- Auflösung gibt, weil das Verfahren darauf basiert, auf bereits vergangene , aktuelle und das zukünftig kommende Frame zuzugreifen.

Ich habe also das x- Fache an Bildinformation (Bild wird bei jedem Frame an einer anderen Stelle abgetastet) noch ohne dass die KI da Hand angelegt hat.

Die Schwierigkeit ist es, die Bildinformation konsistent zu halten.
Denn in Bewegung muss der Algorithmus dafür sorgen, dass die "gemerkten" und nicht mehr neu berechneten Pixel vom Vorgänger- Frame und vom aktuell berechneten Frame wieder an die richtige Position neben dem Pixel des zukünftigen Frames gesetzt wird.

Und dafür benötigt DLSS2.0 zusätzliche Informationen aus den Framebuffern, aus welchen es Motion Vektoren berechnen kann (ähnlich einer Frame- Interpolation) und somit präzise vorhersagen kann, wo diese Pixel jeweils stimmig angeordnet werden müssen (history rectification). Siehe auch das Schaubild oben.

Und das ist auch der Knackpunkt, der entscheidend für die Qualität des ganzen Unternehmens ist.
Versagt diese Vorhersage, setzt DLSS das Pixelraster falsch zusammen und es kommt zu Bildfehlern.

Ist das Bild mit x- Facher Grundinformation an Details dann "zusammengesetzt", fängt die KI an, nach Artefakten und Fehlern zu suchen (Mustererkennung) und die harten Kanten, die durch das "virtuelle Supersampling" (mehrfache Bildinformation) übrig geblieben sind, nach seinen Deep- Learning- Erfahrungen dem Optimum anzunähern.

1594991017283.png


Als Basis für die Charakteristik des Bildes werden auf 16 K und 64- Fachen Supersampling generierte Bilder (ground truth) verwendet.
Auf die wird die KI dann "eingeschossen" und diese legt dann den letzten Schliff über das endgültige Frame.

So weit so gut.... Jetzt sollte jeder hoffentlich verstanden haben, dass DLSS die Informationen nicht aus dem "Nichts" dazu erfindet, sondern diese Informationen vorhanden bzw. errechnet sind.

Als Analogie kann man vielleicht noch als Beispiel einige 4K Projektoren aus dem Heimkinobereich heranziehen:
Die Kernskepsis lässt sich hier nämlich auf einen zentrale Frage zusammenschmelzen:
Wie kann es sein, dass ein niedrig aufgelöstes Bild durch irgendeine KI mehr Details zeigen soll?

Wenn man die Technik dahinter nicht verstanden hat, dann ist es auch völlig klar, warum hier von Grund auf Skepsis herrschen muss.

Unternehmen wir mal noch ein par Erklärungsversuche:
Nehmen wir mal ein Beispiel aus der Projektionstechnik, dann wird das ganze vielleicht anschaulicher.

Die überwiegende Anzahl der heutzutage erhältlichen Beamer arbeitet mit shifting- Technik.
Die native Auflösung der meisten 4K- Projektoren ist FullHD.

Was macht man nun um auf die 4K zu kommen:
https://www.digitec.ch/de/page/pixel-shifting-das-gefaelschte-4k-7929

Und so kann man sich das ganz grob mit DLSS auch vorstellen. Wobei dort das Bild mehrfach geshiftet bzw. mehrfach x abgetastet wird.
Vorgängerframe, aktuelles Frame und zukünftiges Frame, jeweils an einer anderen Position.

Der Nachteil der dadurch entsteht, ist ein genereller Lag von einem Frame, ermöglicht aber (wie bereits oben beschrieben) eben eine mehrfache Abtastung des Bildes und damit im Idealfall eine höhere Auflösung, da die einzelnen Frames gejittert und um die Bewegungsvektoren korrigiert (Ghostinggefahr) im target frame wieder zusammengebastelt werden.

Man kann es als Mehrfach Checkerboarding ohne einige der Nebeneffekte, die dort auftreten bezeichnen.
Die Framebuffer für Albedo/Texturen bleiben übrigens von DLSS2.0 unberührt. Da gibts kein Upscaling oder Processing.

Wer also bei DLSS 2.0 bessere oder schlechtere Texturen sieht, tut dies nur, weil entweder im Post- Processing geblurt oder nachgeschärft wird oder die Implementation nicht sauber erfolgt ist.

So- Ich hoffe das die Erklärungen ein wenig "Folklore" von den weiteren Threads über DLSS nehmen....

Hier noch ein wenig Stoff:
https://wccftech.com/nvidia-dlss-2-0-behind-the-scenes-how-the-magic-happens/
https://www.nvidia.com/de-de/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/
https://www.reddit.com/r/nvidia/comments/fvgl4w/how_dlss_20_works_for_gamers/

Update:
In den neueren Iteraltionen von DLSS 2.x aufwärts können fast beliebig viele Bilder zur Informationsgewinnung bzw. zum Zutrag zum Supersampling verwendet werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ufopizza, stolperstein, Zwiebelsoße und 24 andere
Da schau mal her. Der 3900XT ist also die neue Gaming-CPU schlecht hin. Da bin ich mal auf Ryzen 4000 gespannt! 😊
 
  • Gefällt mir
Reaktionen: Sun-Berg und Mcr-King
Halbgott schrieb:
Konsole ist und bleibt die Referenz bei Gaming.

Das gute abschneiden der AMD Karten ist alles andere als verwunderlich, insbesondere bei solchen Engines.

Eigentlich hat man hier mal wieder gar keinen Vorteil, nur das PC Gaming viel teurer ist.
Selbst ein Budget PC ist weit oberhalb einer PS4 anzusiedeln.

Wer mehr als 200 Euro bei einer Grafikkarte am PC ausgibt hat meiner Meinung das Geld verschwendet.
Upgrade lohnt sich erst wieder im September zur Next Gen.

Im Grunde reicht es heute noch eine 5 oder 6 Jahre alte Grafikkarte zu besitzen und kann in Ultra Preset spielen.

Ist sicherlich frustig wenn man viel Geld beim PC raus wirft.

Das Game selbst ist genial, mag aber eh alle PS4 Games. Haben nicht umsonst Wertungen jenseits der 90. Viele 0815 Gamer haben heute eben keinen Respekt mehr vor Story Games und Kunst, wollen einfache und schnelle Kost.
Ultra Preset mit 200€ Graka oder 5-6 Jahre alter? Selten so einen Dünnpfiff gelesen! In 480p vielleicht!

Die teuren Konsolen schaffen zwar 4k, aber meistens nur mit 30 Frames (Grafisch anspruchslose Titel jetzt mal ausgenommen) und deren Preset ist dann meistens eine Mischung aus Mittel und Hoch am PC!

Wenn du vom Halbgott zum Gott aufsteigst sprechen wir noch mal weiter, vielleicht kommt dann weniger Unsinn bei deinen Kommentaren rum :lol:
 
Taxxor schrieb:
Je nach Engine passiert das bei unterschiedlichen Stufen, diese hier ist wohl darauf ausgelegt 8 Threads zu brauchen um ordentlich zu laufen.

Deswegen ja 4 Cores only sind für Gaming nicht mehr zu gebrauchen, wer braucht ein i5 6600 mit 8Gb RAM und SSD. 😉


@.Sentinel.
Zur DLSS 2.0 ja sage ja nicht dass es interessant ist trotzdem hat es Schwächen und wie geschrieben 400€ GPUs dafür never macht den ganzen Sinn dahinter zu nichte und RTX naja.

Regen und Schnee und Blitze werden dadurch meistens gekillt auch im Prinzip hat es Sony erfunden NV hat es nur verbessert.

Trotzdem dass neue Verfahren von Sony läuft auf der CPU bin gespannt auf dass Ergebnis. 😉
Ergänzung ()

RenoRaines schrieb:
Ultra Preset mit 200€ Graka oder 5-6 Jahre alter? Selten so einen Dünnpfiff gelesen! In 480p vielleicht!

Die teuren Konsolen schaffen zwar 4k, aber meistens nur mit 30 Frames (Grafisch anspruchslose Titel jetzt mal ausgenommen) und deren Preset ist dann meistens eine Mischung aus Mittel und Hoch am PC!

Wenn du vom Halbgott zum Gott aufsteigst sprechen wir noch mal weiter, vielleicht kommt dann weniger Unsinn bei deinen Kommentaren rum :lol:

Stimmt nicht ganz es kommt immer darauf an was 4k ist sie DLSS ist auch 4k nur nicht nativ. 😉
 
Wieso profitiert das Spiel überhaupt von mehr als 8 Kernen. Man bekommt ja selbst mit 24 Cores nochn paar mehr FPS. Im Spiel selbst passiert doch gar nicht so viel? NPCs und physikalisches Spielereien gibts so gut wie gar keine.
 
Mcr-King schrieb:
Zur DLSS 2.0 ja sage ja nicht dass es interessant ist trotzdem hat es Schwächen und wie geschrieben 400€ GPUs dafür never macht den ganzen Sinn dahinter zu nichte und RTX naja.
Kannst Du ab 290,-€ haben (custom und leise).

1594993448813.png


Und der Witz ist ja, dass Du durch DLSS wiederum Ressourcen auf den Karten sparst (durch niedriger aufgelöste Framebuffer), so dass sich da wiederum die 6GB egalisieren....

Und damit fährst Du in Death Stranding dann 4K in 60FPS. Das muss man sich mal auf der Zunge zergehen lassen...
 
  • Gefällt mir
Reaktionen: adAstra
Weil wie @Taxxor schon sagte ist die Engine gut auf 8 Core optimiert was für die Entwickler spricht. Zeigt was möglich ist wenn man gut arbeitet. Trotzdem ändert es nix an meiner Kritik dass DLSS gut für GTX16er gewesen wäre.

Auch dass jede neue Technik games teuer macht sage jetzt mal ab nächstem Jahr ca 80€ für ein Top Spiel.
Ergänzung ()

Davon abgesehen dass Inon3d Mist ist und ich in Mitte 2020 keine 6GB kaufen würde grade nicht für 300€ deswegen ist die RX5600 auch Müll für den Preis.

Aber es funktioniert deswegen machen es NV und AMD klasse Leistung.
PS5 und Xbox SX stehen vor der Türe.

60FPS in 4k DLSS bei der Grafik Klasse Leistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sun-Berg und .Sentinel.
Mcr-King schrieb:
Davon abgesehen dass Inon3d Mist ist und ich in Mitte 2020 keine 6GB kaufen würde grade nicht für 300€ deswegen ist die RX5600 auch Müll für den Preis.
Dann nimmst halt Gainward, MSI oder Zotac- sind halt dann 1- 10€ teurer.

Ich sag ja nur- Die Engine kriegt es offenbar mit DLSS2.0 hin einer 2060 einen Geschwindigkeitsschub zu verpassen, so dass sie in 4K mit höchsten Settings sowohl an einer 2070 Super ohne DLSS, als auch einer 1080TI als auch einer 5700XT vorbeikommt.

Das ist kein Pappenstiel- Und dazu erhält man im Gesamtbild noch die bessere Bildqualität.
Durch das ganze KI- Zeug wird in absehbarer Zeit in Sachen Berechnung und Leistung kein Stein mehr auf dem anderen stehen bleiben.
 
  • Gefällt mir
Reaktionen: Sun-Berg, Nachos HW Tipps, KlaraElfer und eine weitere Person
Sagt ja keiner trotzdem

1.

Wenn Regen und andere Wetter effects verschwinden kann ich mir die auch ganz sparen.

2. Nur auf RTX-Karten und erste Modelle mit 8GB gibt es ab 400

3. Mehr Aufwand nur für AAA Titel interessant

4. Keine Alternative für CPU z. B. wenn man 8-16/ 16-32 Treads hat.

So wie gesagt Einstieg ist dass Hauptproblem nur wenn die GTX16er es könnten wer würde dann noch RTX20er kaufen. 😉
 
die kehrseite ist halt ein unfassbar weichgespültes bild. ist ja nicht so das gäbe es keine nachteile dadurch^^

da kann man sich den 4k monitor bald sparen :D

ich kann ohne AA auch nicht spielen. gta 5 z.b. muss mindestens 2xMSAA rein und selbst das reicht nicht wirklich. da bring dummerweise auch keine 1440p auflösung was. flimmert wie am spieß ohne AA und selbst mit 2xMSAA isses noch nicht "schön"
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Der Paule, .Sentinel. und Mcr-King
Zurück
Oben