Notiz Nvidia: DLSS für Cyberpunk, Minecraft und weitere Spiele

@m4rci Naja das mehr an Informationen entsteht durch das jittered subsampling. Das ist wie wenn man die Kamera immer zittern lässt und dabei alle vergangenen Frames zu einem Bild addiert. Gerade bei einem Maschendrahtzaun hätte man bei einer festen Kamera nur die 2 informationen: ich sehe den Draht oder den Hintergrund.

DLSS hat einen ähnlichen effect wie downsampling da werden z.b 4 pixel zu einem verschmolzen. Dafür braucht man aber die 4 Fache Leistung. Bei DLSS macht man das verteilt über mehrere die Frames und das funktioniert so gut, dass man das auch mit einer geringeren Auflösung machen kann.

Wenn Objekte oder deine Kamera sich jetzt bewegt, kommen die Motion Vektoren hinzu um die vergangenen pixel an die neue position zu transformieren damit kein motion blur entsteht.

Und diese Technik so geil sie ist bringt gerade bei Raytracing den Vorteil das man gerade mit wenigen Rays und den krassen Rauschen ein Rauschfreies Bild bekommt. Ich arbeite auch mit einer ähnlichen Technik an meinem Raytracer. hier ist ein video das den Vorgang beschreibt der so auch bei DLSS benutzt wird:


EDIT:
Hier mal ein gutes Beispiel wo man die Linie besser erkennt durch das jittering. Rechts ist nur ein pixel noise. (von Igor)

1607507856091.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KenshiHH, captain kirk, noxon und eine weitere Person
andr_gin schrieb:
1.) Auch DLSS vor 1.9 lief nur auf den Shadern. Das mit den Tensor Cores bei DLSS 1.0 war ein Marketingmärchen von Nvidia, um die Mondpreise von Turing zu rechtfertigen bzw. dass es DLSS nicht für Pascal gab.
Nur weil man es auch auf den Shadern laufen lassen konnte, heißt das nicht, dass bei Turing/Ampere nicht die Tensor Cores genommen werden. Wie kommst du darauf?
 
Palatas schrieb:
DLSS war für mich einer der Gründe (neben der Verfügbarkeit) zur RTX 3080 statt der RX 6800XT zu greifen. Alleine für Cyberpunkt ist das schon Grund genug für mich. Wichtig ist natütlich, was man spielt - sind es Titel die weder RT noch DLSS 2.0 nutzen, dürfte AMD zu vernünftigen Preisen die bessere Wahl sein.

Ich bin da echt hart hin- und hergerissen. Ich zocke zur Zeit hauptsächlich WoW und möchte da 4K+RT, aber DLSS gibt's da nicht. Laut PCGH is ne 3080 trotzdem merklich stärker - aber meine VRAM-Auslastung bewegt sich schon in WQHD teils in Richtung der 8 GB. Ist irgendwie einfach ein schlechtes Gefühl, da ne 10 GB Karte für die Zukunft zu kaufen (4K Monitor is schon bestellt, weil der alte WQHD-Monitor kürzlich kaputt gegangen ist).
 
Ich hoffe, dass es ähnlich wie g-sync und freesync laufen wird. Am Ende wird es ein offener Standard.

DLSS 2.0 scheint ja wirklich sehr gut zu sein. Leider interessiert mich keines der Spiele. (CP2077) gibts bugreduziert in ein paar Jahren deutlich günstiger.
 
Darkseth88 schrieb:
Wie sehr lohnt es sich für nicht nur Cyberpunk, sondern auch künftige Games auf eine RTX umzusteigen, z.B. die 3060 ti / 3070?
Nicht nur im Hinblick auf RTX effekte fürs visuelle, sondern vor allem auf DLSS, was ja einen deutlichen fps-boost bringen soll?!
Oder evtl in richtung gebrauchte 2070s nur dafür?
Kann man gar nicht verallgemeinern, weil für jedes einzelne Spiel das DLSS und RTX unterstützt das Fazit ein anderes ist. Mal ist RTX cool, mal fällt der Unterschied im Spielfluss null auf.

Der Nutzen von DLSS ist eng daran gekoppelt ob man in UWQHD/4k/Raytracing spielt. Ohne Side-By-Side Vergleich, wäre es mir in den meisten Fällen Schnuppe, ob ich mit hohen Details ohne Raytracing, oder Ultra Details mit Raytracing zocke. Ob man in einem langsamen Open World Spiel 60 oder 100 FPS hat ist auch meistens nicht so wichtig. Ich persönlich würde beim Upgrade von der Rohleistung ausgehen, schon allein weil Raytracing den Performancegewinn durch DLSS auffrisst.
 
Zuletzt bearbeitet:
Wollte gerade mal die Release Version von Minecraft (RTX) probieren... denkste.
Jetzt gibt es 3 statt bisher 2 Versionen (zumindest für PC):
  • Minecraft Java Edition
  • Minecraft für Windows 10 (war für Minecraft Java Edition Besitzer kostenlos)
  • Minecraft (neu, kostet 20 Gulden oder GamePass Mitgliedschaft und nicht mehr inklusive, wenn man vorher schon Minecraft besessen hat)
1607529114624.png


Ist wohl irgendwie an mir vorbeigegangen.. verwirred 🤦‍♂️
 
@ShiftyBro zu WOW kann ich aktuell nix sagen. Wenn die RTX 3080 länger im Einsatz sein soll, könnten die 10GB dazu führen das Details in 4k reduziert werden müssen. Laufen sollten wohl die nächsten 5+ Jahre alle Spiele (mit Anpassung der Details). Wenn RT eine Rolle spielt ist AMD etwas zu langsam und mehr Speicher hat dann nur die RTX 3090. In 2 Jahren ist jedoch davon auszugehen das die RTX 3090 von der nächsten Generation abgelöst/übertrumpft wird.

Meine Entscheidung war das Geld zu sparen und in 2 Jahren meine Grafikkarte wieder zu erneuern.
 
Palatas schrieb:
Meine Entscheidung war das Geld zu sparen und in 2 Jahren meine Grafikkarte wieder zu erneuern.
Klingt gut, aber mit einer Vega56 nen 4K/144Hz Monitor zu befeuern (der hoffentlich noch vor Weihnachten geliefert wird), möchte ich dann doch nicht mehr länger als nötig tun. xD Was mich noch etwas abschreckt, sind Berichte, dass das RT von Nvidia viel mehr CPU-Last erzeugt und daher in CPU-gebundenen Szenarien AMD auf einmal massiv im RT an Nvidia vorbeizieht (siehe Screen im Anhang). Das kann dann in WoW schon mal passieren, wenn viele Spieler Aktionen ausführen (Raid z.B.). Außerhalb des CPU-Limits is wiederum Nvidia schneller...
 

Anhänge

  • 1607529650090.png
    1607529650090.png
    38,2 KB · Aufrufe: 302
Viele Spiele die DLSS unterstützen sind einfach nicht so beliebt (freundlich ausgedrückt), andere Spiele brauchen das Feature selbst in UHD auf Mittelklasse-Hardware nicht wirklich (Death Stranding), teilweise ist es auch etwas nervig (shimmering in Control) oder einfach veraltet und man verliert Qualität (viele DLSS 1.x Spiele).

Würde es mehr Spiele wie Cyberpunk 2077, die so ein Feature auch sinnvoll nutzen, könnte man es auch endlich mal als richtiges Argument heranziehen.
Spiele, in denen ich mir DLSS gewünscht hätte, wären z.B. Red Dead Redemption 2, Horizon Zero Dawn, Assassin's Creed Valhalla.
Stattdessen bekam ich Watch Dogs Legion, CoD und Marvel's Avengers :(
 
Col.Maybourne schrieb:
Wollte gerade mal die Release Version von Minecraft (RTX) probieren... denkste.
Jetzt gibt es 3 statt bisher 2 Versionen (zumindest für PC):
  • Minecraft Java Edition
  • Minecraft für Windows 10 (war für Minecraft Java Edition Besitzer kostenlos)
  • Minecraft (neu, kostet 20 Gulden oder GamePass Mitgliedschaft und nicht mehr inklusive, wenn man vorher schon Minecraft besessen hat)

Also diese nur Minecraft Edition wird bei mir im Store nicht angezeigt, nur die im Screenshot:
1607539206241.png


Das mit RTX ist sowieso nur Augenauswischerei. DLSS in den Optionen lässt sich nur mit aktiviertem Raytracing aktivieren, und das wiederum lässt sich nur bei "RTX activated" Welten aktivieren. Heißt du kannst nur die RTX fertig erstellten Welten in RTX und DLSS spielen. und DLSS alleine ist bei Minecraft Windows 10 Edition sowieso unnötig, da der in der Version verwendeten Code sowieso um einiges performanter läuft als Java.

1607539381096.png
 
foo_1337 schrieb:
Nur weil man es auch auf den Shadern laufen lassen konnte, heißt das nicht, dass bei Turing/Ampere nicht die Tensor Cores genommen werden. Wie kommst du darauf?

Steht z.B. hier ganz gut beschrieben: https://www.computerbase.de/2020-05/nvidia-dlss-2.0-test/

Passend dazu nutzt DLSS 2.0 nun erstmals die Turing- beziehungsweise GeForce-RTX-exklusiven Tensor-Cores für die Matrizenberechnungen. Denn auch wenn es bis jetzt immer den Anschein erweckt hat, dass bereits DLSS 1.x auf den Tensor-Kernen berechnet worden ist, war dies nicht so. Stattdessen lief DLSS bis jetzt über die klassischen Shader-Einheiten. Mit DLSS 2.0 laufen die FP16-Berechnungen dagegen über die Tensor-Kerne, sodass sich die klassischen ALUs allein um die Grafik kümmern können.
 
charly_ schrieb:
Ich hoffe, dass es ähnlich wie g-sync und freesync laufen wird. Am Ende wird es ein offener Standard.
Selbst ein offener Standard dieser Leistungsklasse innerhalb einer Herstellerallianz verlangt aber nach zusäzlicher Hardwarelogik und komplexeren Chips, die AMD in ihr ihrer Finanzlage trotz saftiger Preiserhöhungen noch nicht bereit ist auszugeben. Das gilt auch für andere Partner in der Allianz, die etwas auf der Basis umsetzen möchten und es muss wirtschaftlich sein. Daher ist proprietär manchmal viel lukrativer udn bessr umgesetzt. Gut funktionierendes Machine Learning verlangt auch nach einer Architektur, die es schnell umsetzen kann und das sehe ich momentan nicht beim kommunizierten Entwicklungslauf bei RDNA, dei das Gaming bedienen will.

Selbst ein guter Scalar der verbaut werden soll, kostet leider zusätzlich Geld, der vom Kunden bezahlt werden muss und der kann weit weniger.
 
Zuletzt bearbeitet:
Hat Bannerlord DLSS schon bekommen? War ja für Dezember angekündigt aber ich kanns in den Einstellungen nich finden. Google spuckt auch nix aktuelles raus....un nu, wer weis was :D?

Edit: 8.2.21

Meine Anfrage ist immernoch aktuell...muss ich echt nen thread aufmachen? :D
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben