News Nvidia GeForce RTX: DLSS 3.5 soll Raytracing hübscher machen

DevPandi schrieb:
In dem Fall geht es eher darum, dass FG die Vorteile von NVIDIA-Reflex durchaus "aufbraucht". In gewissen Spielen - nicht allen - ist die Reaktionszeit sehr wichtig und in diesen kann FG "von Nachteil" sein.
Auch wenn ich mich langsam wie eine hängende Kassette anhöre, aber ich kann nur immer wieder anmerken, dass diejenigen die mit dem Argument der Latenz bei FG kommen, häufig selbst ne AMD Karte besitzen.

Ich habe den Satz von dir hier mal zitiert, weil ich die Formulierung sehr passend finde:
FG braucht den Vorteil, den man durch Reflex generiert hat, wieder auf, manchmal vollständig, manchmal nur annähernd.

Bedeutet, man ist mit der Latenz wieder genau da wo man vor Reflex auch war, und wo Nutzer mit AMD Karten immer noch sind, nur eben mit doppelten FPS.


Wenn ein Spiel nachträglich FG bekommt und vorher kein Reflex hatte, behält man auch als Nvidia Nutzer mit FG die gleiche Latenz und müsste damit im gleichen Atemzug, mit dem man FG aufgrund der Latenz abschreibt, sagen, dass das Spiel vorher nie ordentlich spielbar gewesen wäre, weil die Latenz so schlecht ist.

Und wenn ein neues Spiel direkt mit FG und damit auch Reflex kommt, ist die Latenz eben auch genau so hoch bzw. niedrig wie bei anderen spielen die ohne FG kommen und daher auch fast nie Reflex haben
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, MrHeisenberg, Mimir und eine weitere Person
MMIX schrieb:
Wenn du natürlich nur Full HD zockst, ist es egal. Aber ab UWQHD würde ich keine Karte unter 16 GB mehr kaufen wollen.
Aktuell WQHD 144hz.
mae1cum77 schrieb:
Augen auf ;). Preiswerte Modelle sparen gern am PCB (Spannungsphasen) und auch bei der Kühlung (einfacher Alublock statt Vapor-Chamber).
Gut zu wissen. Der Aufpreis von 100-200€ tut nur dann schon ziemlich weh, bei den überteuerten Ada Karten. Bestimmt auch kalkuliert, damit wir alle 4080 und 4090 kaufen :grr:
 
  • Gefällt mir
Reaktionen: s1ave77
Taurus104 schrieb:
Starfield erscheint am 6.9 vorher ist nur Early Access. Und wenn. Wird FSR3 bzw. Fluid Motion Frame zum offiziellen Release per Day One Patch nachgereicht.
Wäre ja ideal, um sich mit DLSS zu messen im 1:1 Vergleich.
Wird nicht klappen. "Aus Gründen" verhindert AMD das Ganze ja ;) Wir ahnen, warum.

Daher bin ich mal gespannt auf das erste Spiel mit offiziellem FSR 3 und DLSS 3.x entwicklerseitig mit allen Variationen und Benchmarks und Qualitätsvergleichen, auch hier in der Computerbase.

Und gespannt bin ich auch auf die ersten DLSS Mods/Patches für Starfield.

Und auf nachgereichtes FSR3 in Cyberpunk.
 
  • Gefällt mir
Reaktionen: MMIX
Wie du ja schon erwähnst, hat eine Implementierung nachträglich per Mod (egal ob DLSS oder FSR) natürlich nicht dasselbe Ergebnis wie die native Integrierung seitens der Entwickler. Daher mal echte Games abwarten, die sowohl DLSS3.x wie FSR3 nativ unterstützen.

Wenn aber der DLSS Mod im Beispiel Starfield bessere Ergebnisse erzielen sollte als FSR3 im Game, nun ja, das wäre ja eher peinlich für AMD. Aber wie gesagt, ich glaube nicht dran und außerdem ist FSR3 ja noch nicht fix für Starfield bestätigt.
 
  • Gefällt mir
Reaktionen: Laphonso
MMIX schrieb:
Wenn aber der DLSS Mod im Beispiel Starfield bessere Ergebnisse erzielen sollte als FSR3 im Game, nun ja, das wäre ja eher peinlich für AMD.
Kennt man ja nun von Jedi Survivor bereits, da war der DLSS Mod auch besser als das native FSR^^
 
  • Gefällt mir
Reaktionen: H6-Mobs, MMIX und Laphonso
In dem Alan Wake 2 Video sieht man schön, dass DLSS3 doch nicht so toll ist, wie hier manche seit einem halben Jahr propagieren.
Die Lampe glimmt nach wie ne alte Gasfunzel :hammer_alt:

Das dauert noch zwei Grafikkarten-Generationen, so wie es bei T&L und Shadern auch lange gedauert hat, bei AMD wohl noch länger.
 
Cerebral_Amoebe schrieb:
In dem Alan Wake 2 Video sieht man schön, dass DLSS3 doch nicht so toll ist, wie hier manche seit einem halben Jahr propagieren.
Die Lampe glimmt nach wie ne alte Gasfunzel :hammer_alt:
Das hat nichts mit DLSS3 zu tun, sondern liegt am Pathtracing.
Ist in Cyberpunk das gleiche, ob mit oder ohne DLSS
 
  • Gefällt mir
Reaktionen: rumpeLson, MrHeisenberg und Mimir
Taurus104 schrieb:
Durchaus möglich in der Theorie. Aber was nicht da ist, kann man nicht bewerten. Davon würde ich den Vorteil bei Tarkov nicht unbedingt sehen, weil FG die Latenz und den Inputlag trotz Reflex stark erhöht, was in einem Game wie Tarkov extrem nachteilig ist.
Jo ein paar ms mehr sind das schon, aber meine Reaktion wird das nicht beeinflussen die ist eh schlecht
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Taxxor schrieb:
Das hat nichts mit DLSS3 zu tun, sondern liegt am Pathtracing.
Warum glimmt die Lampe bei DLSS 3.5 nicht nach?
Kann ich mir nur so erklären, dass durch den Denoiser in DLSS 3 die Verzögerung länger ist als bei der Strahlen- Rekonstruktion.
 
Cerebral_Amoebe schrieb:
Das dauert noch zwei Grafikkarten-Generationen, so wie es bei T&L und Shadern auch lange gedauert hat, bei AMD wohl noch länger.

Wieso noch zwei Generationen? Das Problem ist doch mit DLSS3.5 behoben.

Und wie Taxxor schon gesagt hat hast du das Problem genauso auch ohne DLSS.
DLSS3.5 behebt hier also ein grundlegendes Problem von (Echtzeit) Pathtracing.

PS: Der Denoiser war bisher nicht in DLSS3 enthalten, sondern separat. Und der sorgt eben für das Nachglimmen. Erst DLSS3.5 ersetzt den denoiser den das Spiel nutzt, um es dann eben deutlich besser zu machen.

Das ist eben vergleichbar mit dem Upscaling. Das Upscaling ersetzt das spieleigene TAA und die Ray Reconstruction ersetzt jetzt den Spieleigenen Denoiser.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rumpeLson und Cerebral_Amoebe
@Taurus104
5800X3d und RTX2080 in 1440p. Ein Beispiel auf Customs: ohne DLSS ca 80fps, mit DLSS auf Quality 105fps. Wenn das unrealistisch ist spielen wir wohl verschiedene Escape from Tarkov Versionen :rolleyes:
Klares GPU Limit und nicht CPU, sonst wäre der Performance Gewinn nicht so hoch.

Aber: Wir sind komplett offtopic mit dem Thema...
 
Cerebral_Amoebe schrieb:
Warum glimmt die Lampe bei DLSS 3.5 nicht nach?
Kann ich mir nur so erklären, dass durch den Denoiser in DLSS 3 die Verzögerung länger ist als bei der Strahlen- Rekonstruktion.
Es gibt keinen Denoiser in DLSS 3.
Das ist ja der Sinn von DLSS 3.5, den Denoiser vom Spiel zu ersetzen. DLSS3 konnte das nicht.
Ergänzung ()

Taurus104 schrieb:
weil FG die Latenz und den Inputlag trotz Reflex stark erhöht
Lügen über Lügen über Lügen....

und dabei ist das ganze so einfach nachzuprüfen von jedem, der interessiert ist.

Beispiel 1: Cyberpunk
1692816503685.png


Die Latenz wurde durch Reflex von 121 auf 71ms gesenkt, FG hat sie wieder auf 86 erhöht, ist aber weit unterhalb der Latenz mit der man ohne FG und Reflex unterwegs wäre.

Das gleiche mit DLSS Quality, hier senkt Reflex die Latenz von 70 auf 46ms und FG erhöht sie wieder auf 60ms.
Auch hier wird der Input Lag nicht "trotz Reflex stark erhöht", sondern ein Teil der Latenzreduktion von Reflex wird wieder aufgehoben, es bleibt aber insgesamt trotzdem bei einer Reduktion.



Beispiel 2: Hogwarts Legacy
1692816806982.png


Gleiches Spiel, DLSS Quality wird die Latenz durch Reflex von 73 auf 41ms gesenkt und mit FG wieder ein Stück weit auf 57ms erhöht, man bleibt aber trotzdem deutlich unter den originalen 73ms, die ein @Taurus104 mit seiner AMD Karte und FSR Quality hätte, und dabei hat man auch noch doppelt so viele FPS wie er.


Beispiel 3: Atomic Heart
1692817109331.png


Auch hier wieder: Nativ senkt Reflex die Latenz von 49 auf 25ms, FG hebt sie wieder auf 41ms.
Diesmal ist man näher am Ergebnis ohne Reflex dran, weil die FPS generell recht hoch und die Latenzen entsprechend niedrig sind und FG natürlich dann prozentual immer mehr Anteil an der Latenz hat.

Das Ergebnis davon sieht man, wenn man noch weiter runter geht: Mit DLSS Quality senkt Reflex die Latenz von 32 auf 19ms, FG hebt sie nun auf 35,8ms an.

Nun ist man 4ms höher als ohne FG und Reflex.
Wohlgemerkt aber auch in einem FPS Bereich, in dem man ohne FG bereits 123FPS hat, also ein Punkt, an dem man FG eher weniger nutzen würde und selbst hier ist keine Spur von "trotz Reflex stark erhöht" zu sehen.
Es sei denn jemand kann mir glaubhaft sagen, dass er einen Unterschied zwischen 32 und 36ms Latenz bemerken kann. Selbst beim Unterschied Reflex zu Reflex von 19ms auf 36ms würde ich bezweifeln, dass das jemand merkt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, maxrl, rumpeLson und 5 andere
@Taxxor
Spar es dir, er hat dich eh auf Ignore, genau so wie mich.
Er behauptet durchweg immer irgendwas und tut immer so als ob er der krasse Insider wäre liest aber im Endeffekt auch nur die selben Artikel wie wir auch.

Hat man schön gesehen bei dem Post wo er behauptet das AMD nie von Q1 für FSR3 gesprochen hat und das nur von den Medien so aufgegriffen und seitdem konsequent verbreitet wurde.

Was er bei sowas immer gerne vergisst das er selbst hier in diversen Posts erst von Q1, dann 1. Halbjahr, dann zur Computex und jetzt zur Gamescom von Deadlines zu FSR spricht.
Wenn die Deadline für Q1 nicht existiert hat laut AMD warum hat er es dann hier selbst im Forum als Fakt dargestellt?

Antwort: er hat selbst keinen Plan.
Schwätzer halt.
 
Atnam schrieb:
@Taxxor
Spar es dir, er hat dich eh auf Ignore, genau so wie mich.
Wie schon vorher mal erwähnt, ich weiß, dass er das nicht lesen wird, es geht mir mehr um andere, die das hier lesen, denn wenn es keiner kommentiert, dann geht es irgendwann los mit "FG erhöht die Latenz viel mehr als Reflex sie senken könnte, hab ich mal irgendwo gelesen von nem Typen dessen Posts aussahen als hätte er Ahnung"
 
  • Gefällt mir
Reaktionen: Fallout667, maxrl, acc und eine weitere Person
Taxxor schrieb:
Bedeutet, man ist mit der Latenz wieder genau da wo man vor Reflex auch war, und wo Nutzer mit AMD Karten immer noch sind, nur eben mit doppelten FPS.
Jain, so ganz wie du es beschreibst ist es nicht.
1692811791282.png

1692811808149.png

1692811824200.png


Es kommt eben drauf an, was man als Ausgangswert nimmt. Geht man von der nativen Auflösung mit Reflex aus, kommt man mit DLSS FG gut weg, nimmt man reines DLSS ohne FG als Vergleichsbasis, steigen die Latenzen.

Wobei man natürlich hier auch grundsätzlich berücksichtigen muss, ob das Spiel sich überhaupt im GPU oder CPU Limit befand, aber das ist wieder eine andere Kiste.
 
xexex schrieb:
Jain, so ganz wie du es beschreibst ist es nicht.
Spiderman zeigt hier doch exakt das was ich schrieb. Man startete ohne FG und Reflex bei 39ms und landet mit FG und Reflex bei +119% PErformance und -1ms Latenz, also iust die Latenz genau da, wo sie vorher war.

Und die anderen beiden Spiele zeigen sogar, dass man nach FG mit der Latzenz deutlich geringer ist als man vorher war.

In erster Linie hängt es davon ab, wie hoch die originalen FPS sind. Je höher die sind, desto näher ist man nachher wieder an der "Basislatenz" und wenn sie sehr hoch sind, kann man auch drüber kommen, aber in dem FPS Bereich, wo man FG sinnvoll aktiviert (<100FPS), trifft das eher nicht zu.
 
Taxxor schrieb:
Spiderman zeigt hier doch exakt das was ich schrieb.
Wie ich bereits schrieb, es kommt drauf an, was du als Vergleichswert nimmst. Grundsätzlich hast du natürlich recht. Problem an der Stelle ist halt nur, wenn es den Leuten auf minimale Latenz ankommt, nehmen sie natürlich DLSS Performance + Reflex als Basis.
 
xexex schrieb:
Es kommt eben drauf an, was man als Ausgangswert nimmt. Geht man von der nativen Auflösung mit Reflex aus, kommt man mit DLSS FG gut weg, nimmt man reines DLSS ohne FG als Vergleichsbasis, steigen die Latenzen.

Bei Cyberpunk (Market area) und Spider-Man wird man mit DLSS Performance garantiert ins CPU Limit gekommen sein.

Im CPU Limit sind die Latenzen eh schon deutlich niedriger als im GPU Limit. Folglich ist da mit Reflex nicht mehr viel zu holen und folglich steigen die latenzen mit Frame Generation in dem Fall etwas an. Aber da die Latenzen eh schon geringer sind stört das in dem Fall ja nicht.

Bei den Bildern von taxxor siehst du aber, dass es auch umgekehrt sein kann und dass FG + Reflex auch schneller sein kann, als DLSS P ohne Reflex.

Im GPU Limit ist es meistens so wie Taxxor gesagt hat, egal ob DLSS Upscaling oder Nativ.
Mit Frame Generation + Reflex (was ja zwangsweise aktiv sein muss) erhält man idr. Latenzen auf dem Niveau ohne Reflex oder etwas besser.
 
xexex schrieb:
Problem an der Stelle ist halt nur, wenn es den Leuten auf minimale Latenz ankommt, nehmen sie natürlich DLSS Performance + Reflex als Basis.
Meine Ausführungen galten ja der Aussage, dass die Latenzen "trotz Reflex" stark ansteigen.
Das bedeutet, der Vergleich ist in dem Fall immer mit einer Basis ohne Reflex.

Die DLSS Stufe ist dabei auch nicht primär relevant, es sind eigentlich nur 2 Punkte wichtig:
1. Wie hoch die FPS und entsprechend niedrig die Latenzen bereits sind, auf die man dann FG + Reflex packt.
2. Wie viel FG letztenendes an FPS bringt.

Denn wenn ich wie in meinem obigen 3. Beispiel von Atomic Heart nur von 123 auf 131 FPS komme durch FG, also im Grunde keinen FPS Gewinn habe, dann kann die Latenz trotz Reflex auch nur schwierig niedriger ausfallen, denn hier berechne ich mit FG dann effektiv nur noch 65,5FPS statt vorher 123.
Hier ist es schon lobenswert zu erwähnen, dass Reflex es schafft, dass die Latenz mit effektiv berechneten 65,5FPS und der zusätzlichen Zeit für FG trotzdem nur 4ms schlechter ausfällt als mit normalen 123 FPS.

Wenn ich aber wie im Beispiel Hogwarts Legacy in DLSS Quality durch FG von 60 auf immerhin 84FPS steige, habe ich 60 vs 42 FPS die auf meinen Input reagieren und das ist bereits nah genug zusammen, dass Reflex aus diesen 42FPS + FG eine geringere Latenz machen kann, als die 60 ohne Reflex hatten.

Das ist auch genau der Bereich in dem ich persönlich FG in allen möglichen Spielen von Cyberpunk über Witcher, Spider-Man, Plague Tale, Hogwarts Legacy und zuletzt Ratchet & Clank nutze, von 40 oder 45 auf 80 bzw 90.
Und damit habe ich ein flüssigers Bild bei gleichzeitig etwas niedrigeren Latenzen, als ich sie ansonsten mit normalen 60FPS hätte, wo sie mir bereits nicht negativ auffallen. Weniger Verbrauch noch als Bonus dazu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667 und Laphonso
DevPandi schrieb:
Wenn man genau ist, wird FSR3 selbst auf der RX7000 auf den Shadern ausgeführt. Aber man muss AMD an der Stelle durchaus zugestehen, dass sie Wissen, wie sie ihre Vec-ALUs effektiv mehrfach verwenden und damit auch Transistoren sparren. Der "AI-Kern" bereitet die Daten so auf, dass diese passend in die Vec-ALU kommen und die Matrix auch effektiver berechnet werden. Klar, eigene Tensor-Kerne wären schneller, aber die Leistung ist durchaus beachtlich.
Woher willst du das wissen? FSR3 existiert doch noch gar nicht?
 
Zurück
Oben