News Nvidia GeForce RTX: DLSS 3.5 soll Raytracing hübscher machen

@Novasun
Wo hat denn RDNA3 "KI" Einheiten? Dass diese Rechenoperationen auf den CUs etwas schneller laufen (aufgrund neuer instructions) mag ja sein, aber das ist doch nicht vergleichbar mit den Tensorcores bei Nvidia.
 
Vokans schrieb:
Gibt es eigentlich einen Grund warum FSR in vielen Spielen schlechter abschneidet als DLSS und in wenig Spielen fast gleichauf sind? Es ist schön und gut wenn ich im Spiel Auswahl habe aber es komisch finde das oft FSR lieblos reingeklatscht wird. Kann natürlich auch nur Zufall sein.
Ich denke wie immer ist die Antwort hier multifaktoriell.

Zum einen gibt es Spiele, die es Upscalern aufgrund ihres Contents einfach leichter machen. Siehe hier beispielsweise Diablo 4, welches über wenig Sichtweite und feine Strukturen verfügt. Hier finde ich schneidet FSR 2 außerordentlich gut ab.

Gefährliches Halbwissen: Weiterhin gibt es bei der Implementierung von FSR 2 mehr Fallstricke, da dem Algorithmus mehr Informationen auf den Weg gegeben werden müssen, die sich dieser (anders als DLSS) nicht selber herleiten kann. FSR 2 braucht beispielsweise zwingend die Angaben zu FOV sowie zum DOF. Außerdem kann der Entwickler feine Strukturen (wie Oberleitungen) taggen, um dem Algorithmus mitzuteilen, dass hier eine Struktur existiert, die temporal stabil sein sollte. DLSS benötigt diese Angaben hingehen nicht (zwingend?).
Generell glaube ich, dass DLSS durch das NN eine Chance hat bestimmte, typische Implementierungsfehler auszugleichen, wohingegen FSR 2 hier machtlos ist.

Also FSR 2 wäre in diesen Fällen nicht zwingend schlechter implementiert. Eher kann es mit mangelhafter Implementierung schlechter Umgehen. So zumindest meine Vermutung/Interpretation.
 
Stand früher DLSS2 nicht für Upsampling und DLSS3 für Frame Generation ? :lol:

Seit DLSS3 für Upsampling in Version 3.x steht macht das natürlich keinen Sinn
aber was soll die Bezeichnung DLSS Frame Genration ? Soll das etwas bedeuten,
dass man Frame Generation nicht ohne DLSS Upsampling nutzen kann ? :confused_alt:
 
Taxxor schrieb:
@.Sentinel. Wie funktioniert sowas hier eigentlich?

Das ist ja schon RT Overdrive, also müsste die Beleuchtung an sich passen.
Aber im original ist die Fläche vor dem Auto genau so hell wie die Flächen neben dem Auto und mit DLSS passt es plötzlich.
Klar, der Denoiser ist besser geworden, aber gal wie gut oder schlecht so ein Denoiser ist, es müsste doch in jedem Fall erkannt werden, dass es neben dem Auto dunkler ist, als vor dem Auto.
Wenn es daran liegt, dass es zu wenige Strahlen sind, wie sollte RT in irgendeiner Form funktionieren, wenn man einen Punkt A und einen 5m entfernten Punkt B nicht in der Helligkeit unterscheiden kann?

Ich hätte also einen etwas weniger realistischen Lichtkegel erwartet, aber gar keiner? Ich kann mich auch aktiv nicht daran erinnern, mit RT Overdrive keinen Lichtkegel gehabt zu haben.
Anhang anzeigen 1389307
Das liegt daran, dass das Auto fährt. RT-Overdrive hat ziemlich krasses Licht-Ghosting. Dynamische Szenen (wie Lichtkegel von fahrenden Autos) werden also nicht sehr gut dargestellt. Je schneller die Bewegung, desto auffälliger ist es. Ray reconstruction soll das Problem deutlich entschärfen. Nvidia hat ein eigenes Erklär-Werbevideo dazu auf Youtube, da wird das auch mit dem Ghosting gezeigt.
 
  • Gefällt mir
Reaktionen: Taxxor
Convert schrieb:
Wenn FSR3 auf der 6000-er Serie mehr schlecht als recht funktionieren würde, wäre das nicht verkaufsfördernd für die RX6000-er Serie.
Naja was heisst mehr schlecht als recht, es wird definitiv mehr fps damit rauskommen. FSR 3 ist in erster Linie für die 7000er optimiert, die haben nunmal Ki Kerne der ersten Geneartion an Board.
Was will man denn auch noch fördern die 6000er sind im Abverkauf, zu normalen Preisen gibt es da je nach Modell vielleicht noch ne Handvoll.

Mimir schrieb:
Dass diese Rechenoperationen etwas schneller laufen mag ja sein, aber das ist doch nicht vergleichbar mit den Tensorcores bei Nvidia.
Aber was ist mit x und y? Von Tensorcores hat keiner geredet.
Bei Ki Kernen steht ja auch die 4th Gen gegen die erste von AMD, was für ein Ergebnis wird da wohl rauskommen?

Mimir schrieb:
Wo hat denn RDNA3 "KI" Einheiten?
na da steht es doch
1692785833197.png
7000er KI First Gen, 6000 keine KI Kerne. Das macht definitiv einen Unterschied, welchen wird sich bei den Tests zeigen.
 
@0ssi

Die Frames bestehen nunmal aus Samples. Frame Generation erzeugt Frames und damit Samples.
Also genau genommen auch Supersampling. Nur auf der Zeitachse. :D

Aber so schwer ist das doch nicht.

DLSS3 bietet eben einen Pool an Funktionen.

Super Resolution
Ray Reconstruction
Frame Generation

Ist alles Teil von DLSS3. Nur Frame Generation ist Ada Lovelace exklusiv.


A.Xander


Meines wissens sind das aber keinen dedizierten Einheiten die unabhängig laufen. Wenn RDNA3 Matrix Operationen beschleunigen soll, dann sollte sich das entsprechend negativ auf die restliche Performance auswirken.

Der Punkt für FSR3 ist ja auch, dass Nvidia zusätzlich einen Optical Flow Accelerator nutzt. Also selbst wenn die KI beschleunigung schnell genug wäre, muss die Arbeit vom OFA ja noch irgendwo "gemacht" werden.
 
Zuletzt bearbeitet:
Wirklich zu schade, dass Nvidias Technik leider nur bei primär für PCs entwickelten Spielen so richtig durchschlägt - also für Cyberpunk 2077 und Co. (zwinker, zwinker).

Ich für meinen Fall besitze eine PS5 und einen Gaming-PC mit einer AMD-GPU. Mal schauen, wie sich Nvidias RT-Ansatz zum Schluss gegen die Unreal Engine 5 behaupten wird. Denn die neue Engine zaubert auch ohne das propritäre RTX-Gedöns eine stimmungsvolle Grafik auf den Bildschirm. Es werden also deutlich weniger Hardwareressourcen für eine realistische Beleuchtung benötigt als bei einer herkömmlichen RT-Implementierung. Das heißt ein wunderbar ausschauendes Fortnite in der UE5 läuft auf einer PS5 bzw. Xbox Series X mit Upscaling in 4K60 (wohlgemerkt mit RDNA 2). Wenn das Spiel hingegen ein berüchtigter Nvidia "Exklusiv-Titel" wäre, hätten sehr viele Gamer optisch oder performanceteschnisch bei Fortnite das Nachsehen gehabt. So aber läuft das Spiel in besagter Optik auf den Konsolen und Gaming-PCs mit entsprechenden AMD-GPUs butterweich... Zum Glück!
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
PCGH hat gestern einen Test von Desordre online gestellt, da kann man sich die unterschiede schön im Detail anschauen.
Da sieht es aber für RDNA sehr, sehr schlecht aus, was die Performance betrifft.
 
  • Gefällt mir
Reaktionen: Mimir
H6-Mobs schrieb:
Das wurde hier schon diskutiert und getestet. Musst dich mal durch die ganzen Kommentare wühlen, dann hast du auch eine Antwort auf deine Frage.
Ergänzung ()


Hier werden alle RTX Karten gepuscht, nicht nur die 4000er.
Ich kenne den Post von Reddit wo eine 2070 mit gehacktem Treiber angeblich 100% + erreicht hat. Allerdings gibt es keikn Video oder einene andere Beweis, somit ganz klar in der Schwebe.
 
TigerherzLXXXVI schrieb:
Wirklich zu schade, dass Nvidias Technik leider nur bei primär für PCs entwickelten Spielen so richtig durchschlägt - also für Cyberpunk 2077 und Co. (zwinker, zwinker).
Fast alle Spiele, die DLSS und/oder Raytracing nutzten, sind Multiplattformtitel, die (meistens zeitgleich) auch für Konsolen erschienen sind.

Manche sind auch eher für Konsolen erschienen; als aktuellstes Beispiel Ratchet & Clank: Rift Apart..
 
A.Xander schrieb:
Was will man denn auch noch fördern die 6000er sind im Abverkauf, zu normalen Preisen gibt es da je nach Modell vielleicht noch ne Handvoll.
Die Lager der 6000er waren letztes Jahr zu Weihnachten voll. Wenn du die Diskussion verfolgt hättest, ging es um folgendes:

Angenommen FSR3 funktioniert auf den 7000er Karten gut, auf den 6000er Karten aber mehr schlecht als recht, dann wäre es nicht förderlich für den Abverkauf der Karten gewesen, FSR3 zeitnah zu bringen. Mit FSR3 kam AMD um die Ecke, als Nvidia DLSS 3.0 angekündigt hatte und man Sorgen bekam ihre gerade vorgestellten Karten nicht los zu bekommen.

Wenn jetzt die 6000er abverkauft sein sollten, dann kann man mit FSR3 kommen und sagen: "Sorry, leider läuft es auf den 6000ern nicht so gut, aber hier ihr könnt gerne unsere neuen 7000er Karten kaufen". Wäre ein "dick move", aber viel mehr erwarte ich hier nicht.
 
Zuletzt bearbeitet:
Rollkragen schrieb:
Und am 1. September soll mit Starfild FSR3 als erstes Spiel für ein Release im selben Monat Seitens AMD bereit stehen.
Reine Spekulation, so steht es auch im verlinkten Artikel.
 
  • Gefällt mir
Reaktionen: MMIX
Rollkragen schrieb:
Und am 1. September soll

Immer dieses soll

FSR3 sollte kurz nach CES erscheinen
FSR3 sollte in Q1 erscheinen
FSR3 sollte dann irgendwann 2023 erscheinen


Soll soll soll
Es gab bislang nur einen Hinweis eines Leakers für FSR3 in starfield, demnach nur Gerüchte worauf alle sich nun einschiessen. Es kann passieren, kann auch nicht.
 
  • Gefällt mir
Reaktionen: MrHeisenberg, xexex und H6-Mobs
Hui, AMD wird grad mit ihren GPUs technologisch völlig abgehängt. Während NVidia mit seinen DLSS Versionen jedes mal neue Feuerwerke zündet, warten wir immernoch auf die dritte Basisvariante von FSR...
 
Ich würds ja generell komplett feiern wenn AMD FSR3 fertig bekommt und man das dann auch zeitnah auf die Konsolen gebracht bekommt. Das wäre ein netter Performance Schub für PS5 und xbox.
 
Es würde allen und jedem am Ende helfen egal ob

AMD User
Nvidia User
Intel User
PS5 User
Xbox Series X/S user
 
Mimir schrieb:
Meines wissens sind das aber keinen dedizierten Einheiten die unabhängig laufen.
Nochmal es ging nur um rx 6000 vs 7000 und deren Leistung in FSR 3, nicht um vs Nvidia.

xexex schrieb:
Die Lager der 6000er waren letztes Jahr zu Weihnachten voll.
ja ok da hab ich nicht richtig gelesen. Es ging halt um damals als die Lager voll waren. Trotzdem waren technische Daten und Tests damals verfügbar, wurde alles frei kommuniziert.
Wer damit jetzt ein Problem hat und sich von einem Börsenkonzern über den Tisch gezogen fühlt, obwohl er noch nicht mal weiß was er mehr bekommt, ist selber schuld.
 
MMIX schrieb:
Nvidia User
Intel User
Den Part unterschreibe ich erst wenn es dann wirklich auch auf anderen Platformen läuft.
Irgendwie hab ich das Gefühl das es nicht der Fall sein wird.
 
In abgespeckter Form (ohne Ki Berechnung) könnte ich mir FSR3 auf Nvidia und Intel GPUs - analog zu FSR3 auf RDNA2 - vorstellen.

Glaube irgendwie nicht, dass AMD FSR3 außerhalb von Radeons blockieren wird - dafür ist AMD einfach zu brav und so ein Image haben sie nicht und hatten sie nie.
 
Zurück
Oben