News Nvidia GeForce RTX: DLSS 3.5 soll Raytracing hübscher machen

MMIX schrieb:
Kommt per Mod und wurde bestätigt. DLSS3 während Early Access und DLSS2 ab offiziellen Release am 06.09
Ich hoffe doch mal nicht dass da noch ne 1 Jahr alte SR Version reinkommt ;)

Ich finde es ja interessant, wie auch schon bei Jedi survivor, dass FG leichter einzubauen ist als SR.
 
  • Gefällt mir
Reaktionen: MMIX
Mimir schrieb:
Die Akkumulationszeit die RT bisher gebraucht hat wenn Lichtquellen sich schnell ändern ist damit scheinbar auch hinfällig.
Das hat mich in Pathtraced Cyberpunk auch immens gestört, wenn man irgendwo hin gegangen ist wo es entweder deutlich heller oder deutlich dunkler war. Da vergingen schon mal 1-2s bis die Helligkeit einigermaßen gepasst hat.

Auch wenn man frisch ins Spiel geladen hat und draußen stand. Erstmal alles blendend hell und dann passt es sich langsam an
 
rumpeLson schrieb:
Frame Generation lässt sich aktuell eigentlich immer unabhängig von DLSS Super Resolution nutzen.

Ja weil technisch nur 2 Frames benötigt werden. Ich weiß aber nicht ob NV z.B. das mit den Bewegungsvektoren als Voraussetzung hat. Aber um eines klar zu machen - technisch wäre das nicht nötig. Fernseher machen das beim Fußball ja auch ohne Bewegungsvektoren zu haben. Bzw. die ergeben sich aus den beiden Ursprungsframes sowieso...
Qualitativ könnte das mit den Vektoren aber von Vorteil sein...
 
Novasun schrieb:
Ja weil technisch nur 2 Frames benötigt werden. Ich weiß aber nicht ob NV z.B. das mit den Bewegungsvektoren als Voraussetzung hat.
Ja haben sie, aber natürlich muss das Spiel diese nur liefern, SR muss man nicht aktivieren.
Anders bei der neuen Ray Reconstruction, dafür muss man SR aktiv haben(wobei es technisch eigentlich genau so mit DLAA gehen müsste)
Novasun schrieb:
Aber um eines klar zu machen - technisch wäre das nicht nötig. Fernseher machen das beim Fußball ja auch ohne Bewegungsvektoren zu haben. Bzw. die ergeben sich aus den beiden Ursprungsframes sowieso...
Qualitativ könnte das mit den Vektoren aber von Vorteil sein...
Vor allem ist es bei der Latenz von Vorteil, da der Zwischenframe schon berechnet werden kann, bevor der 2. Frame fertig ist.

Ohne Bewegungsvektoren bräuchte es FG überhaupt nicht, weil es dann wie du schon sagtest nichts anderes wäre als was die Fernseher schon ewig können.
Hier ist es beim Fernsehen halt egal ob mal alles einen Frame verzögert sieht
 
Zuletzt bearbeitet:
Taxxor schrieb:
Ich finde es ja interessant, wie auch schon bei Jedi survivor, dass FG leichter einzubauen ist als SR.
FG ist am Ende der Pipeline auf dem gesamten Bild. Die zusätzlich generierten Frames gehen quasi nur an die Ausgabe.
Upscaling muss mittenrein und danach mit der nicht skalierten UI zusammengeführt werden etc.
Ergänzung ()

Taxxor schrieb:
Vor allem ist es bei der Latenz von Vorteil, da der Zwischenframe schon berechnet werden kann, bevor der 2. Frame fertig ist.
Nvidias Pressrelease sagt es sind beide Frames, jeweils davor und danach bekannt. Sonst könntest du ja keinen Optical Flow darauf berechnen. Es ist also schon die Verzögerung um ein halbes Frame (plus Rechenzeit für das interpolierte Frame) notwendig weil man erstmal warten muss, bis das nächste voll berechnete Frame da ist. Alles andere wäre nicht mehr Interpolation oder Zwischenbildberechnung, sondern Extrapolation und damit nochmal krasser.

Ich habe nicht tief genug nachgeschaut, ob die FG überhaupt die Motionvectors ansieht/bekommt, aber Optical Flow wird genutzt damit man auch wirklich für alles Motionvektoren hat, inkl. UI, die ja bei Upscaling nicht mit drin ist und auch Elemente, für die Engine keine Motionvectors hat, die sonst zu Artefakten führen (die vermutlich bei der Frame Generation schlimmer wären, als beim reinen Upscaling).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor
Ray519 schrieb:
inkl. UI, die ja bei Upscaling nicht mit drin ist und auch Elemente, für die Engine keine Motionvectors hat, die sonst zu Artefakten führen (die vermutlich bei der Frame Generation schlimmer wären, als beim reinen Upscaling).
Ja, ich hatte bei FF16 auf der PS5 mal das „FG“ von meinem Monitor aktiviert, weil man da ja auf 30FPS begrenzt ist.
An sich hat es sich deutlich besser angefühlt dadurch, aber man hat auch ständig bei den UI Elementen wie den Questmarkern am Rand gesehen wie hier beim drehen der Kamera alles doppelt geflackert hat
 
Tornavida schrieb:
Machs wie jeder Zweite hier...4090 🤣Mit nem 5900x sollte die 4070ti schon gut passen.
Hach ja, bin echt noch am überlegen, ob ich 2025 auf Highend umsteige (also ~4k€ für 4 Jahre), oder bei Midrange (4-5 Jahre) bleibe. Das wäre aber dann wohl eher die 5090.
mae1cum77 schrieb:
Meine aktive Kombo stimmt dem zu :D. Ist bisher so pflegeleicht wie die 1070 davor.
Hast du Empfehlungen für ein bestimmtes Modell? Habe gutes von der 4070/80 von den PNY XLR8 Gaming Verto Epic-X RGB Triple Fan (Gott, was für ein Name) gehört.
 
d3nso schrieb:
@Taurus104
DLSS bringt in Tarkov teils 30% und mehr, zumindest bei meinem Setup? Hier davon zu reden das es nichts bringt finde ich schon weit hergeholt. :confused_alt:
30% durch DLSS beim jetzigen technischen Zustand von EFT sind nicht möglich. Es sei denn du spielst mit einem unrealistischen Setup, 7800X3D und einer RTX 2060 in 4k, max. Settings 60 FPS Cap. OHNE potente CPU erreicht man EFT nie GPU bounded zu sein, auch in hohen Auflösungen nicht. Und nur GPU bounded hat DLSS einen wirklich relevanten Effekt. Ist das man weiterhin CPU bounded hat DLSS sogar negative Auswirkungen durch die nidriegere Renderauflösung.

Warum das bei der Unity Engine und dem Optimierungszustand von EFT so ist hatte ich bereits vorher detailliert erläutert.
Wie gesagt, ich kann selbst in Unity programmieren, spiele Tarkov seit Tag 1und weiß deshalb schon was ich schreibe und warum.

Wenn du der Meinung bist es sind 30%. Okay.
Kann ich einfach nur so dahin geschrieben nicht glauben.
 
Pesky_ schrieb:
Hast du Empfehlungen für ein bestimmtes Modell?
Nicht wirklich. Ist echt so ein Thema. Gerade Spulenfiepen ist von mehreren Faktoren abhängig (Karte ansich, Netzteil, Board). Da kann man nicht viel vorhersagen.

Hab' selber die Gigabyte Eagle OC. Die Lüfter der Karte sind neutral (ohne Eigengeräusche). Selbst bei 4k FPS im Menü letztens kein Spulenfiepen. Nur die Software ist eine mittlere Vollkatastrophe. Die Karte speichert Beleuchtungseinstellungen per EPROM, daher kein Beinbruch :).
 
mae1cum77 schrieb:
Nicht wirklich. Ist echt so ein Thema. Gerade Spulenfiepen ist von mehreren Faktoren abhängig (Karte ansich, Netzteil, Board). Da kann man nicht viel vorhersagen.
Ok, Danke.
Die Kühler sind ja eh alle überdimensioniert für den Chip, da tut sich glaube ich nicht viel. Naja mal schauen, ob es denn eine 4070TI, oder evtl. 4080 wird. Mit der 7900XT bin ich mir noch unsicher. Wenn da am Freitag nichts zu FSR3 kommt, ist die raus für mich.
 
Man muss Nvidia eines lassen ihre Marketingabteilung ist wirklich gut. Man released strategisch auf der selben Messe wo AMD 2 Karten die das gehobene Mittelfeld vernichten werden und 99% sicher FSR3 released wird eine News über DLSS 3.5 also laut eigener Einschätzung nur eine halbe Generation natürlich wie DLSS 3.0 schon nur für die 4.0 Gen, und Leute mit Karten wie 4060 oder 3xxx werden zu super Fanboys auch wenn sie entweder eh zu wenig Ram für sinnvolles Raytracing haben, besonders mit DLSS3.0 da diese Upscaler erst mit Auflösungen >1080p überhaupt Sinn machen und darunter einfach kacke aussehen.

Und das Fazit der meisten hier "AMD sind Versager, FSR3.0 wird bestimmt scheiße, oder kommt eh nicht, oder der Abstand steigt". Wie kann denn der Abstand von FSR 2.0 -> DLSS 3.0 bei FSR 3.0 -> DLSS 3.5 steigen würde der steigen würde Nvidia das sicher DLSS 4.0 oder 4.5 nennen nicht 3.5 und da es exklusiv für Raytracing ist, ist es eh noch für weniger Leute interessant, nicht nur für 4xxx Gen Karten sondern auch noch realistisch nur 4080 und 4090...

Aber ja es wird halt impliziert oder was auch immer das AMD noch 10 Jahre bei FSR 2.0 bleibt und daher "der Abstand groesser wird".

Also Chapeau Nvidia jeder Cent im Marketing gut angelegt, man kann die Kunden komplett in irgendwelche Fantasiewelten bringen und in die Suppe des Konkurrenten spucken um jeden Clou (bezahlbare starke mit viel Speicher ausgestattetej Karten zwischen 400-700 Euro mit FSR 3.0) als weitgehende Luftnummer framen.

Bestenfalls wird das erfüllen all dieser Erwartungen dann noch als das Minimum war genommen aber 0 Hype weil jeder mit ner RTX 1060 dann ja natürlich in wenigen Monaten schon 500 FPS mit DLSS 3.5 bekommen wird, ist das ja schon wieder nichtig.

Fällt mir auf das Nvidia immer kurz vor AMD Sachen veröffentlicht und damit den Diskurs bestimmt manchmal 48 Stunden vorher um das Framing in der Presse zu bestimmen. Und wenn das nicht reicht dann bietet man halt Vorteile an solche Presseorgane die nen Review machen wo ihr Produkt gut abschneidet.
 
MMIX schrieb:
Es gab bislang nur einen Hinweis eines Leakers für FSR3 in starfield, demnach nur Gerüchte worauf alle sich nun einschiessen.
Es gibt immer Personen und Personenkreise die besser informiert sind als man Selbst oder der Großteil der Öffentlichkeit.
 
Pesky_ schrieb:
Naja mal schauen, ob es denn eine 4070TI, oder evtl. 4080 wird.

Ich weiß nicht in welcher Auflösung du zockst und welcher Detailstufe in Games, aber ganz ehrlich, nimm wenn es eine Nvidia wird lieber die 4080 mit 16 GB. Mit der 4070 Ti und deren 12 GB wirst du dich nächstes Jahr nur ärgern so wie dieses Jahr mit einer RTX 3080 und 10 GB.

Wenn du natürlich nur Full HD zockst, ist es egal. Aber ab UWQHD würde ich keine Karte unter 16 GB mehr kaufen wollen.
 
Pesky_ schrieb:
Die Kühler sind ja eh alle überdimensioniert für den Chip
Augen auf ;). Preiswerte Modelle sparen gern am PCB (Spannungsphasen) und auch bei der Kühlung (einfacher Alublock statt Vapor-Chamber).

Würde bei beidem nicht sparen. Hab meine im Desktop bei 50%/~900rpm am Laufen, mag das auf- und ab des Zero-Fan-Modus nicht. Das ist ein leichtes Säuseln.
 
Rollkragen schrieb:
Ich bin nach wie vor gespannt auf FSR 3, wobei ich kurz vor einem ggf. Wechsel auf eine 4090 stehe von einer 6900xt ausgehend. Und am 1. September soll mit Starfild FSR3 als erstes Spiel für ein Release im selben Monat Seitens AMD bereit stehen.
https://www.ruetir.com/2023/08/star...amds-new-fsr3-technology-according-to-a-leak/
Starfield erscheint am 6.9 vorher ist nur Early Access. Und wenn. Wird FSR3 bzw. Fluid Motion Frame zum offiziellen Release per Day One Patch nachgereicht.
FSR3 Support wird es mit dem 23.9.1 Adrenalin Software geben, der dann gleichzeitig auch Starfield Supported.

Das ist so, was man herumschwirren hört.
 
mae1cum77 schrieb:
Augen auf ;). Preiswerte Modelle sparen gern am PCB (Spannungsphasen) und auch bei der Kühlung (einfacher Alublock statt Vapor-Chamber).

Zumindest im Falle der 4080 und natürlich 4090 haben alle Karten eine Vapor-Chamber.

Nur bei der 4070 Ti gibt es diesbezüglich Unterschiede.
 
  • Gefällt mir
Reaktionen: s1ave77
Taurus104 schrieb:
Man wird FSR3 wenn es für RX6000 kommt sicherlich auf den Shadern ausführen.
Wenn man genau ist, wird FSR3 selbst auf der RX7000 auf den Shadern ausgeführt. Aber man muss AMD an der Stelle durchaus zugestehen, dass sie Wissen, wie sie ihre Vec-ALUs effektiv mehrfach verwenden und damit auch Transistoren sparren. Der "AI-Kern" bereitet die Daten so auf, dass diese passend in die Vec-ALU kommen und die Matrix auch effektiver berechnet werden. Klar, eigene Tensor-Kerne wären schneller, aber die Leistung ist durchaus beachtlich.
Linmoum schrieb:
Gerade bei Teillastbetrieb sind die Unterschiede gewaltig und ob du 100W+ mehr oder weniger hast, macht sich definitiv deutlich bemerkbar.
Es gibt durchaus Unterschiede zwischen Ada und RDNA 3 im Teillastbereich, nur sind diese in der Regel nicht ganz so gewaltig. Ich habe viele Teillastszenarien auf der RTX 4090 und der RX 7900 XTX getestet und kenne die Schwächen von RDNA3 sowie die Schwächen von Ada sehr gut und weiß bei beiden Karten, was diesen schmeckt und nicht schmeckt.

Die "extreme" im Teillastbetrieb, mit einer doppelt so hohen Effizienz wie die 7900 XT (Für die Gramatik-Schlauberger, die jetzt auchschreien wollen: Nein, hier gehört kein Als hin, sondern das Wie, weil der eigentliche "Vergleich" auf dem gleichen Level ist - mit einer so hohen Effizien wie die 7900 XT, das "doppelt" verändert daran nichts.) kann man provozieren, ist aber nicht unbedingt die Regel.

Und ja, es gibt immer noch Probleme im Dual-Monitor-Setting und Co, nur bessert es sich da auch und in der Regel ist Ada in absoluten Zahlen nich nennenswert effizienter als RDNA3. Im Desktop-Betrieb "vollständiges" Idle komm ich für eine 7900 XTX auf 8 - 11 W, für die RTX 4090 auf 18 W. Beim Arbeiten sind es 36 W zu 25 W. 11 W Unterschied. Bei YouTube-Videos sind es mit 54 W zu 25 W dann mehr, aber auch von den 100 W+ weit entfernt.

Ich hab mir aber über die Jahre angewöhnt,für alles was nicht "Spiele" ist aber andere Hardware zu verwenden, die effizienter ist.
Taxxor schrieb:
Und das hier spricht wohl auch für sich
Es ist interessant bei deinen Beispielen, wie viel ein "schlechter" Denoiser das Bild noch verfälscht. Ich bin das jetzt die Tage auch mal durchgegangen und weiß auch, wie es zu dem von dir in einigen Beiträge vorher genannten Problem kommt, dass der Lichtkegel weitgehend auch um das Auto heller ist.

Interessant, wie da auch Rauschwikrunge und Co mit rein spielen. Der "DLSS"-Denoiser ist für mich an der Stelle wirklich ein "Game-Changer" oder "Killer-Feature", dass einen massiven Mehrwert bietet. FG ist für mich (meine Meinung) eine nette Spielerrei, ich hab es in Cyberpunk 2077 jetzt auch getestet
Taxxor schrieb:
Hier z.B. der Lichtwurf in der entsprechend realistischen Farbe und nicht einfach nur weiß.
Ich werde echt dazu noch mal ein Artikel machen. Bald hab ich Urlaub.

Intruder schrieb:
in wie weit haben mehr FPS oder "schickeres Bild" Nachteile in Multiplayer??
In dem Fall geht es eher darum, dass FG die Vorteile von NVIDIA-Reflex durchaus "aufbraucht". In gewissen Spielen - nicht allen - ist die Reaktionszeit sehr wichtig und in diesen kann FG "von Nachteil" sein. In anderen Spielen kann FG aber helfen die Bewegung zu glätten, das kann das Spielgefühl stark verbessern, wenn man empfindlich auf "unrunde" Animationen reagiert.

Am Ende muss man FG aber testen, ob es einem zusagt. Ich hab gemerkt, dass ich sehr empfindlich auf FG reagiere und kann es daher nicht aktivieren.
Akkulaus schrieb:
Wow. Ansprüche echt niedrig bei dir.
Warum muss man das Empfinden von anderen ständig herunter würdigen, nur weil andere etwas anders wahrnehmen.
Akkulaus schrieb:
Ich will Nativ zocken und keine KI die das alles Hochrechnet etc.
Ich könnte hier jetzt auch schreiben, dass du scheinbar keine Ansprüche hast, weil es genug Spiele gibt, die mit DLSS und bedingt auch FSR deutlich an Bildqualität gewinnen können.

Dass jetzt in letzter Zeit leider Spiele auf den Markt gekommen sind, die DLSS/FSR als "so kommen wir auf 60 fps kommen" genutzt haben, ist bedauerlich, gleichzeitig stehen langsam nun auch 8k-Monitore in den Startlöchern. Diese Pixelmengen sind selbst bei Rasterization kaum mehr von Grafikkarten zu stemmen. Mit weiteren Verbesserungen ist es quasi unmöglich.

In FHD, WQHD kann man darauf "verzichten" muss es aber nicht und in 4K ist es hilfreich. Es hat natürlich immer, teils immer noch "Probleme", aber das wird immer besser.
Akkulaus schrieb:
Raytracing braucht echt fast niemand. Ist einfach nur Spielerrei aktuell.
RT konnte man 2018 und 2019 als Spielerei bezeichnen. Viele - auch hier im Forum - haben seit dem immer angenommen, dass es ja eigentlich nur für ein paar "Effekte" reicht und volle PathTracer ja noch "Jahre" entfernt sind und diese Behauptung gab es sogar noch bis vor kurzem, da es bis vor einigen Monaten quasi nur Quake 2 RTX und Minecraft RTX gab - sehr "simple" Engines - und das ja nur da funktioniert und man für ein modernes Spiel ja noch 2 - 3 Generationen warten muss, bis das in FHD "darstellbar" wäre. (Etwas überspitzt von mir.)

Und was passierte jetzt? CD Projekt Red hat eines der aktuell grafisch besten Spiele einem Path Tracer spendiert, der zeigt, dass selbst mit "modernen" Engines PathTracer möglich sind und es dazu nicht mehr "Highend" benötigt, sondern Highend der letzten Generation reicht.

Dazu kommt, dass viele "Effekte", die nun mit RT "möglich" sind, selbst bei normalen Rasterizer massiv an Leistung kosten würden - Echtzeitspiegelungen - weil diese erst in eine Textur gerendert werden müssten und daher den Mehrbedarf an Rechenleistung stark anteigen lässt.

Ja, RT ist noch nicht angekommen und es wird noch dauern, aber aus dem Status Spielerei ist es raus. Die Entwickler lernen immer besser mit RT umzugehen und da AMD auch mit der Hardware nun auf dem Markt ist, merkt man das auch. Klar, AMD ist bei RT "schwächer", das ist für uns als ganzes aber gut, weil die Entwickler "optimieren" müssen und das auch machen. Wenn ich nun sehe, wie neuere RT-Spiele damit umgehen und wie "effizient" die Effekte teilweise umgesetzt werden, weil man eben auch eine schwächere Implementation beachten muss, können wir in der nächsten Konsolengeneration dann durchaus auch bereits mit vollen PathTracern rechnen.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts und Atnam
DevPandi schrieb:
Am Ende muss man FG aber testen, ob es einem zusagt. Ich hab gemerkt, dass ich sehr empfindlich auf FG reagiere und kann es daher nicht aktivieren.
ich würde es wohl nur nutzen wenn die Leitung der GPU nicht ausreicht um FPS / Hz Bildschirm anzugleichen.
Aktuell mit 60Hz Screen wird das nicht passieren aber spätestens mit höheren Auflösungen wird es sicherlich hilfreich sein -- oder nicht. Muss das bei Gelegenheit mal ausprobieren 👍

Mehr als 60FPS bringt bei mir nur extremes Screen Tearing 😖
 
Zurück
Oben