News Nvidia GeForce RTX: DLSS 3.5 soll Raytracing hübscher machen

Neodar schrieb:
Warum sollte das also nicht auch bei RTX 3080 oder 3070 der Fall sein
Naja, was bringt es dir, wenn du deine Maus bewegst und am Monitor siehst du erst 1 s später die Eingabe. So etwas will doch keiner benutzen.
 
Mimir schrieb:
DLSS3.5 setzt wohl genau da an und scheint die Bildqualität massiv zu verbessern und dabei auch noch etwas mehr Performance rauszuholen.
Ich bin ehrlich: Ich freue mich darauf. Die Erweiterung kommt und dann spiele ich das Spiel zusammen mit Overdrive und dem neuen Denosier.

Muss aber man noch einen Leserartikel zu DLSS und Co machen, da bietet sich das an.
 
  • Gefällt mir
Reaktionen: H6-Mobs
MrHeisenberg schrieb:
Wenn die GPU nicht ausgelastet ist, muss irgendwas anderes ausgelastet sein -> vmtl. die CPU oder ein FPS Limit liegt vor.
Nö, wenn die Leistung nicht voll gebraucht wird (zbsp. bei älteren Spielen oder im Idle, oder schlecht programmierten Spielen) dann muss es nicht voll ausgelastet werden ... spricht auch für den nur 80W Verbrauch der 4090 in seinem Beispiel.
 
Mimir schrieb:
Nö, weil das Bild nativ schlechter ist, wie du hier sehen kannst:
Anhang anzeigen 1389235

Nativ flimmert auch deutlich mehr in dem Spiel. Viel mehr Aliasing.
Mit nativ meinte ich ja natürlich ohne Verluste. Und in dem Bild oben links ist "nativ" nativ und mit Verlusten zu sehen.
Ich meinte aber eher wie in Real life, dass es in Spiegelungen keine Verluste geben dürfte, quasi wie das Bild rechts oben.
Also nähert man sich diesbezüglich dem Real Life Erlebnis an und merzt diese "Bildfehler" nur aus.

Was ja natürlich zu begrüßen ist. Das ist mir klar. Aber ich sehe es eben nur als Bugfixing.
 
Das Video von Nvidia zu DLSS 3.5 ist recht interessant.
@Wolfgang : Könnte man vielleicht noch in die News einbauen.

 
  • Gefällt mir
Reaktionen: xXBobbyXx, Faultier, Recharging und 6 andere
danyundsahne schrieb:
Was ja natürlich zu begrüßen ist. Das ist mir klar. Aber ich sehe es eben nur als Bugfixing.

Dann ist die Annäherung der Spielegrafik an den Fotorealismus auch nur Bugfixing? :D

DLSS3.5 ist für Raytracing bzw. pathtracing schon ein kleiner Durchbruch. Man muss sich das Ergebnis natürlich dann live im Spiel ansehen, aber das Denoising speziell von Pathtracing war bisher ein grundlegendes und kaum lösbares Problem.
Zum Release des Pathtracing Modus in Cyberpunk hat sich da bei mir auch entsprechend eine gewisse Ernüchterung eingestellt, weil trotz der intensiven Forschung an Denoising Algorithmen und trotz der hohen Anforderungen das Ergebnis nicht zufriedenstellend war.

Ohne DLSS3.5 hätte man in Zukunft die Raycounts weiter hochschrauben müssen und hätte das Problem nur relativ langsam vermindert.

Jetzt scheint sich das Problem an dem jahre wenn nicht Jahrzehnte (PT wird ja nicht nur für Spiele genutzt) geforscht wurde plötzlich in Luft aufzulösen, weil es eine scheinbar extrem gute Lösung gibt.


Ich frage mich, ob das AI Model auch in anderen Bereichen nützlich ist. Letztendlich verbessert man ja hier das Signal to noise ratio erheblich. Sowas hat grundsätzlich auch großen Nutzen bei jeglicher Signalverarbeitung in allen Bereichen der Elektronik.
 
  • Gefällt mir
Reaktionen: Recharging, danyundsahne und Laphonso
CrustiCroc schrieb:
Frame Gen. ist eins der geilsten Features der letzten Jahre
Sehe ich auch so, vorausgesetzt, es funktioniert gescheit. Meine erste Begegnung war A Plague Tale: Requiem und ich dachte, was das für ein misst. Input lag vom feinsten und war wirklich nicht zu gebrauchen.
Dann kam Witcher next Gen und ich war schwer begeistert.
 
Syberdoor schrieb:
Einerseits wahr, andererseits musst du da nicht mehr auf Nvidia warten.
Naja, so halb.
Denn...
Syberdoor schrieb:
Mit https://github.com/emoose/DLSSTweaks kannst du DLAA in Spielen aktivieren die eigentlich nur DLSS haben.
...es lässt sich zwar erzwingen, aber damit es lohnender wird, braucht es mehr Finetunings von Nvidia. Unter den aktuellen sechs Presets ist keines, was wirklich gut für DLAA taugt.
 
Foxel schrieb:
Das Beispiel zeigt gut wie die üblichen Messmethoden nichts bringen und warum Intel mit ihrem Ansatz da helfen kann https://www.computerbase.de/2023-08/presentmon-beta-test/
Das wird dir genau das gleiche sagen, da es an die gpu Auslastung gekoppelt ist.
Sprich die GPU Busy Time ist immer ca. deine frametime multipliziert mit der GPU Auslastung(oder in FPS deine FPS hochgerechnet auf 100% GPU Auslastung)

In deinem Bild hast du 92% GPU Auslastung, sagen wir mal du hattest 100FPS, also 10ms frametimes.
Dann wird deine GPU Busy time 10*0.92=9.2ms sein.

Denn GPU Busy sagt nicht anderes als für wie viel Zeit eines Frames die GPU gearbeitet hat. Und die GPU Auslastung sagt im Grunde das gleiche, denn 92% Auslastung heist sie hat über die Messdauer 92% gearbeitet und 8% nicht, folglich hat sie auch 92% = 9.2ms Zeitanteil am Frame -> das was GPU-Busy zeigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx, NerdmitHerz, Foxel und 2 andere
Vitche schrieb:
Frame Generation braucht den Optical Flow Accelerator, um in der Qualität zu funktionieren, wie wir sie kennen. Und den gibt es nur bei Ampere und Ada Lovelace. Also könnte man höchstens sagen, dass es auch auf RTX 3000 ginge.

Aaaaber: Nvidia hat den Optical Flow Accelerator von Ampere zu Ada ordentlich aufgebohrt, von x2 bis x2,5 ist meistens die Rede. Inwiefern es nun auf RTX 3000 also nur deutlich schlechter läuft (also beispielsweise nur + 25 % FPS statt + 60 %) oder aber gar nicht vernünftig, ist eine andere Frage.
Das ist Nvidia Marketing Begründung warum sie es nicht auf Älteren Karten anbieten.
Zudem haben selbst Turing Karten einen Optical Flow Accelerator.

Nvidias eigene Dokumentation.

"The NVIDIA® Optical Flow SDK exposes the latest hardware capability of NVIDIA Turing,
Ampere, and Ada architecture GPUs".

"NVIDIA® GPUs, starting with the NVIDIA Turing™ generation, contain a hardware accelerator for computing optical flow and stereo disparity.."

https://developer.nvidia.com/opticalflow-sdk

https://docs.nvidia.com/video-technologies/optical-flow-sdk/nvofa-application-note/index.html

Nvidia müsste nur mehr Optimierungsaufwand abarbeiten für die Funktion auf den alten GPUs.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: TexHex
"DLSS 3.5 soll Raytracing hübscher machen"

Hübscher/besser als DLSS3.0 ?
Geht das überhaupt ?!?
 
Und AMD gerät immer weiter ins Hintertreffen...
Die Softwaresparte von nvidia ist mittlerweile saustark. 🤔
 
  • Gefällt mir
Reaktionen: xXBobbyXx
dr.betruger schrieb:
Nö, wenn die Leistung nicht voll gebraucht wird (zbsp. bei älteren Spielen oder im Idle, oder schlecht programmierten Spielen) dann muss es nicht voll ausgelastet werden ... spricht auch für den nur 80W Verbrauch der 4090 in seinem Beispiel.
Aber irgendwas muss ja limitieren. Die Spiele laufen ja von Hause aus nicht auf x FPS.
Entweder ist es ein FPS Limit/VSync oder eben ein HW-Limit (CPU, GPU...).
 
CDLABSRadonP... schrieb:
...es lässt sich zwar erzwingen, aber damit es lohnender wird, braucht es mehr Finetunings von Nvidia. Unter den aktuellen sechs Presets ist keines, was wirklich gut für DLAA taugt.
Ich habe es bisher nur bei Returnal verwendet und da war es mit den empfohlenen Settings, also Preset F eine bei feinen Details absolut sichtbare Verbesserung gegenüber DLSS und hat im Endeffekt zu einer wirklich hohen Imagequality mit großer Stabilität und ohne Artefakte geführt.
Somit auf jeden Fall besser als alle anderen Möglichkeiten die man in dem Spiel hat, insbesondere für die benötigte Performance.

Natürlich kriegt man das Optimum nur wenn überhaupt der Spieleentwickler die richtigen Entscheidungen/Konfigurationen trifft, aber was man so schon haben kann ist eine starke Verbesserung gegenüber Nativ und DLSS mit solange man sichs leisten kann "dem besten beider Welten".

Also nur weils thoeretisch noch besser gehen könnte finde ich nicht dass man diese Möglichkeit übersehen sollte (und die Erfahrung lehrt imo eindeutig dass man da potentiell lange warten kann bis man diese theoretische Implementierung wirklich gibt. Egal was hier alle jammern, die Realität zeigt dass die große Masse in Wirklichkeit kaum interesse hat die Imagequality zu maximieren, viel mehr wollen alle lieber hohe FPS haben, und genau so setzen die Entwickler Grafikfeatures halt auch um)
 
MMIX schrieb:
Game Changer und während Nvidia DLSS3 stetig weiterentwickelt, hört man von FSR3 weiter nichts.
Immer diese Superlativen.. Game Changer...

Von FSR3 bzw Frame Generation und HyprRX wird man auf der Gamescom hören und sehen und im September in ersten Games.

DLSS, FG usw. sind nice to have, mehr aber auch nicht.

Ob wegen Software Features ein Hardwarewechsel tatsächlich sinnvoll ist muss halt jeder für sich selber wissen.
Ergänzung ()

Bulletchief schrieb:
Und AMD gerät immer weiter ins Hintertreffen...
Die Softwaresparte von nvidia ist mittlerweile saustark. 🤔
Es gibt zu jedem Nvidia Feature (was sinnvoll wae) auch eine Alternative. Bevor die Argumentation mit FSR3 kommt, die zieht maximal noch bis Freitag.
 
Taurus104 schrieb:
Das ist Nvidia Marketing Begründung warum sie es nicht auf Älteren Karten anbieten.
Zudem haben selbst Turing Karten einen Optical Flow Accelerator.
Es geht nicht darum, dass Ada die OFA hat und Turing/Ampere nicht, sondern darum, dass sie auf Ada wesentlich performanter sind und deshalb FG ermöglichen. Das wurde hier im Thread schon mehrfach erklärt und wieder machst du das Fass neu von vorne auf.

Taurus104 schrieb:
Es gibt zu jedem Nvidia Feature (was sinnvoll wae) auch eine Alternative. Bevor die Argumentation mit FSR3 kommt, die zieht maximal noch bis Freitag.
Und wenn sie nicht kommt? Dann stehst du mit deinem Post ziemlich blöd da ;)
Ich habe nichts davon mitbekommen, dass FSR3 zur Gamescom präsentiert werden soll.
Leaks sprachen von Ende des Jahres.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, MoinWoll und Bulletchief
Taurus104 schrieb:
DLSS, FG usw. sind nice to have, mehr aber auch nicht.

Es ist ist die Zukunft. Nice to have ist das nicht mehr, bei vielen Spielen ist es fast Pflicht wenn man in hohen Auflösungen noch ordentlich FPS haben will. Bezieht sich natürlich auch auf FSR.
Qualitätsseitig hat DLSS aktuell die Nase vorn, selbst Intels XeSS sieht mittlerweile besser aus, sogar manchmal besser als DLSS 2 und 3 was die Schärfe angeht.

FSR3 muss da schon eine ordentliche Schippe drauflegen um gleich oder vorbei zu ziehen. Da gibt es gar nichts zu diskutieren.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Iconoclast, MoinWoll und 4 andere
Endlich mal ein sinnvolles KI Feature wieder nach "Eye-Catch" in Broadcast oder Ki Downsampling von 720p YT Videos.
Ergänzung ()

Sinatra81 schrieb:
Hast Du hier eine Quelle oder ist das Bauchgefühl?
DLSS Upscaling ist mehr vertreten als FG.
FG spricht Nvidia selbst von 32+ Games derzeit. Alleine ich spiele/kenne 2 Games die ich täglich spiele seit Jahren die kein Upscaling oder FG nutzen und es gibt noch weitere Beispiele.
 
Krass! Der Qualitätsgewinn ist hier ja immens!

Hut ab, NVIDIA.
 
Zurück
Oben