@Aldaric87
Da hast Du wohl so einiges verschlafen
https://www.dsogaming.com/news/batt...s-with-nvidias-real-time-ray-tracing-effects/
https://wccftech.com/dice-battlefield-v-60fps-1080p-rtx/
Aha- Die Demo lief also Rock- Solid 60FPS, obwohl (das Kürzel DF steht für Digital Foundry) es ja noch folgende Aussagen gibt:
- Dice developed the game with Titan V with no dedicated RT Core to run specific Ray Tracing functions. They only received Turing 2 weeks before this demo. They are planning to improve the fidelity at launch as Turing can accelerate these functions better than the Tensor Cores in Titan V
- Ray tracing is running at 1:1 parity with Raster resolution. DF changed the resolution around and got the following: 1080p @ 60fps, 1440p @ 40-50 fps, and 4K @ 20fps
- Dice is planning to allow greater control of RT settings including changing the amount of rays shot per pixel, scaling the RT resolution independent of rasterized resolution (e.g. Game at 4K, RT at 1080p or lower), or using intelligent upscaling of lower resolution RT using AI denoising/checkerboarding.
- Expecting 30% RT performance improvement with one type of optimization (merging separate instances in various objects).
- Demo is using RT Cores after the rasterization of G-Buffer. They are planning to run the RT Cores in parallel asynchronously.
- Dice is happy to have Real time RT in hardware instead of coming up with time-consuming non interactive or inaccurate raster techniques to cover various cases.
So:
-Also haben wir ein Plus, weil die Demo für die TitanV entwickelt wurde, ohne die Raytracingfunktionen der speziell dafür ausgelegten Cores benutzen zu können.
-Dann haben wir ein Plus, weil die RT Auflösung durch Nutzung der Tensor- Cores nicht der nativen Auflösung entsprechen muss.
-Dann gehen sie von einer 30%igen Verbesserung durch Mesh- Merging aus
-Dann wollen sie nochmal 2ms und mehr dadurch gewinnen, dass sie die Berechnung mit der Rasterisierung anstoßen und nicht erst nach Abschluss.
Dann das hier:
be used in parallel to offer up something close to actual RTX performance but the bottom line is this: DICE had just two weeks with final hardware, which was dubbed simply as an 'Nvidia Graphics Device' in the device manager. In short, the developer wasn't even sure which RTX device they were working with.
Und jetzt frage ich mich, wie kann das alles sein?
Also alles Rock- Solid mit 60FPS und dann doch noch heftige Steigerungen möglich? Oder doch nicht?
Was ist eigentlich los bei Dice? Die wissen offensichtlich selbst nicht, wofür sie entwickelt haben, womit sie 2 Wochen gearbeitet haben, dass die Tensor Cores essenziell sind, um das Denoising zu beschleunigen (sie nutzten einen temporal basierenden Filter auf den ALUs) etc. etc.
In meinen Augen bekleckern die sich mit all ihren Aussagen nicht gerade mit Ruhm und das ist nur ein Zeichen dafür, wie konfus und ineffizient die Implementierungsphase gelaufen sein muss. Wobei 2 Wochen für so eine Implementierung bei einer "fertigen" Rasterengine natürlich auch kein Zeitraum ist.
Wenn also die Demo schon mit Rockstable 60FPS lief, wieso sollte man da noch etwas "anstreben" wollen?
Das widerspricht sich in meinen Augen.
RT Effekte zurückgeschraubt werden, auch um die Performance zu steigern.
Sie haben geschrieben, dass die Effekte abgeschwächt werden, damit es natürlicher aussieht. Und dass in EINER spezifischen Szene EIN Raum optimiert wurde, weil er durch übertriebene Spiegelungen die Leistung in die Knie gezwungen hat.
Indeed, in one specific scene, DICE dialed back the reflectivity of walls in a room to help improve performance after it was observed that ray tracing hit the frame rate too hard.
Was solls- In ein par Stunden sollen ja gerüchtehalber die Treiber endlich verteilt werden. Dann wird uns sowieso eine Welle an Leaks treffen, zumindest was die Rasterperformance anbelangt...
Grüße
Zero