News Nvidia GeForce RTX: DLSS 3.5 soll Raytracing hübscher machen

Lurtz schrieb:
Mal davon abgesehen dass die 3090 Ti FG nicht mal unterstützt.
Doch tut sie, nur nicht offiziell.
Man kann die DLSS Datein trotzdem so anpassen das es auch auf Karten unterhalb der 40er Serie funktioniert aber wie @MrHeisenberg schon sagt bringt es nichts unterhalb der 3090TI weil der Teil auf der Karte der für FG Zuständig ist mit der 40er Serie ein ordentliches Upgrade erhalten hat.
 
GeleeBlau schrieb:
Da die CPU zu 35% ausgelastet ist aber die Graka zu 99%, bezweifle ich das
Es reicht wenn ein Thread deiner CPU limitiert

Einfach 100/ (Threads deiner CPU) rechnen und die prozentzahl die da rauskommt könne schon bei dir ein CPU Limit bedeuten

also bei einem 8 Kerner mit 16 Threads => du kannst schon mit 6% Auslastung im CPU limit hängen.

100% CPU Auslastung wird man nicht mehr sehen

auch bedeuten 99% GPU Auslastung nicht immer das da nicht mehr geht. ich bekomme eine 4090 auch zu 99% ausgelastet obwohl die nicht am Limit arbeitet
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Recharging, NerdmitHerz und eine weitere Person
Vitche schrieb:
Frame Generation braucht den Optical Flow Accelerator, um in der Qualität zu funktionieren, wie wir sie kennen. Und den gibt es nur bei Ampere und Ada Lovelace. Also könnte man höchstens sagen, dass es auch auf RTX 3000 ginge.

Aaaaber: Nvidia hat den Optical Flow Accelerator von Ampere zu Ada ordentlich aufgebohrt, von x2 bis x2,5 ist meistens die Rede. Inwiefern es nun auf RTX 3000 also nur deutlich schlechter läuft (also beispielsweise nur + 25 % FPS statt + 60 %) oder aber gar nicht vernünftig, ist eine andere Frage.
Das Argument, dass es nur an den deutlich schnellern Optical Flow Accelerator von Ada liegt verfällt aber relativ flott wenn man die 4060 (welche Frame Gen unterstützt) und die 3090ti vergleicht, welche laut Nvidia Frame Gen angeblich nicht schafft.
 
Mimir schrieb:
Chromatische Aberration hast du hoffentlich deaktiviert.

Ansonsten halt DLSS Quality mit 60-75% Schärfe. Das sieht mittlerweile echt gut aus wie ich finde. Überhaupt kein Vergleich mehr zum ursprünglichen Release. DLAA gibts ja auch.

Der rest an Unschärfe entsteht halt durch das Raytracing und das Denoising. Wobei man das nicht wirklich unschärfe nennen kann, denn die Kanten sind ja scharf. Es geht mehr in richtung der Charakteristik von Videokompressionsartefakten, wenn
Ja sowas deaktiviere ich als 1. in fast jedem Game..film grain, chromatic aberration etc

Schärfe war meine ich bei 50% (DLSS Quality)..ich schraube die mal hoch.
 
  • Gefällt mir
Reaktionen: Recharging
Foxel schrieb:
Es reicht wenn ein Thread deiner CPU limitiert

Einfach 100/ (Threads deiner CPU) rechnen und die prozentzahl die da rauskommt könne schon bei dir ein CPU Limit bedeuten

also bei einem 8 Kerner mit 16 Threads => du kannst schon mit 6% Auslastung im CPU limit hängen.

100% CPU Auslastung wird man nicht mehr sehen
Wenn die Graka zu 99% ausgelastet ist herrscht kein CPU Limit, egal wieviel die CPU ausgelastet ist, das ist Fakt!
 
Zuletzt bearbeitet:
danyundsahne schrieb:
Ja, so kann man es natürlich auch ausdrücken....aber in meinen Augen merzt man nur Bildfehler oder verlorengegangen Details aus. Also die Bildqualität ist jetzt erst ungefähr dort wo sie schon immer sein sollte, quasi nativ ohne Verluste.
Schön wenn Ghosting weg ist oder verlorene Details wieder da sind. Aber so hätte es schon immer sein sollen....das ist quasi Bugfixing, oder?

Nö, weil das Bild nativ schlechter ist, wie du hier sehen kannst:
1692713012646.png


Nativ flimmert auch deutlich mehr in dem Spiel. Viel mehr Aliasing.

Aber es ist richtig, dass man aktuell noch mit DLSS bei manchen RT effekten eine verminderte Qualität feststellen kann. Allerdings ist das nicht immer so.
In Ratchet & Clank war das Ghosting in Spiegeleungen mit DLSS z.B. am geringsten.


Man sollte endlich aufhören, Nativ als das bestmögliche darzustellen. Nativ nutzt zwar etwas mehr Pixel, dafür einen total veralteten oder eben deutlich simpleren Algorithmus.

Was die beste Bildqualität bietet muss man von Spiel zu spiel neu bewerten. Immer häufiger ist das eben bei DLSS der Fall.


PS: Schau dir mal im Artikel das Video bei 0:38 an. Starkes Ghosting mit TAA. Kein Ghosting mit DLSS 3.5.
Das ist eine extreme Qualitätssteigerung mit DLSS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iconoclast, jdiv, Faultier und 3 andere
dr.betruger schrieb:
Wenn die Graka zu 99% ausgelastet ist herrscht kein CPU Limit, egal wieviel die CPU ausgelastet ist, das ist Fakt!
Ach ja wie erklärst du das?
1692713399164.png


ich habe kein Power limit

Kannst du selber testen mit einem auf chrome basierten browser https://64f.de/wgpu-v2/

Zur Aufklärung ich hab das selbst erstellt. Es gibt in meiner Render Pipeline einen Compute step der nur ca. 256 Shader Units auslasten kann. Trotzdem zeigen alle GPUs eine auslastung von 90 - 99% an selbst der Desktop bei einigen ruckelt.

Das Beispiel zeigt gut wie die üblichen Messmethoden nichts bringen und warum Intel mit ihrem Ansatz da helfen kann https://www.computerbase.de/2023-08/presentmon-beta-test/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx, Bccc1 und H6-Mobs
Sehr schön! Freue mich!
 
Lurtz schrieb:
@Atnam Davon habe ich noch nie gehört, das müsste doch längst geleakt sein, wenn das möglich wäre?
Es gab mal eine News dazu:
https://www.extremetech.com/gaming/...-dlss-3-on-turing-gpu-with-simple-config-file
https://wccftech.com/nvidia-dlss-3-...ortedly-bypassed-rtx-2070-gets-double-the-fps


Der darin verlinkte Reddit Post wurde gelöscht. Frag dich mal warum ;-)
Direkt ins Nvidia Sub Reddit hatte der Typ das geposted. Was denkst du wie schnell sich da Nvidias Anwälte bei dir melden 🙃

In dem Post stand auch das es zwar doppelt FPS brachte aber sich sehr laggy angefühlt hat.
Wundert mich auch nicht weil man vermutlich Seitens Nvidia auf die 40er Serie optimiert hat weil man dort auch die Hardware Voraussetzungen geschaffen hat die nötig sind damit es gut läuft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx und Lurtz
Hat ja nicht lang gedauert bis die ersten Roten hier wieder angefangen haben zu stänkern.
So wie ich den Kindergarten hier einschätze wird mit FSR3 (wenn es dann mal irgendwann kommt) die Technik natürlich als DAS FEATURE seit Erfindung des Rades gefeiert werden 🤣 Im Moment muss man sich bei AMD erstmal mit einem "normalen" Idleverbrauch der Karten auf dem Desktop zufrieden geben.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Iconoclast, NerdmitHerz und 3 andere
Foxel schrieb:
Ach ja wie erklärst du das?
Anhang anzeigen 1389239

ich habe kein Power limit

Kannst du selber testen mit einem auf chrome basierten browser https://64f.de/wgpu-v2/

Zur Aufklärung ich hab das selbst erstellt. Es gibt in meiner Render Pipeline einen Compute step der nur ca. 256 Shader Units auslasten kann. Trotzdem zeigen alle GPUs eine auslastung von 90 - 99% an selbst der Desktop bei einigen ruckelt.
Ja aber dann ist das kein CPU Limit! Ist doch logisch wenn die GPU voll ausgelastet ist.

https://www.computerbase.de/forum/threads/limitiert-cpu-xyz-die-graka-abc.818979/
... nachlesen

Schnelltest:
MSI-Afterburner installieren. GPU-Auslastung aufs OSD schalten. Nicht den Taskmanager benutzen.
Ackert die Graka 95% oder mehr: Graka-Limit, ackert sie nicht mindestens 95%: CPU-Limit (oder vsync an). Einfach oder? Kann jeder innerhalb von 30 Sekunden die Frage selbst beantworten.
 
Du hast das immer noch nicht verstanden die GPU ist in meinem Beispiel in einem Utilization Limit zeigt aber volle Auslastung an bei nur 80W Verbrauch @dr.betruger
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Raidr schrieb:
Das Argument, dass es nur an den deutlich schnellern Optical Flow Accelerator von Ada liegt verfällt aber relativ flott wenn man die 4060 (welche Frame Gen unterstützt) und die 3090ti vergleicht, welche laut Nvidia Frame Gen angeblich nicht schafft.
Dein Post ergibt Null Sinn.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, NerdmitHerz, timmey77 und 5 andere
Foxel schrieb:
Du hast das immer noch nicht verstanden die GPU ist in meinem Beispiel in einem Utilization Limit zeigt aber volle Auslastung an bei nur 80W Verbrauch @dr.betruger
Ja dann wird deine GPU nicht voll gebraucht ... habs nach gegoogelt ... allerdings hat das nichts wie oben in den vorigen Posts von der erwähnt mit einem CPU Limit zu tun! :)
 
LamaMitHut schrieb:
Keines, ist für mich trotzdem kein Kaufgrund für die 4060 / TI. Das wollte ich damit aussagen.
Weder in deinem Post, noch in der News geht es um die 4060 / TI.

dr.betruger schrieb:
Ja dann wird deine GPU nicht voll gebraucht ... habs nach gegoogelt ... allerdings hat das nichts wie oben in den vorigen Posts von der erwähnt mit einem CPU Limit zu tun! :)
Wenn die GPU nicht ausgelastet ist, muss irgendwas anderes ausgelastet sein -> vmtl. die CPU oder ein FPS Limit liegt vor.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
catch 22 schrieb:
Dann wurde noch zusätzlich was an anderer Stelle gedreht (neuerer Version des DLSS 2.x Unterbau / bessere DLSS 2.x integration, keine Ahnung was)

DLSS3 steht einzig und alleine für Frame Generation
https://www.nvidia.com/de-de/geforce/news/rtx-40-series-graphics-cards-announcements/
Der Artikel ist aus 2022, seit Februar 23 ist DLSS Super Resolution ebenfalls von 2.5 auf 3.1 gesprungen.

Wie im Artikel beschrieben, man kann das ganz nicht mehr nach Versionsnummern unterteilen weil sie mittlerweile alle 3.x sind.
Man muss schon explizit die unterstützten Features nennen, und Nvidia tut das jetzt auch genau so
https://pics.computerbase.de/1/0/8/9/2/9-90cc570f430c456f/8-2160.f87faba0.png

Frame Generation und Super Resolution haben aktuell sogar die exakt gleiche Versionsnummer(3.1).

Wenn ein neues Spiel mit DLSS3.1 kommt, dann nutzen auch RTX2000er Karten DLSS3.1, eben den Super Resolution Part davon.
Und mit 3.5 wird der eben auf 3.5 angehoben
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx
Zurück
Oben