News GeForce 536.99 Game Ready: Neuer Treiber für Baldur's Gate 3

Aduasen schrieb:
Neuen Treiber heute früh gleich runtergeladen.
Was mich an dem Spiel stört, ist die fehlende Unterstützung von 3840x1600 bei den Auflösungen :(
Also ich spiele in genau dieser Auflösung.
 
Taxxor schrieb:
DLSS3 ist nicht gleich FG, auch wenn es hier oft so dargestellt wird.
Nvidia benennt die Kombination aus DLSS und FG selber als DLSS 3:

DLSS 3 nutzt die neuen Tensor-Recheneinheiten der vierten Generation und den Optical-Flow-Beschleuniger auf Grafikprozessoren der GeForce RTX 40-Serie, um mithilfe von KI zusätzliche qualitativ hochwertige Frames zu erstellen.
https://www.nvidia.com/de-de/geforce/technologies/dlss/

Dadurch, dass sie DLSS ohne FG nun auch auf Version 3.x.x gehoben haben, wird eine sprachliche Eindeutigkeit schwieriger. Für's Marketing ist neu natürlich immer besser und abgesehen von Leuten, die so weit in der Materie stecken, dass sie wissen, welche Version ihre DLSS-DLL hat, wird sich DLSS (2) für DLSS einbürgern und DLSS 3 für DLSS + FG.
 
@AnkH
Ich probiere gerade ein bisschen mit den Filtern rum, es scheint nun zu laufen.
Vorher wars bei mir so das der Flusi instant gecrasht ist mit FG und DX12.
 
  • Gefällt mir
Reaktionen: AnkH
mcbloch schrieb:
Hier wird viel über DLSS 2 gesprochen, aber nutzt ihr auch immer die aktuelle Version ??
Die in dem Spiel verfügbare ist noch sehr alt.

Schaut doch mal hier bitte, da gibt es immer die aktuelle Version von DLSS 2 und 3.

DLSS2 : https://www.techpowerup.com/download/nvidia-dlss-dll/

DLSS3 Framegeneration : https://www.techpowerup.com/download/nvidia-dlss-3-frame-generation-dll/
Den muss man manuell installieren die DLSS Treiber? Ist der nicht im Nvidia Treiber mit drin?
 
  • Gefällt mir
Reaktionen: Mcr-King
Mcr-King schrieb:
Hier mal der link
Baldur's Gate 3 has support for DirectX 11 and Vulkan—we've tested both. Surprisingly, there's very little difference between both renderers, they look exactly the same, the FPS are very similar, and even the minimum FPS, too....
Also kein Unterschied ist bei mir nicht der Fall, in Vulkan läuft mein Grafikkartenlüfter ununterbrochen auf 100% während mit DirectX 11 dieser oft unhörbar ist, da brauch ich dann auch keine Benchmarks laufen lassen um zu wissen was die bessere Option für mich ist.^^

Angeblich soll Vulkan für AMD Grafikkarten die bessere Wahl sein, aber keine Ahnung ob das stimmt, war auch mehr ein allgemeiner Kommentar unter einem BG3-Vergleichsvideo zwischen DirectX 11 und Vulkan aber bezog sich nicht explizit auf BG3.^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Vermutlich wird sie mit Vulkan deutlich besser ausgelastet und wird damit auch wärmer.
 
  • Gefällt mir
Reaktionen: Mcr-King
Laut PCGH läuft Vulkan durch die Bank weg bei beiden Herstellern deutlich performanter. Man liest aber öfter von Crashes unter Vulkan - ich zock daher lieber mit DX11 fürs Erste. :D

Vulkan verschiebt das Prozessorlimit signifikant nach oben, presst folglich höhere Bildraten aus der Infrastruktur und erlaubt somit die Entfaltung der meisten Grafikkarten. So rendert der Geforce RTX 4090, in fast allen Szenarien relativ CPU-abhängig, unter Vulkan in Full HD 146/177 Fps. Mit Direct3D 11 sind es lediglich 106/122 Fps - das entspricht einem satten Plus von 45 Prozent. Die Radeon RX 7900 XTX operiert etwas öfter im GPU-Limit, die Unterschiede fallen jedoch beinahe genauso groß aus: Hier steht es 139/168 zu 104/119 Fps, was einem Plus von 41 Prozent entspricht. Die Arc A750 agiert die allermeiste Zeit im Grafiklimit, allerdings ist der Intel-Treiber für seine DirectX-11-Schwäche bekannt, weshalb wir auch hier nachgefühlt haben. Die A750 erreicht unter Direct3D 11 nur 43/62 anstelle von 58/65 Fps - die für die empfundene Flüssigkeit wichtigen Perzentile liegen unter Vulkan folglich um 35 Prozent höher.
 
  • Gefällt mir
Reaktionen: Mcr-King
Mimir schrieb:
Diese alten AA Modi funktionieren meines Wissens praktisch nur, wenn das Spiel MSAA unterstützt.

MSAA wurde aber schon vor 10 Jahren von den Spieleentwicklern für tot erklärt, weil es schon damals nicht mehr mit den moderneren Renderingverfahren funktioniert hat.

Es gibt heute noch vereinzelt Spiele mit MSAA support, aber dort kostet es häufig sehr viel Leistung und erfasst nur noch sehr wenige Kanten. Also unbrauchbar.

Alternative zu SSAA ist Downsampling. Also in höherer Auflösung rendern und das ganze dann auf Displayauflösung downsamplen. Das erzeugt den gleichen Effekt wie klassisches AntiAliasing. Ist ja auch fast das gleiche.

Das gabs bisher in form von DSR bei Nvidia (lässt sich im Treiber aktivieren) oder VSR bei AMD. Aber da selbst das mittlerweile kaum noch brauchbar war und wir selbst mit DLSS mittlerweile eine Bildstabilität erreichen, wie mit 4x Downsampling (stellenweise sogar besser), hat man mittlerweile DL-DSR mit Deep Learning Komponente, die zusätzlich auch temporal besser glättet.

Jo, soweit ich weiß liegt das auch daran weil alles crossplattform ist?

Ich hab mir heut einfach mal den Spaß erlaubt bei Civ 6 einfach mal die Transparenz auf im NV-Treiber auf 4xSuperSampling zu setzten und die Anwendungseinstellung zu erweitern, obwohl ich nicht mal alle Effekte aktiviert hatte, kam mir das Bild um Welten besser vor, ich müsst mal Screenshots anfertigen, aber nichts desto trotz, nicht jeder Spieler brauch 120 fps, mir reichen auch 40fps. Bei Strategie und 60 beim shootern/First Person.

Wenn möglich schalte ich auch immer MSAA ein oder dazu, wenn möglich.
 
  • Gefällt mir
Reaktionen: Mcr-King
Vigilant schrieb:
Vermutlich wird sie mit Vulkan deutlich besser ausgelastet und wird damit auch wärmer.
Ich spiel ja nur in Full HD mit DLSS.^^

Und was ich im Nachhinein noch gelesen hatte bei dem verlinkten Benchmark war das es wohl ein Speicherproblem mit Vulkan geben kann.

Ein Tor war z. B. bei mir mit Vulkan nicht sichtbar und hatte mich schon gewundert weshalb ich nicht durchlaufen kann bis ich den Sound vom öffnen des Tores gehört habe. xD

Dazu hab ich zudem VSync aktiviert und die FPS auf 60 FPS limitiert und auch vieles auf Hoch eingestellt, Schatten auf Mittel.

Ich sehe auch keinen Grund weshalb mein Grafikkartenlüfter auf 100% laufen sollte wenn nicht einmal irgendwas im Spiel passiert, ich stehe nur herum und da ist dies bereits der Fall. ^^
 
  • Gefällt mir
Reaktionen: Vigilant
thommy86 schrieb:
Den muss man manuell installieren die DLSS Treiber? Ist der nicht im Nvidia Treiber mit drin?
Da DLSS in den Spielen implementiert wird, sind die Dateien logischerweise in den jeweiligen Spieleordnern.
Und man muss auch nichts installieren, einfach die DLL Datei austauschen
Ergänzung ()

N0Thing schrieb:
Dadurch, dass sie DLSS ohne FG nun auch auf Version 3.x.x gehoben haben, wird eine sprachliche Eindeutigkeit schwieriger.
DLSS SR und DLSS FG, fertig ^^
So wird es auch im aktuellen Baldurs Gate 3 Test hier auf CB genannt.

Die Marketing Seite stammt ja auch noch aus der Zeit in der SR Version 2.x und FG Version 1.x war.
Der Upscaler wird eben auch weiterentwickelt, ihn weiter DLSS2 zu nennen impliziert, dass sich hier nichts tut
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mcbloch
CDLABSRadonP... schrieb:
Das sollte nicht sein...

...aber es kann natürlich dennoch sein, nämlich wenn beide Algorithmen intern unterschiedlich mit den Daten umgehen und das zu Ungunsten der größeren Datenbasis ausgeht. Und wie bereits von @Mimir und mir dargelegt: Das tun sie.
theGucky schrieb:
Nicht wegen der Auflösung, aber DLAA hat andere Schärfe Einstellung und so.
Ihr liegt wohl falsch:
Nochmal einen drauf auf DLSS setzt wenig verwunderlich Nvidias DLAA, sprich das Rendern in nativer Auflösung in Verbindung mit dem DLSS-Algorithmus. Das ist dann eine zusätzlich gesteigerte Version aus Bilddetails, Rekonstruktion und Stabilität, die zwar nicht viel besser als DLSS „Quality“ aussieht, aber eben doch ein kleines Stück.
https://www.computerbase.de/2023-08...st/2/#abschnitt_nvidia_dlss_sr_in_der_analyse
 
  • Gefällt mir
Reaktionen: Mcr-King und Mimir
Crassus88 schrieb:
Jo, soweit ich weiß liegt das auch daran weil alles crossplattform ist?

Ich hab mir heut einfach mal den Spaß erlaubt bei Civ 6 einfach mal die Transparenz auf im NV-Treiber auf 4xSuperSampling zu setzten und die Anwendungseinstellung zu erweitern, obwohl ich nicht mal alle Effekte aktiviert hatte, kam mir das Bild um Welten besser vor, ich müsst mal Screenshots anfertigen, aber nichts desto trotz, nicht jeder Spieler brauch 120 fps, mir reichen auch 40fps. Bei Strategie und 60 beim shootern/First Person.

Wenn möglich schalte ich auch immer MSAA ein oder dazu, wenn möglich.

Nö, hat mit cross plattform absolut nichts zu tun.

Moderne Grafik wird dank PBR and Deferred shading erst möglich und das ist eben nicht mehr kompatibel mit MSAA.

Außerdem hätte MSAA, selbst wenn es perfekt funktionieren würde keine Chance, heutige Spiele zu glätten.
Schonmal ein modernes Spiel mit deaktiviertem TAA gesehen? Das ist die reinste Hölle aus flimmern und rauschen, da wäre auch 8xSSAA völlig machtlos. Eine temporale Komponente ist heute unerlässlich.

Vergiss MSAA. Der Ansatz ist tot und völlig veraltet.
Wenn du Brute Force AntiAliasing willst, dann nutze DL-DSR. Das ist gut und kostet viel Leistung. Besser wirds nicht.


MrHeisenberg schrieb:

Ich habe nur beschrieben, was bei DLSS standardmäßig von Nvidia empfohlen wird. Das hätte den Eindruck dann auch erklärt. Aber man sieht ja hier ganz gut, dass die Entwickler sich anders entschieden haben.

Ehrlich gesagt verstehe ich dann aber auch nicht, was man an DLSS oder DLAA hier bemängeln könnte. Das sieht mMn. sehr gut aus. Scharf und trotzdem sehr gut geglättet.
 
Zuletzt bearbeitet:
Mimir schrieb:
Nö, hat mit cross plattform absolut nichts zu tun.

Moderne Grafik wird dank PBR and Deferred shading erst möglich und das ist eben nicht mehr kompatibel mit MSAA.

PBR ist nix anderes wie Raytracing und ich nutze das auch nicht.

Ja warum brauch man eine temporale Komponente, weil man den strahlen Mist, auf Vektorgrafik überblendet.

Wie ich es oben schon erwähnte.

Sagst ja sogar die Sachen würden flimmern wie verrückt, ja sorry dann sollte auch das Gerüst sauber implementieren.

Raytracing wird für mich erst interessant, wenn das komplette Bild geraytraced wird, dann brauch man auch keine kantenglättung und Tiefenschärfe Filter mehr.

So lange Vektorgrafik im Spiel ist, ist AntiAliasing immer interessant.

EDIT:
klar empfiehlt Nvidia sowas, schöne Speicher schonen.

Und das mit dem rum meckern, mmmmhh, vielleicht hab ich halt echt flimmrige augen 😉 ich bin da echt extremst empfindlich weil ich auch direkt Kopfweh von bekomme, deswegen ich VR auch bis heute nichts für mich.

Aber mal was anderes, leider hab ich kein Baldurs Gate, hab versuch doch mal das Supersampling wie ich im Treiber zu erzwingen, vielleicht kommt ja was bei rum.
 
Zuletzt bearbeitet:
Hier par Screenshots von der Charakter erstellung.
Konnte leider keinen eigene Charakter auswählen weil ich das Game dazwischen neustarten muss (Treiber update) Darum sieht man es nicht ganz so dolle.
Bei anderen Frisuren fällt es eher auf.

Leicht zu sehen an den Armen wos Treppchenbildung gibt, und die Haare die unscharf werden.

Zbsp sowas
bg3_2023_08_09_18_17_10_226.jpg


OhneAA
Ohne AA


SMAA
SMAA


TAA
TAA


DLAA Alt:
DLAA alt



DLAA Neuer Treiber:
DLAA neu


DLSS Quality:
DLSS Quality:


Und für alle Puristen das ganze als .zip File ohne dass das Forum noch die Bilder komprimiert...
 

Anhänge

  • Gefällt mir
Reaktionen: Mcr-King
Ich hab die DLSS-DLL Datei jetzt auch ausgetauscht und dann kam beim Launcher diese Meldung:

BG3Launcher.png

:D
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben