Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce 546.29 WHQL & 546.31 Hotfix: Nvidia feiert mit neuem Treiber 500 RTX-Spiele und -Apps
Mit dem GeForce 546.29 WHQL optimiert Nvidia – ein drittes Mal – für Call of Duty: Modern Warfare III (Test). Außerdem sei der neue Grafiktreiber „Game Ready“ für Cyberpunk 2077: Ultimate Edition und sieben neue G-Sync-Bildschirme. Darüber hinaus liefert Nvidia ein paar Fakten zu nunmehr 500 Spielen und Apps mit RTX-Features.
"die Marke von 500 Spielen und Anwendungen, die in irgendeiner Art und Weise Gebrauch des RTX-Featuresets machen, sei erreicht."
ist schon sehr schwammig und schwer überprüfbar, aber als das vor ein paar jahren mit BF V losging hätte das trotzdem niemand geglaubt.
7/8 der Pixel AI generiert wow
Ist wahrscheinlich „best case“ Szenario aber trotzdem krass wohin diese Entwicklung ging und die AI Pixel sehen dabei oft sogar besser aus als die normal gerenderten
7/8 der Pixel AI generiert wow
Ist wahrscheinlich „best case“ Szenario aber trotzdem krass wohin diese Entwicklung ging und die AI Pixel sehen dabei oft sogar besser aus als die normal gerenderten
Ne, das ist nicht best-case, sondern abhängig davon, was du einstellst.
Wenn du DLSS im Performance Modus nutzt und dann Frame Generation zuschaltest (was in 4K immernoch sehr gut aussieht), dann sind IMMER 7/8 der Pixel generiert und nur 1/8 tatsächlich von der GPU auf klassische Weise berechnet.
Praktisch dürfte die Samplerate sogar noch vielfach höher sein, denn DLSS braucht ja nicht nur Samples um damit die Pixel einer höheren Auflösung auszufüllen, DLSS braucht auch weitere Samples, um genug Informationen für Anti-Aliasing zu haben. Und diese Samples fürs AntiAliasing werden auch nicht berechnet, sondern aus den Informationen aus vorherigen Frames generiert.
Schon ziemlich irre, was da mittlerweile möglich ist.
Was jedoch abhängig vom Spiel und Workload ist, ist die performanceausbeute. Mit Pathtracing kann DLSS die Framerate um das 5-fache steigern. Mit RT oder Raster sind es oft 2-3 fache FPS.
Nvidia kann sich zusammen mit Rockstar Games für fehlerhaftes DLSS 2.2.10 und fehlende
Frame Generation in Red Dead Redemption 2 feiern. Ich feier lieber den Modder PureDark.
Ist schon sehr cool, man stelle sich nur mal vor man könnte nur "nativ". Für die heutige Leistung mit Raytracing, Pathtracing, 4k, 100 Frames+ usw. bräuchte man 2-3x mehr native Leistung für ein Bild, was nicht besser aussehen würde. 2-3x mehr Leistung würde auch bei aktueller Technik min. 2-3x mehr Stromverbrauch bedeuten. Falls überhaupt möglich, hätten wir so Grafikkarten mit 1000Watt+ in unseren Spiele-PCs...
Ich werde es gleich ausprobieren und dann hier von meinen Erfahrungen mit Path Tracing (Ghosting) aus dem Spiel Cyberpunk berichten! Dabei werde ich es in diesen Kommentar hinzufügen!
#EDIT
Ich fasse mich kurz: Nachdem ich es etwa 30 Minuten ausprobiert habe, ist mir ein deutlicher positiver Effekt aufgefallen – eine spürbare Verbesserung ist definitiv da. Zwar ist das Problem nicht vollständig behoben, aber basierend auf meinen bisherigen Erfahrungen, wenn das Spiel weiterhin so reibungslos läuft wie in den getesteten Szenen, erreicht es einen Punkt, mit dem ich wirklich zufrieden bin. Getestet habe ich das Spiel übrigens mit maximalen Details und Path Tracing.
So ähnlich war es aber eigentlich ja auch schon immer in der Spielgrafik, es wurden schon immer Tricks und neue Technologien genutzt um Limitierungen zu umgehen und die Grafik zu verbessern.
Indem bei 8 Bit-Hardware mit limitierter Farbpalette schnell zwischen zwei Sprites mit unterschiedlichen Farben gewechselt wurde um es wie Farbwerte zwischen beiden Paletten wirken zu lassen, Downsampling und Anti-Aliasing sollen Treppcheneffekte reduzieren die bei einem Display mit höherer oder theoretisch unendlicher Auflösung (oder einem Vektordisplay) nicht existieren würden, Texturen faken schon immer Objekte die man sonst in 3D modellieren und vor allem rendern müsste und Bumpmapping, Normalmapping etc... faken Oberflächendetails (und schattenwerfende Tiefe), die ohne diese Technologien auch nur modelliert werden könnten.
Es gibt immer wieder Kritik, wenn Spiele heutzutage sogar darauf ausgelegt werden nur mit DLSS/FSR2 oder eigenen Upscalingtechnologien gut zu laufen, da frage ich mich dann aber ob diejenigen die unbedingt natives 4K verlangen, eigentlich bei allen anderen Aspekten wo Spielgrafik in der Vergangenheit etwas gefakt hat was technologisch nicht "nativ" machbar war auch so empört waren^^
Wichtig ist imho nur, dass es gut aussieht - wie das Ziel erreicht wurde ist komplett egal!
Wer sich an irgendwelchen Zahlen (wie eben "4K!!!) festbeißen will, von mir aus - wenn das Ziel eines scharfen Bildes (bei hoher Grafikqualität) durch "magischen Rauch" erlangt wurde - auch gut!
Ich werde es gleich ausprobieren und dann hier von meinen Erfahrungen mit Path Racing (Ghosting) aus dem Spiel Cyberpunk berichten! Dabei werde ich es in diesen Kommentar hinzufügen!
Ja, nur prüft er bei Steam die Dateien nicht. Die Installation und updates des Spiels werden komplett von Steam gemanaged, so wie auch bei Ubisoft oder EA spielen über Steam bei denen der Ubisoft oder EA Launcher mitstartet. Die 3rd-Party Launcher haben da nichts mehr zu melden.
Solche Fortschritte in so kurzer Zeit sind wirklich lobenswert und man sieht hier des öfteren, wie Nvidia neue Forschungsarbeit im Bereich RT und AI innerhalb weniger Jahre direkt marktreif in Spiele bringt.
Daran sollte sich AMD wirklich mal ein Beispiel nehmen. Seit Release von FSR2 gab es da keine sichtbaren Qualitätsverbesserungen.
Further support for new titles leveraging NVIDIA DLSS technology includes the launch of THRONE AND LIBERTY which support DLSS 3, as well as the arrival of Avatar: Frontiers of Pandora and Fortnite Chapter 5 which support DLSS Super Resolution.