Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NotizGeForce 417.35 WHQL: Grafiktreiber unterstützt DLSS in Final Fantasy
Nvidia hat mit dem GeForce 417.35 WHQL einen neuen Grafiktreiber veröffentlicht, der unter anderem Unterstützung für Deep Learning Super Sampling (DLSS) in Final Fantasy XV: Windows Edition mitbringt. Zudem behebt der Treiber einen Fehler, der die Framerate bei Notebooks in 3D-Spielen auf unter 30 FPS einbrechen lassen konnte.
Sehr geil. Genau darauf habe ich gewartet. Leider muss anscheinend aber ein Update des Spieles noch kommen. Hab in den Optionen des Spieles zumindest nichts gefunden
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Viel interessanter wäre, mal zu zeigen was eine RTX 2070 / 2080 im Vergleich zu einer GTX 1080Ti an FPS mit DLSS bringen! Schaue ich mir aber die FPS der RTX 2080Ti für weit über 1000,00 Euro an, lässt sich nichts Gutes erahnen! Aber schön das CB auch die 0,05 ‰ User hier im Forum mit einer RTX 2080Ti mit Werten versorgt!
Gemäß Nvidia Seite, "Our latest GeForce Game Ready driver readies GeForce RTX gamers for a new Steam update for FINAL FANTASY XV WINDOWS EDITION XV. "
Sollte dann bei den AA Optionen dabei sein. Die Demo Der Benchmark sollte allerdings schon DLSS können..
Mir ist immer noch nicht klar wo DLSS die Performance rausholt. Es ist ja sogar schneller als 4K ohne AA, oder?
Die ersten zwei Minuten genügen, um deine gewünschte Information zu erhalten.
DLSS senkt die interne Renderauflösung auf 1440p ab. DLSS ist dann sowas wie ein intelligentes Adaptives MSAA, was die Bildqualität wieder auf 4k+TAA-Niveau hiefen soll.
Nvidia hat anscheinend noch einen schöneren Farbfilter auf das 2080 Ti Gameplay gepackt damit noch zusätzliche Noobs auf den Hypetrain aufsteigen.
Ich hoffe dieser DLSS Kram wird nicht zum Standard sodass man sich im Zukunft immer fragen müsste, ob das Spiel in nativer Auflösung läuft oder einem nur vorgegaukelt wird.
Ich hoffe dieser DLSS Kram wird nicht zum Standard sodass man sich im Zukunft immer fragen müsste, ob das Spiel in nativer Auflösung läuft oder einem nur vorgegaukelt wird.
Geil wie bei den älteren Konsolen: niedriger auflösen und dann hochskalieren. Nur wird das jetzt mit 'nem Buzzword "DeepLearning" so umschrieben, daß es schön modern und KI-mäßig klingt.
Geil wie bei den älteren Konsolen: niedriger auflösen und dann hochskalieren. Nur wird das jetzt mit 'nem Buzzword "DeepLearning" so umschrieben, daß es schön modern und KI-mäßig klingt.
Wenn Du mir jetzt noch erklärst, was der Unterschied zwischen beiden Verfahren des "Hochskalierens" (Konsole/Tensor Cores) bestehen, dann kann ich Deine Aussage nachvollziehen.
Deep learning in Spielen ist wie der Schritt von Schallplatte zur CD bei Musik. Das ist ein Meilenstein und die Grundlage für 24bit/192khz 10 Kanal Audio. Deep learning wird in der nächsten Generation 8k in Echtzeit ermöglichen, wird dafür sorgen, dass dein Handy Crysis abspielt und wir am Ende tatsächlich von der Realität nicht mehr zu unterscheidende Spiele haben werden. Das braucht aber noch ein paar Jahre Forschung.
Ergänzung ()
grossernagus schrieb:
So lange das Bild nicht gleich aussieht, vermute ich einfach, daß Nvidia da trickst.
Natürlich trickst Nvidia da. Das ist der Sinn von deep learning. Das ist etwa so, als wenn du einem Maler ein schlecht aufgelöstes Bild von einer Kirche zeigst und der soll das mal in schön malen. Das bekommt der hin, weil der weiß wie Kirchen generell aussehen und was das schlechte Bild an details verschluckt hat. Das Bild, was rauskommt ist nicht genau die Kirche, aber jemand der die Kirche nicht kennt, würde keinen Fehler erkennen. Da können Farben schon leicht anders sein. Nvidia hat da eine Software gebaut, die auf Forschung basiert, die letztes Jahr noch in Universitäten entwickelt wurde.
Das Ende der Fahnenstange ist noch lange nicht erreicht.
Quizfrage: für Pascal-Systeme ist wohl immer noch der letzte 391er Treiber die beste Wahl oder?
Die bugfixwelle der 400er muss man sich ja nicht antun ohne RTX-GPU wie es aussieht.