Notiz GeForce 417.35 WHQL: Grafiktreiber unterstützt DLSS in Final Fantasy

Lübke82 schrieb:
Ich muss auch nichts beweisen, da ich keine Anfangsbehauptungen aufstelle! Ich sehe aber das native Material und kann mir meine Meinung bilden, bei euch wird nur spekuliert auf Grund komprimierten YT-Videos. Schon wenn hier über das TAA diskutiert wird. Schaltet TAA ab und vergleicht natives UHD mal mit UHD@DLSS, dann hat DLSS kilometerweit das bessere Bild. mit einer deutlich gesteigerten Geschwindigkeit.
Inwieweit diese Aussage irgendetwas mit meinem ersten Post zu tun haben soll erschließt sich mir nicht.
Hab ich in irgendwie die Qualität von DLSS angesprochen? Nein. Die angesprochene Beschneidung bezieht sich rein auf die gebotenen Features, nicht auf die Qualität.
Steini1990 schrieb:
Ja all diese Punkte sind proprietäre NVIDIA Entwicklungen und müssen explizit von den Entwicklern eingepflegt werden. AMD muss etwas eigenes entwickeln wenn sie ähnliche Funktionen bieten wollen.
DLSS selbst funktioniert ja nur mit Verbindung zu den NVIDIA Servern.

Edit: Das DLSS wirklich die Tensor Cores der RTX Serie benötigt wage ich aber zu bezweifeln. Es wird nur eine künstliche Beschneidung seitens NVIDIA durchgeführt um die neuen Produkte verkaufen zu können. Beweisen kann ich das aber logischerweise nicht.
 
r4yn3 schrieb:
Vergleich Vram Auslastung Pascal zu Turing. Das ist zu viel verlangt? Respekt.
Den Aluhut darfst du behalten.

offensichtlich hat noch niemand im internet es für nötig gehalten das zu tun da es im grunde irrelevant ist.

man kann natürlich immer alles in frage stellen, aber generell hat sich ja offensichtlich noch nirgendwo ein problem mit der vram auslastung bei der 2080 gezeigt.

da die 1080ti hier und da mehr als 8gb bei diversen titeln nutzt, die 2080 aber bei gleichen einstellungen problemlos zurecht kommt denke ich das die architektur wohl doch einigermaßen durchdacht zu sein scheint.
ich kann dir aber die tage meine vram auslastung bei diversen titeln in 4k zukommen lassen, sofern du eine 1080ti besitzt darfst du das dann gerne vergleichen.
 
Der zweite Teil des Kommentares bezog sich nicht auf dich, sondern um allgemeine Behauptungen hier in dem Forum!
 
Mit FFXV zu starten hat Nvidia schlauer gemacht als mit BFV für RT.

Da TAA in FFXV so mies aussieht, wird der Vergleich von DLSS zu 4K TAA gut aussehen und das Feature steht gut da.

Ob das ganze in anderen Spielen sinnlose Spielerei ist, oder ein sinnvolles Feature, muss sich noch zeigen.
In der anderen Demo zu dem Thema hatte Digital Foundry ja gemeint es sein eigentlich sinnlos, weil DLSS in Bildqualität und Leistung gleich ist zu herkömlichem upscaling von 1800p auf 4K+TAA.

Daher warte ich mal ab, bis es in ein paar weiteren Spielen funktioniert und dann kann man bewerten, ob die Bildqualität bei gleicher Leistung wirklich besser ist als das upscaling von einer Auflösung zwischen 1600p-2000p.

Die Technik ist faszinierend.....aber wenn das Ergebnis keinen deutlichen Vorteil zu bereits vorhandenen Techniken hat, fällt es als Kaufgrund weg.
 
DLSS ist nicht wirklich ein Wunderfeature, wenn man den Platz der Tensor Cores für herkömmliche Shader genutzt hätte wäre man bei gleicher oder mehr Leistung in Jedem Spiel.
Aber dann wäre RTX nicht möglich gewesen, wobei RTX Niemand wegen der Performance wirklich haben will.
Ausser RTX funktioniert parallel zu DLSS kann man den Weg von Nvidia nur schwer befürworten.
Aus technologischer Sicht ist das ganze natürlich wieder etwas anderes, denn schon seit einer Weile steigen die Performancevoraussetzungen mit herkömlicher Technik immer weiter ohne spürbar bessere Bildqualität zu erhalten.
 
Baal Netbeck schrieb:
Die Technik ist faszinierend.....aber wenn das Ergebnis keinen deutlichen Vorteil zu bereits vorhandenen Techniken hat, fällt es als Kaufgrund weg.
Das wird sich zeigen, wenn die ersten Tests mit DLSS erscheinen. DLSS hat ja bei FFXV mit 1440P als Basis gerechnet. Da wirds genügend Publikationen geben, die das pixelgenau untersuchen, was das "Wunderfeature" dann tatsächlich leisten wird...

TheDarkness schrieb:
DLSS ist nicht wirklich ein Wunderfeature, wenn man den Platz der Tensor Cores für herkömmliche Shader genutzt hätte wäre man bei gleicher oder mehr Leistung in Jedem Spiel.
Wieviele Shader hättest Du denn auf den Platz bekommen, die nun die Tensor- Cores einnehmen.
Und wie skalieren denn die Shader, wenn sie mit den herkömmlichen Mitteln angebunden werden?
Und wie teuer wäre das ganze dann geworden?

TheDarkness schrieb:
Aber dann wäre RTX nicht möglich gewesen, wobei RTX Niemand wegen der Performance wirklich haben will.
Was ist denn an 1440P mit über 60 FPS und 4K mit knapp 60FPS plötzlich auszusetzen?

TheDarkness schrieb:
Aus technologischer Sicht ist das ganze natürlich wieder etwas anderes, denn schon seit einer Weile steigen die Performancevoraussetzungen mit herkömlicher Technik immer weiter ohne spürbar bessere Bildqualität zu erhalten.
Genau so ist es, deswegen musste ein Technologiewechsel eingeleitet werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82, Luzifer71 und Baal Netbeck
am schönsten fand ich den vergleich mit den schallplatten / mp3´s.

kein mensch würde heutzutage noch unkomprimiert versuchen, seine plattensammlung auf vinyl mit sich rumzuschleppen. abgesehen von den audiophilen sind 99% der menschen ab spätesten 256bit mp3 zu frieden und die meisten, die hier über dlss jammern, rennen mit in ear kopfhörern rum und streamen 128bit mp3´s....

jetzt kann man natürlich jederzeit einwerfen, dass hören und sehen echt schlecht zu vergleichen sind, aber sensorik bleibt sensorik :evillol:

mfg
 
Das schöne daran ist ja das dlss ein optionales Feature sein wird.
Wer keinen Bock drauf hat kann es einfach ausschalten oder einfach keine rtx Hardware kaufen. sofern die eigene Hardware die gewünschte Auflösung, detailgrad und fps packt.
Ansonsten ist es doch schön zu sehen das sowas angeboten wird um auch mit schwächerer Hardware die gewünschten Auflösungen und fps zu erzielen.
 
  • Gefällt mir
Reaktionen: Lübke82
Das nenn ich mal kreativen Einsatz von DLSS.
https://www.reddit.com/r/nvidia/comments/a5uwmq/final_fantasy_xv_with_dlss_on_a_1440p_monitor/

Der hat einen 1440er Monitor, macht DSR @2.25, dass FFXV die 4K Auflösung anwählen lässt und kann dadurch DLSS aktivieren.

So hat er eine deutlich bessere Kantenglättung als bei TAA und hat zugleich eine Geschwindigkeitssteigerung von 50,5 FPS auf 76,6 FPS in seiner Testszene.

Wenn das kein Fake ist, dann wär das natürlich der Brüller. Die 1080p ler machen dann einfach auch ein DSR auf 4K, aktivieren DLSS und haben eine dicke Qualitätssteigerung ohne große FPS einbußen.

Ich bin gespannt, wie sich das weiterentwickelt, aber wenn das so funktioniert.....
 
  • Gefällt mir
Reaktionen: Lübke82
Phear schrieb:
Bis dahin geh ich noch konform. Dann hätte ich aber angefügt, dass die meisten RTX Käufer vermutlich trotzdem noch das Wochenende mit der Freundin bezahlen können, weil es halt nur eine Investition von vielen ist.
Aber gut, wenn man sich zwischen beidem entscheiden müsste, würde ich vermutlich die Karte auch erstmal nach hinten schieben. Diese Sachverhalte haben aber noch nie etwas zu irgendeiner Diskussion bei den Karten beigetragen.

@Topic
Funktioniert DLSS eigentlich nur mit nativen 4k Bildschirmen oder theoretisch auch mit DSR auf 4k und dann aktiviertem DLSS? Ob das nun Sinn machen würde oder nicht lasse ich mal außen vor.
Es funktioniert, ist aber glaub ich sinnbefreit.
 
Die ersten Vergleichsbilder trudeln ein:
https://www.techpowerup.com/reviews/NVIDIA/DLSS_Super_Sampling_AA_Tested_Final_Fantasy/

Wobei ich dort nicht erkennen kann, ob sie die AI gesteuerte Materialrekonstruktion integriert haben.
Sieht auf den Bildern eher nicht so aus. Ich weiss nicht, was ich von den Bildern halten soll. Gerade auch, weil der Vergleich unterschiedliche Beleuchtungsszenarien zeigt. Man kann aber sehen, dass DLSS seinen Job manchmal gut macht, manchmal besser als nativ ohne AA und manchmal schlechter.

War also zu erwarten. Der Autor des Artikels rückt das aber alles in ein positives Licht. Es scheint also in Aktion tatsächlich gut rüberzukommen.

Würde mich nur noch interessieren, ob sie auch DLSS HQ integriert haben. Sprich Rendering nativ in 4K und AI Kantenglättung dazu.

Edit:
Bis jetzt ist das Ergebnis in meinen Augen sehr durchwachsen:

TAA
taa.JPG


DLSS
dlss.JPG


Bei DLSS gehen z.B. am linken Balkon einige feine Detailinformationen flöten. Auch die Texturen an den Mauern sind ein klein wenig verwaschener. Das Schild rechts im Bild ist mit DLSS wieder deutlich detailierter als die 4K TAA Variante.

Potenzial ist also auf jedenfall vorhanden aber in meinen Augen ist es noch kein No- Brainer im Einsatz. Aber wie gesagt- Man muss da vorsichtig sein und prüfen, wie es in Aktion aussieht... Zudem sind die Bilder auch gezoomt...
 
Zuletzt bearbeitet:
Ich denke nicht dass ich in bewegten Bildern einen Unterschied ausmachen würde, aber bei genauer Betrachtung der Standbilder finde ich die Bilder ohne DLSS besser, teilweise dramatisch besser (DLSS vs 1440p)
 
Hier nochmal ein Vergleich:
https://www.dsogaming.com/articles/...0fps-on-the-rtx2080ti-comparison-screenshots/

Ja- DLSS schluckt ganz deutlich viele Details. An sehr wenigen Stellen brilliert es. Ich bin unterwältigt.
Wobei natürlich diesbezüglich mit das wichtigste Vergleichsbild fehlt, nämlich ein standardmäßig von 1440p auf 4K hochskaliertes Bild.

Zusätzlich hat man wohl eine höhere Frametime- Varianz:

Geschwindigkeitssteigerung ist auch nicht sonderlich markant (10-20%).
 
Zuletzt bearbeitet:
Fraggball schrieb:
ich gebe dir recht das ein upgrade für leute mit einer 1080 oder 1080ti absolut sinnlos ist.
wenn ich allerdings von einer 1060 fullhd auf 144hz wqhd wechsle sieht das ganze anders aus.

desweiteren ist das "weniger speicher argument" gegen die 2080 auch ein wenig an den haaren herbeigezogen, zum einen hat turing eine weitaus bessere speicherkomprimierung und cachearchitektur im gegensatz zu pascal, zum anderen ist ddr6 in seiner architektur anders als ddr5 und somit schwer zu vergleichen.
bisher gibt es keinerlei anzeichen dafür das 8gb ddr6 nicht völlig ausreichend für eine 2080 in 4k sind.

das raytracing und dlss noch nicht breit adaptiert ist stimmt und ist ärgerlich, war aber zu erwarten. vor ende 2019 rechne ich zumindest nicht damit.

das raytracing nur auf einer 2080ti in fullhd sinn macht hingegen ist kompletter blödsinn. selbst die erste adaption in bf5, welche sich noch weit von einer fertigen implementierung befindet, beweist doch das raytracing sowohl auf der 2070 als auch 2080 (sogar in wqhd) problemlos nutzbar ist.
ob bf5 der richtige titel für so ein feature ist bleibt allerdings fragwürdig.
Habe grad den FF Benchmark auf meiner RTX 2080 FE laufen lassen, in 4K Upsampling alles auf max DLSS auch. 48 FPS 6900 GB VRam plus viele Ruckler. Naja der Benchmark müsste wohl auch noch gepatcht werden zur Optimierung. Im echten Game würde ich natürlich etwas zurückregeln um 60FPS zu schaffen, aber wenn es optimiert würde wäre es durchaus spielbar in 4K.
 
Vielleicht ist dieses Schlucken von Details einer der Gründe oder sogar der Grund warum DLSS so schleppend implementiert wird.

Mal schauen wie sich das in den nächsten Monate entwickelt.
Ich sehe darin deutlich mehr Sinn und Potenzial als in Raytracing.
 
Leider ist auch der Treiber GeForce 417.35 WHQL für mich wieder nicht zu gebrauchen, da bisher bei jedem Treiber der 400ter Version dann der Turbo-Button am Monitor von meinem Asus Rog Swift PG278Q, welcher zum schnellen Frequenzwechsel [60 / 120 / 144 Hz] dient, nicht mehr funktioniert, sprich ich bekomme nur die aktuelle Frequenz angezeigt, aber kann diese nicht mehr per Button ändern! :(

Ich finde es ja Lobenswert, das Nvidia die Treiber für ihre neuen RTX Turing Grafikkarten weiter optimiert, warum man dann allerdings bestimmte Optionen, die noch bei älteren Treibern, wie in meinem Fall bei dem Geforce 385.69 funktionieren, seit den RTX Optimierungen der 400ter Serie nicht mehr funktionieren, erschließt sich mir nicht!

Und da ich diesen Turbo-Button in bestimmten Szenarien brauche / benötige, kann ich darauf nicht verzichten, daher heißt es also, weiterhin auf den Treiber Version 385.69 zu bleiben, denn da funktioniert alles ohne Probleme. Nur Geforce Experience lässt sich nicht mehr nutzen, da sich dieses Feature immer automatisch selbst updatet und die neue Version nur mit einem neueren Treiber der 400ter Serie funktioniert und ich mit der alten Treiber Version einfach den Button für die Shadowplay Funktionen zum Einstellen der Settings nicht mehr angezeigt bekomme, toll! :mad:
 
Warum sollte man die Frequenz des Monitors während des Betriebes beliebig verändern können? 144Hz und gut ist.
 
  • Gefällt mir
Reaktionen: Lübke82, Zitterrochen, pietcux und eine weitere Person
SKu schrieb:
Warum sollte man die Frequenz des Monitors während des Betriebes beliebig verändern können? 144Hz und gut ist.
Weil es z.B. bestimmte Benchmarks gibt, wenn man diese startet, zunächst mit 60 Hz laufen, auch wenn man im Nvidia Control Panel 144 Hz eingestellt hat. Dann kann ich nur mit dem Turbo-Mode während der Benchmark läuft auf 144 Hz umschalten und den Benchmark dann auch mit der höheren Frequenz genießen und das ist ein deutlicher Unterschied zu 60 Hz. Da ist nix mit 144 Hz und gut is, ohne den Turbo-Mode bekommst du den Benchmark nicht mit 144 Hz zum laufen!

So z.B. im FFXIV-Heavensward-Benchmark, im FFXIV-Stormblood-Benchmark oder auch im FFXIV-A Realm Reborn-Benchmark, wo der Benchmark beim Start automatisch auf 60 Hz springt, obwohl man im Nvidia Control Panel 144 Hz eingestellt hat.
 
Wenn man Spaß daran hat sich Benchmarks anzusehen. Keine Ahnung was für eine Exklusivität dieser Final Fantasy Benchmark hat, bei mir lief bisher jeder integrierte Game Benchmark oder synthetischer Benchmark mit den 144Hz des Monitors.
 
  • Gefällt mir
Reaktionen: SyntaX, Luzifer71, r4yn3 und 2 andere
TheUngrateful schrieb:
Ich denke nicht dass ich in bewegten Bildern einen Unterschied ausmachen würde, aber bei genauer Betrachtung der Standbilder finde ich die Bilder ohne DLSS besser, teilweise dramatisch besser (DLSS vs 1440p)

Und genau da ist der Fehler. Grad in Bewegung ist der Unterschied zu suchen! Mit DLSS flimmern Kanten von Sträuchern und Gebäuden deutlich weniger. Die Landschaft wirkt schärfer dadurch. Sowas sieht man nur nicht auf Bildern oder fast garnicht in einem YT-Video, sondern nur in Echtzeit. Es kommt einfach nicht der Selbe und sogar vlt. ein falscher Eindruck rüber. Noch dazu läuft es deutlich schneller, auch wenn es noch nicht perfekt ist.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben