Test Nvidia Turing: DLSS 2.0 zeigt endlich, was möglich ist

wow. ich könnte auf anhieb nicht sagen, dass die bilder nicht nativ gerechnet wurden. muss mir die gleich noch runterladen und vergleichen, aber sieht ja schon mal sehr gut aus. oft ~90% leistung geschenkt bei vergleichbarer qualität in 4k? das ist mal eine ansage, da würde ich auch kleine grafikfehler in kauf nehmen

edit: jetzt verglichen und ich muss sagen es hängt doch stark vom spiel, szene und auflösung ab
Deliver Us The Moon sieht bei der ersten szene in beiden auflösungen selbst im performance modus mit dlss sehr gut aus. bei der zweiten szene verliert man in full hd zu viele details (schärfe der details auf dem rohr, symbole auf der tür verschwinden vollständig). in 4k verliert man immer noch die scharfen details auf dem rohr, aber sieht insgesamt nicht mehr so schlecht aus. hier müsste man mit 1440p gegen testen.
bei Wolfenstein: Youngblood ist dlss in der ersten szene ebenfalls in beiden auflösungen sehr gut. mir gefallen sogar alle dlss einstellungen wegen der schärfe mehr als nativ. bei der zweiten szene sind die grafikfehler jedoch so extrem, dass ich komplett auf dlss verzichten würde.
bei control finde ich dlss in full hd sehr schlecht: man achte in der ersten szene auf das gitter, da frisst dlss einfach löcher rein. in der zweiten szene wird die antennenschüssel verpixelt und das gras fängt durch die scharfzeichnung an zu leuchten. bei 4k dlss sieht es zumindest bis zur balanced einstellung in ordnung aus.

man müsste zumindest in einer dlss einstellung ein screenshot in der renderauflösung zeigen, damit man das upscaling bewerten kann. eventuell sieht es zb in 1440p mit der gleichen performance besser aus, als in dlss 4k (das intern 1440p rechnet) @Wolfgang
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Xidus, Iscaran und hahaqp
@Wolfgang
Da stellt sich schon die Frage, was das für zukünftige GPU Benchmarks bedeutet.
Sofern die Qualität vergleichbar ist, könnte man argumentieren, dass die Nvidia Karten im Vergleich zu AMD mit aktiviertem DLSS 2.0 Quality getestet werden.

Ich denke es ist noch etwas früh dafür, da die Qualität noch immer etwas schlechter zu sein scheint....aber die Nvidia Fans bei DigitalFoundry gehen ja eher soweit zu sagen, die Qualität wäre besser als nativ.

Wie werdet ihr damit umgehen?
Beides testen, oder DLSS ignorieren?
 
  • Gefällt mir
Reaktionen: Xidus, Askalon42 und Esenel
ZeroZerp schrieb:
Lies doch einfach den Text von CB.

LG
Zero


Daran glaube ich erst wenn ich es gesehn hab und auch wenn es so wäre würde mann wohl das Spiel erst releasen wenn das 1x Netz auch dieses Spiel mehrmals nachtrainiert wurde.
 
Ich hoffe DLSS 2.0 findet seinen Weg bald in viel mehr Spiele. Für mich wäre es DAS Verkaufsargument für die kommende GPU Generation von Nvidia. Ich hoffe eine ähnliche Technik findet sich auch in den kommenden AMD GPUs und damit natürlich in den neuen Konsolen. Sehr spannendes Thema und ich freue mich darauf was die Zukunft damit noch so bringt. :)
 
  • Gefällt mir
Reaktionen: fullnewb, tidus1979, hahaqp und 2 andere
Wo finde ich denn eine Liste welche Spiele DLSS (2.0?) unterstützen?
 
DarkerThanBlack schrieb:
Ein Feature welches Grafikfehler produziert hat keine als zu lange Lebensdauer.

Nein, das ist die Zukunft, die Grafikfehler (ich habe die in Youngblood beim Hauptquartier interessantwerweise nicht) die hier und da passieren, sind in der Summe gegenüber der Qualität und Leistung minimal und werden noch gefixed. Das Feature wird mit DirectML einen Konkurrenten bekommen und in Zukunft alles was es vorher gab ablösen.
 
  • Gefällt mir
Reaktionen: Iconoclast, Highskilled, fullnewb und 2 andere
Dass es leicht unschärfer ist als ohne halte ich für verkraftbar, solange es besser aussieht als die native niedrigere Auflösung. Und von den Grafikfehlern abgesehen seh ich da durchaus Verbesserungen und vor allem großes Potential für die Zukunft. Wenn ein menschliches Hirn ein niedrig-aufgelöstes Bild (in Gedanken) scharf auf eine beliebige Größe extrapolieren kann, dann werden Maschinen das irgendwann zumindest näherungsweise auch können.
 
  • Gefällt mir
Reaktionen: Tobi86
Immortal Ghost schrieb:
Hier kann man gut an den Schläuchen starke Unschärfe bei aktiven DLSS erkennen

Verstehe nicht wie man da von einem Schärferen Bild mit DLSS als Nativ sprechen kann...

Vielleicht würdest du es verstehen, wenn du den Text wirklich lesen würdest, statt hier den 7ten empörten Post zu schreiben, dass das alles voll verwaschen aussieht ...
 
  • Gefällt mir
Reaktionen: Xidus
Tolle Sache.
Aber solange meine 1080ti nicht unterstützt wird und der Performanceschub durch die 2080 so klein bleibt/der Preis der 2080ti so abgehoben ist, werde ich ohne DLSS weiter spielen...
 
  • Gefällt mir
Reaktionen: fullnewb, ChrisM und Floppes
Steht und fällt für mich mit der Verbreitung. V2.0 ist definitiv ein deutlicher Schritt nach vorne. Danke für den Bericht/Test!
 
Wenn die Tensor Cores jetzt so "richtig" gebraucht werden, gibt es da schon eine Messung der Leistungsaufnahme als Vergleich mit und ohne DLSS2?
Und wenn das Gnaze dazu dient die Daten zu sammeln und die dann zur Verfügung zu stellen, werden die Daten auch die GTX Karten verarbeiten und darstellen können? Die sollen ja nicht rechnen, nur darstellen.
 
ZeroStrat schrieb:
Da ging aber einiges schief glaube ich als die Pics gemacht wurden. DLSS 2.0 bringt nicht so viel Unschärfe rein ins Bild. Ich hab's ja selbst schon geteset. Stimmt was mit der Karte oder dem Treiber nicht?
Wer weiss- Hab gestern das Spiel erst fertig gezockt. Sowas wär mir auch nicht aufgefallen- Und ich hab doch öfter hin- und hergeswitcht.
Deliver us the moon hat auch erst vor ein par Tagen nen Patch bekommen, wo nochmal am RT und anderen Dingen gedreht worden ist. Vielleicht hat sich auch da ein Fehler eingeschlichen.

Das hier kann schlichtweg nur ein Bug sein:
Nativ
1588682887907.png


DLSS Performance
1588682933181.png


Da fehlen ja die Hälfte der Texturen...

Der Screen von fox40phil zeigt DLSS, wenn sich die interne Renderauflösung über oder zu nah am nativen Ausgabebild bewegt.
Das Phänomen kenne ich, wenn man an den Grafikeinstellungen rumspielt und die Software bei einem Reset nicht automatisch die interne Renderauflösung überprüft bzw. angleicht oder "weitergibt".

Das hat aber wiederum mit DLSS2.0 nichts zu tun, sondern mit Mangel an Sorgfalt bei der Integration im Optionsmenü.

LG
Zero
 
Zuletzt bearbeitet:
NikoNet schrieb:
Wenn die Tensor Cores jetzt so "richtig" gebraucht werden, gibt es da schon eine Messung der Leistungsaufnahme als Vergleich mit und ohne DLSS2?
Da die Nvidia Karten(und die neueren AMD Karte) alle im Powerlimit hängen, werden die nicht mehr verbrauchen können.
 
KlaraElfer schrieb:
Nein, das ist die Zukunft, die Grafikfehler (ich habe die in Youngblood beim Hauptquartier interessantwerweise nicht) die hier und da passieren, sind in der Summe gegenüber der Qualität und Leistung minimal und werden noch gefixed. Das Feature wird mit DirectML einen Konkurrenten bekommen und in Zukunft alles was es vorher gab ablösen.
Genau. In Zukunft. Also in ca. 2-3 Jahren...für jetzige Grafikkarten-Käufe also noch nicht interessant.

Aktuell sind es, nüchtern betrachtet, nur 3 Spiele, die DLSS 2.0-Support aufweisen. Und zwei davon sogar mit Fehlern.
 
  • Gefällt mir
Reaktionen: Thraker
Trefoil80 schrieb:
Genau. In Zukunft. Also in ca. 2-3 Jahren...für jetzige Grafikkarten-Käufe also noch nicht interessant.
Weiß nicht recht....jetzt eine RTX 2000er Karte zu kaufen ist eventuell nicht super schlau, weil noch nicht klar ist, wie es mit RT weitergeht...ob AMD da gleichwertig einsteigt, oder nur stiefmütterlich unterstützt, um das Feature "abzuhaken".
Das kann einen massiven Einfluss auf die Verbreitung von RT in den nächsten 1-2 Jahren haben und wenn Nvidia da mit DLSS spielbare FPS erreicht und AMD nicht, ist das durchaus interessant für einen Kauf in diesem Jahr.

Nur würde ich da noch auf ende 2020 warten, bis Nvidia und AMD ihre neuen Karte gebracht haben.
Ich habe ziemlich die Hoffnung für AMD GPUs verloren, aber ich lasse mich gerne vom Gegenteil überzeugen.
 
  • Gefällt mir
Reaktionen: Tobi86, tidus1979 und fox40phil
  • Gefällt mir
Reaktionen: fullnewb und USB-Kabeljau
ZeroStrat schrieb:
@ZeroZerp @Wolfgang
Da ging aber einiges schief, glaube ich, als die Pics gemacht wurden. DLSS 2.0 bringt nicht so viel Unschärfe rein ins Bild. Ich hab's ja selbst schon getestet. Stimmt was mit der Karte oder dem Treiber nicht?
So sind's ja absolute Negativbeispiele. Um Jottes Willen... ^^

In Deliver Us To The Moon schwankt die Qualität von DLSS extrem. Das war auch der Grund, warum ich den Shot von mit den Schläuchen reingenommen hab, denn da sieht es nicht gut aus. Im anderen Shot (und noch einem dritten den ich gemacht habe) sieht man dagegen keine Unterschiede zwischen Nativ und DLSS. Ich kann mir nicht vorstellen, dass das ein Bug gewesen sein soll. Wüsste zumindest nicht wieso.

Baal Netbeck schrieb:
@Wolfgang
Da stellt sich schon die Frage, was das für zukünftige GPU Benchmarks bedeutet.
Sofern die Qualität vergleichbar ist, könnte man argumentieren, dass die Nvidia Karten im Vergleich zu AMD mit aktiviertem DLSS 2.0 Quality getestet werden.

Ich denke es ist noch etwas früh dafür, da die Qualität noch immer etwas schlechter zu sein scheint....aber die Nvidia Fans bei DigitalFoundry gehen ja eher soweit zu sagen, die Qualität wäre besser als nativ.

Bei den klassischen Benchmarks werden wir DLSS 2.0 zuerst noch ignorieren. Bei Launch-Artikeln (zum Beispiel von Ampere oder wie auch immer die Gaming-GPU heißen wird) wird DLSS natürlich eine Rolle spielen, das dann aber nur in Sondertests.

Wenn sich DLSS weiterentwickelt, "gleichmäßiger in Spielen" wird oder es eine vergleichbare Konkurrenztechnologie gibt, kann sich das durchaus ändern. So weit sind wir aber noch nicht.

NighteeeeeY schrieb:
Wo finde ich denn eine Liste welche Spiele DLSS (2.0?) unterstützen?
Abseits der drei aktuell Minecraft und Mechwarrior 5.
NikoNet schrieb:
Wenn die Tensor Cores jetzt so "richtig" gebraucht werden, gibt es da schon eine Messung der Leistungsaufnahme als Vergleich mit und ohne DLSS2?
Und wenn das Gnaze dazu dient die Daten zu sammeln und die dann zur Verfügung zu stellen, werden die Daten auch die GTX Karten verarbeiten und darstellen können? Die sollen ja nicht rechnen, nur darstellen.
Die Leistungsaufnahme ist immer gleich, da die Karte ja ein Power-Limit hat, was sich mit oder ohne Tensor Cores nicht verändert.
 
  • Gefällt mir
Reaktionen: electronish, Bhaal3010, Hardware_Hoshi und 8 andere
DarkerThanBlack schrieb:
Wie gesagt. Ich brauche kein Feature, welches die Texturen verwischt und Grafikfehler produziert und das erst eingereift werden muss...
Da spiele ich einfach auf nativ und gut.

Grafikfehler sind natürlich Mist, aber ein kaum bis nicht wahrnehmbarer Qualitätsverlust für 50-90% mehr fps, ja das würde ich DEFINITIV nehmen. Das heißt, wenn es irgendwann mal in der Breite verfügbar ist.

Irgendwann mal, vielleicht.
 
  • Gefällt mir
Reaktionen: fullnewb
Zurück
Oben