Test Nvidia Turing: DLSS 2.0 zeigt endlich, was möglich ist

Wolfgang schrieb:
Das neuronale Netzwerk dazu, also die eigentliche "Magie" hat derzeit, zumindest offiziell, aber nur Nvidia.

Das ist aber enttäuschend, DirectML wurde schon vor über 1 Jahr vorgestellt - ich hätte gedacht da wäre man schon wesentlich weiter.
 
... Und welche spiele werden nun unterstützt? Die 3 oder gibt's schon mehr? Was soll alles kommen?
 
KlaraElfer schrieb:
Das ist aber enttäuschend, DirectML wurde schon vor über 1 Jahr vorgestellt - ich hätte gedacht da wäre man schon wesentlich weiter.
Vielleicht ist man das ja auch, offiziell ist da aber nichts.
Aktuell macht es ja auch keinen Sinn. Bei AMD bietet sich da natürlich RDNA2 an und dann die Next-Gen-Konsolen. Und das kommt ja alles noch. Wenn die RDNA2 Karten dieses Jahr kommen und diesbezüglich es nichts zu hören gibt, sieht es bezüglich KI-Upsampling wohl schlecht aus.
 
Xippe schrieb:
MMn wird das für die relevanten Spiele wohl nicht im entsprechenden Test erscheinen, das wird wohl den Umfang ziemlich aufblähen. Da das Feature auch (bisher) nur ein Hersteller unterstützt, hat das mit dem Leistungsvergleich beider Hersteller/Karten an sich auch nicht viel zu tun.
Hat Wolfgang ja schon drauf geantwortet...sie wollen es erstmal nur als Sondertests für entsprechende Spiele oder GPU Neuerscheinungen testen.

Ansonsten sehe ich kein Problem darin, es in einem Vergleich mit AMD zu benutzen...auch wenn AMD es nicht unterstützt.
Gesetzt den Fall, es gäbe wirklich keine Qualitätsverluste aber deutlich bessere Leistung, dann wäre es die empfohlene Option es zu aktivieren.....da läuft Nvidia den AMD GPUs natürlich davon, und es wird ein großer Streitpunkt, wo und wie die Qualität nicht doch anders ist.....aber rein logisch hat Nvidia dann in den unterstützten Spielen das bessere Produkt.

Bei RT sehe ich es noch etwas anders, denn da ist ja auch die Optik eine andere....nicht jeder findet das so geil, dass er meint das haben zu müssen....da dann Vergleiche ohne RTX zu machen sollte klar sein....aber DLSS...zumindest für 4K wäre zu überlegen.

Aber vermutlich erst mit DLSS 2.5 oder so.....es gibt schon einige komische Leute...Wie TheGoodOldGamer auf Youtube, die meinen wir haben bald so gutes DLSS, dass wir unseren 4K Monitor mit 720p Pixeln füttern können und das Bild wird besser als nativ.
 
Wolfgang schrieb:
Meine Aussage ging natürlich davon aus, dass die Framerate nicht limitiert wird (Limiter oder V-Sync) und die GPU ins maximale Power Limit läuft (was bei quasi jeder GeForce passiert). Gilt eines von beiden Faktoren nicht, ändert sich natürlich auch am GPU-Takt nichts oder entsprechend weniger.
Absolut.
DLSS hat also ggf. den von mir erwähnten weiteren Pluspunkt auf der Habenseite.
DLSS 3.0 darf gerne kommen. Und wenn die Gerüchte stimmen, wird sich die RT-Leistung ca. verdoppeln,
was bzgl. deines Tests ein noch größeres Leistungsplus bei aktiviertem DLSS bedeuten würde
nebst einer möglichen Stromersparnis. Super!
 
nagus schrieb:
ja logisch wenn ichs in eine niedrigeren auflösung rendere, dass es dann schneller ist

Du hast den Punkt des Upscalings aber geschickt übersprungen ... Es handelt sich hierbei um einen Kompromiss. 4k DLSS sieht bedeutend besser aus als 1080p, ist dabei nur unbedeutend langsamer als 1080p nativ und sieht nur unbedeutend schlechter aus als 4k nativ.
 
  • Gefällt mir
Reaktionen: pietcux, Col.Maybourne und panzercrak
Das ist schon ziemlich beeindruckend, finde ich.
 
  • Gefällt mir
Reaktionen: panzercrak, hahaqp und Ex3cuter
Ich finde es ein sehr interessantes Feature ! Klar, noch ist Luft nach oben.
Unterschiede sind auch zu erkennen, aber wie ich finde auf akzeptablen Niveau.
Besonders Für Karten die im allgemeinen zu "schwach auf der Brust" sind.
Wie z.B. dass damit eine 2060 somit an die FPS´s einer 2080 Ti (native) ran kommt.
Daumen hoch und weiter am Ball bleiben … :-)

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Andybmf, Esenel, KlaraElfer und eine weitere Person
MrNejo schrieb:
In einigen Szenarien hat man allerdings >50FPS anstatt ~25 und das ist dann eben ein Einsatzbereich für DLSS, vor allem im Zusammenspiel mit Raytracing.

Allgemein sehr beeindruckende Ergebnisse und eine Technologie mit einer Menge Potential.


Man muss halt aufpassen, dass nicht mehr oder weniger das selbe Bild 2mal ausgegeben wird, welches mittels KI ausreichend verändert wurde, um nicht identisch zum ersten Bild zu sein aber trotzdem nicht ein neu berechnetes ist.

Klingt kompliziert, ist es auch.

mfg
 
Onkel Föhn schrieb:
Wie z.B. dass damit eine 2060 somit an die FPS´s einer 2080 Ti (native) ran kommt.
Darum gehts doch- Du kannst die Einstiegskarte in diesem Segment mit dieser Funktion auf Champions League- Niveau hieven.

LG
Zero
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Sehr schöner Test, danke dafür.
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
DLSS2.0 ist aber dagegen ein "passives" Feature. Sowas wie der TAA Schalter, den Du aktivierst oder eben nicht. Das ist in meinen Augen schwer vergleichbar.
Wenn die Option da ist und ich dafür nichts tun muss als am Ende beim Kompilieren eine Checkbox für "bau mir DLSS2.0 ein" auswählen musst, dann sollte das eine nicht allzu große Hürde darstellen.
Du hast natürlich recht, dass RT ein anderer Aufwand als DLSS ist, ich habe es eher stellvertretend als Feature genannt, was vor kurzem auch den Weg in die UE4 gefunden hat.

Und falls DLSS wirklich nur eine Checkbox ist, die man anschalten muss und das dann einmal kompilieren, dann stimme ich mit die überein. Dann wird DLSS ratz fatz den Weg in jedes UE4-Spiel finden. Meine Erfahrung (nicht als Entwickler, als Redakteur darüber) hat mir aber gelehrt, das sowas eigentlich nie so einfach ist. Mir haben alle möglichen Hardware-Entwickler (im Endeffekt AMD und Nvidia) schon bei zig sagen immer wieder erzählt, wie einfach das für Entwickler ist und das das neue Feature bald überall genutzt wird. Und dann war es oft wenige Jahre später tot, weil es keiner genutzt hat. Und spricht man dann mal mit Spiele-Entwicklern, schlackern die bei so aussagen (wie einfach es ist) meist mit den Ohren und erzählen dann, dass der Kram alles andere als Trivial ist.

Ich will damit nicht sagen, dass DLSS 2.0 vielleicht wirklich super einfach zu integrieren ist. Ich bin bei sowas nur verdammt vorsichtig geworden.
 
  • Gefällt mir
Reaktionen: Che-Tah, [wege]mini und Otsy
Es passiert jetzt langsam, was ich schon vorher vermutete. Die weitere Evolution der Software wirkt sich auf die Effizienz von RT aus, wodurch dieses auch auf schwächeren Karten möglich wird. 1,5 Jahre Vorlaufzeit sind normal.

Entscheidend aus Sicht von nVidia wird sein, das sie sich als absoluter Technologieführer positioniert haben. AMD muss bei zukünftigen Eigenentwicklungen stark aufpassen, keine nVidia Patente zu verletzen. Sie kommen zu Spät, um hier noch eigene Trends/Standards zu setzen.

Wolfgang schrieb:
[...]Ich will damit nicht sagen, dass DLSS 2.0 vielleicht wirklich super einfach zu integrieren ist. Ich bin bei sowas nur verdammt vorsichtig geworden.
Sollte man auch sein. Ich sehe hier aber weniger die Game-Industrie als maßgeblich an, sondern den Support von nVida für DLSS. Wenn sie ihr Versprechen halten und es verlässlich planbar weiter entwickeln, wird es auch größere Verbreitung finden.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Ex3cuter
Etwas schlechtere Bildqualität dafür mehr fps.. klingt für mich wie: Regler von "Ultra" auf "sehr hoch" stellen. Die Qualitätseinstellungen haben auch häufig nur minimalen visuellen Unterschied aber einen großen Einfluss auf die FPS. Bin gespannt wie die Fraktion "Alles immer auf maximalen Anschlag stellen" damit umgeht.

Wenn damit aber Dinge wie weiche Schatten, RayTracing und temporales AA ohne übertriebenen Blur flüssig laufen - gerne.

Ich meine mich erinnern zu können, dass beim Test zwischen DLSS und niedrige-Auflösung-upscaling + RIS damals sogar AMD die Nase in FPS UND Qualität vorne hatte.

PS: Als side note würde ich es mal wieder toll finden, wenn das feature bisher wirklich nur Shader benutzt hat und trotzdem nur auf Turing freigeschaltet war... von wegen Tensor cores werden benötigt...
 
Da freue ich mich echt drauf, wenn ich meine GTX 1080 durch eine RTX 3080 ersetzen kann!
 
Draguspy schrieb:
AMD muss bei zukünftigen Eigenentwicklungen stark aufpassen, keine nVidia Patente zu verletzen. Sie kommen zu Spät, um hier noch eigene Trends zu setzen.
Seh ich nicht ganz so kritisch.
Derzeit läuft es so dass nVidia etwas eigenes bastelt, Microsoft eine allgemeine Schnittstelle für das Ergebnis und nicht die Technologie bereit stellt und in DirectX einbaut und damit für AMD die Tür offen hält, damit man den Abstand mit eigenen Lösungen zur Erzeugung des Ergebnisses theoretisch aufholen kann. Damit will man bestimmt auch sicherstellen, dass die Spielekonsolen weiterhin preisoptimiert entwickelt werden können und nicht danach, wer gerade die cooleren Features in die Grafikchips einbaut.

Erst wenn nVidia etwas präsentiert, was sich nicht auch anders erzeugen lässt, wird es wirklich haarig.
 
Zurück
Oben