Test Nvidia Turing: DLSS 2.0 zeigt endlich, was möglich ist

ZeroZerp schrieb:
Na daran solls ja nicht scheitern- Wurde bereits in UE 4 eingearbeitet und stünde damit ab jetzt jedem UE 4 Titel zur Verfügung:
https://forums.unrealengine.com/development-discussion/rendering/1742771-nvidia-dlss-2-0-ue4-branch
LG
Zero
Raytracing auch, und damit wird jetzt trotzdem nicht jedes Spiel geflutet.
Was ich damit sagen will: Die Erfahrung hat immer wieder gezeigt, nur weil etwas in Engines integriert ist, ist es längst nicht immer "einfach so" nutzbar. Und da würde ich auch bei DLSS mal abwarten, ob das wirklich so einfach ist. Bei Raytracing ist es ja schonmal nicht der Fall.
 
  • Gefällt mir
Reaktionen: Acedia23, yummycandy, Otsy und 3 andere
Ist das Feature nur für feste also vordefinierte Auflösungen wie FullHD & UHD? oder kann ich das auch bei 5k, 5k2k oder 3800x1600 usw. nutzen?!

Edit: Wolfgang hat mittlerweile geschrieben, dass bei alle Auflösungen nutzbar ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eusterw und menace_one
Trefoil80 schrieb:
Genau. In Zukunft. Also in ca. 2-3 Jahren...für jetzige Grafikkarten-Käufe also noch nicht interessant.

Glaube ich weniger. Da mit DirectML auch ein einziges neuronales Netz für alle Spiele zur Verfügung stehen wird, wird die Integration immer einfacher. Früher oder später lässt es sich wohl einfach im Treiber aktivieren und bietet dann je nachdem welche Stufe eingestellt wird 50% oder mehr Leistung bei subjektiv gleicher Bildqualität.
 
  • Gefällt mir
Reaktionen: fullnewb
Baal Netbeck schrieb:
Da die Nvidia Karten(und die neueren AMD Karte) alle im Powerlimit hängen, werden die nicht mehr verbrauchen können.

fragen wir mal weiter, wenn die cores aktiv sind und mehr verbrauchen, wird dann der Takt reduziert was die ganze Sache relativieren würde... wurde da im Test ev. mal ein Auge drauf geworfen @Wolfgang ?
 
Schokolade schrieb:
Ich hoffe sie bleiben bei der Technologie und merzen die noch vorhandenen Probleme aus. Weil das Potenzial ist wirklich da, gerade im Bezug auf die gewonnenen Leistungsreserven.
Ich hoffe das nicht. Ich hoffe, dass diese Technik in einigen Generationen obsolet wird, weil die Karten dann genug Rohleistung haben.
 
Mit Raytracing und DLSS müssen diese Tensorcores einiges leisten. Schaffen die das einfach so?
Balikon schrieb:
Ich hoffe das nicht. Ich hoffe, dass diese Technik in einigen Generationen obsolet wird, weil die Karten dann genug Rohleistung haben.

Rohleistung wofür? Die Ansprüche steigen doch immer. Raytracing wird doch auch nur in einem kleinen Spektrum genutzt.
 
  • Gefällt mir
Reaktionen: fullnewb
@ZeroZerp Kannst du mal bitte schauen, ob die Unschärfe bei den Schläuchen auch auf deinem Sys auftaucht?
 
Eusterw schrieb:
Da DLSS 2.0 die Bildqualität verbessert und gleichzeitig die FPS steigert, empfinde ich es als fair, das Feature zukünftig bei allen Grafikkarten Tests zu aktivieren.

Denn wenn ich z.B. von einer GTX1080 auf eine GRX2080 upgrade, will ich ja nicht wissen, wieviele FPS ich bei „technisch gleicher“ Berechnung bekomme, sondern ich möchte wissen, wie viele FPS ich bei „optisch gleicher“ Grafik bekomme.

Meine Bitte also: Wenn DLSS 2.0 Quality verfügbar ist, immer damit benchmarken.

blödsinn
 
  • Gefällt mir
Reaktionen: Acedia23, Ko3nich, foxio und eine weitere Person
Also für mich als eine Person, die am 4K-Fernseher spielt, klingt das für mich wie ein wirklich spannendes Feature. Theoretisch ist DirectML, als allgemeiner Machine Learning Algorithmus für alle Grafikkarten, schon für jede DirectX 12 Karte verfügbar und könnte die Langlebigkeit der Grafikkarten in meinem Nutzungsszenario und auch auf den neuen Spielekonsolen sehr erhöhen. Eigentlich ist das für die Hersteller ja nicht so knorke, für die Kunden schon :D

Ich erwarte mit Spannung die nächste Grafikkartengeneration 👌
 
  • Gefällt mir
Reaktionen: fullnewb und milliardo
Baal Netbeck schrieb:
Wie werdet ihr damit umgehen?
Beides testen, oder DLSS ignorieren?

MMn wird das für die relevanten Spiele wohl nicht im entsprechenden Test erscheinen, das wird wohl den Umfang ziemlich aufblähen. Da das Feature auch (bisher) nur ein Hersteller unterstützt, hat das mit dem Leistungsvergleich beider Hersteller/Karten an sich auch nicht viel zu tun.

Wird es vermehrt in Spielen integriert sein, denke ich wird es wohl auf einen gesammelten Test in viertel/halb/jährlicher Summe einen Sinn machen. Oder aber das Interesse der Leserschaft wird dies verstärkt wünschen (wenn ich so die Kommentare lese ist das Lager doch recht 'gespalten' ;) und wird daher noch eine ganze Weile dauern).

Wird es hingegen den Massenmarkt erreichen, was ich denke noch viele Jahre dauern wird, und beide[oder eher: alle] Hersteller entsprechend Integrieren - wird es wohl eher relevant, gerade wenn die Auflösung ≥4k beträgt und die Qualität auf gleicher Höhe mit der nativen Auflösung liegt.

- meine Meinung -
 
Zuletzt bearbeitet:
Holindarn schrieb:
fragen wir mal weiter, wenn die cores aktiv sind und mehr verbrauchen, wird dann der Takt reduziert was die ganze Sache relativieren würde.
Ich kann es dir nicht mit Gewissheit sagen, da ich kein Entwickler bin....aber so wie ich das sehe, ist DLSS ja eine Nachbearbeitung...das bedeutet, die GPU Rendert ganz normal das Bild aber jetzt eben in 1440p statt 4K.. kann dafür den normalen GPU Takt nehmen und dann läuft DLSS auf den Tensor cores und vermutlich boosten die auch so hoch wie es das PT erlaubt.....und selbst wenn nicht, ist die Bearbeitungsdauer durch die Tensor cores ja sehr kurz....sonst gäbe es nicht diese großen Leistungssteigerungen....spielt also für den Durchschnittsverbrauch kaum eine Rolle.
 
Wolfgang schrieb:
Raytracing auch, und damit wird jetzt trotzdem nicht jedes Spiel geflutet.
Was ich damit sagen will: Die Erfahrung hat immer wieder gezeigt, nur weil etwas in Engines integriert ist, ist es längst nicht immer "einfach so" nutzbar. Und da würde ich auch bei DLSS mal abwarten, ob das wirklich so einfach ist. Bei Raytracing ist es ja schonmal nicht der Fall.

Einverstanden.

Bei Raytracing musst Du in UE4 aber immerhin Deinen Workflow etwas anpassen und die Szenengestaltung etwas anders angehen. Zudem gibt es die erste offizielle Version für RTRT (kein Preview oder Beta) erst seit September.
Wenn man den Entwicklungszyklus von Spielen betrachtet, ist es klar, dass da noch keine Schwemme an Spielen kommen kann.

DLSS2.0 ist aber dagegen ein "passives" Feature. Sowas wie der TAA Schalter, den Du aktivierst oder eben nicht. Das ist in meinen Augen schwer vergleichbar.
Wenn die Option da ist und ich dafür nichts tun muss als am Ende beim Kompilieren eine Checkbox für "bau mir DLSS2.0 ein" auswählen musst, dann sollte das eine nicht allzu große Hürde darstellen.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau
@Wolfgang Nvidia schreibt hier: "Hervorragende Skalierung für alle GeForce RTX-Grafikprozessoren und -Auflösungen – ein neues, schnelleres KI-Modell arbeitet effizienter mit Tensor Cores, und führt Aufgaben doppelt so schnell wie das Original aus."
Klingt eher so als wäre die Nutzung der Tensor-Cores verbessert worden.

Es gibt ja noch dieses Bild von 2018, da sieht man auch eine Auslastung der Tensor Cores bei Nutzung von DLSS
1588684585655.png


MoinKffee schrieb:
Mit Raytracing und DLSS müssen diese Tensorcores einiges leisten. Schaffen die das einfach so?
Für Raytracing werden die Tensor-Cores derzeit nicht benutzt. RT-Cores sind etwas Anderes.
 
  • Gefällt mir
Reaktionen: pietcux und Baal Netbeck
Wolfgang schrieb:
Die Leistungsaufnahme ist immer gleich, da die Karte ja ein Power-Limit hat, was sich mit oder ohne Tensor Cores nicht verändert.
Nicht ganz, denn wenn jemand z.B. nur mit 60 FPS spielt, braucht die Graka dank DLSS nicht mehr auf 100% zu rechnen, sofern die Marke ohne VSync/Limiter übersprungen würde.
 
DLSS2 support in Games: schalte nur bei Nvidia RTX mit DLSS2 den matschfilter aus und zeichne alles bis zum geht nicht mehr scharf. herzlichen glückwunsch, problem gelösung.
 
fox40phil schrieb:
Ist das Feature nur für feste also vordefinierte Auflösungen wie FullHD & UHD funktioniert bisher? oder kann ich das auch bei 5k, 5k2k oder 3800x1600 usw. nutzen?!
DLSS 2.0 lässt sich auf jeden Fall bei quasi allen normalen/festen Auflösungen nutzen. Ich weiß zumindest nicht von einer, wo es nicht geht.
KlaraElfer schrieb:
Glaube ich weniger. Da mit DirectML auch ein einziges neuronales Netz für alle Spiele zur Verfügung stehen wird, wird die Integration immer einfacher. Früher oder später lässt es sich wohl einfach im Treiber aktivieren und bietet dann je nachdem welche Stufe eingestellt wird 50% oder mehr Leistung bei subjektiv gleicher Bildqualität.
DirectML ist aber kein neuronales Netzwerk, sondern nur eine Schnittstelle. Wenn aber zum Beispiel AMD ein neuronales Netzwerk wie DLSS aufbauen könnte, könnte man es mittels DirectML in Spielen ansprechen. Sprich, ins Spiel integrieren könnte man sowas für alle wichtigen GPUs. Das neuronale Netzwerk dazu, also die eigentliche "Magie" hat derzeit, zumindest offiziell, aber nur Nvidia.

Holindarn schrieb:
fragen wir mal weiter, wenn die cores aktiv sind und mehr verbrauchen, wird dann der Takt reduziert was die ganze Sache relativieren würde... wurde da im Test ev. mal ein Auge drauf geworfen @Wolfgang ?
Der Takt muss geringer sein in dem Umfang, wie die Tensor Cores mehr Energie benötigen. Anders geht es ja nicht, wenn du im Power Budget bleiben musst. Um ehrlich zu sein habe ich mir die Taktraten aber nicht angesehen. Das muss ich bald mal nachholen!
 
  • Gefällt mir
Reaktionen: fox40phil, pietcux, Che-Tah und 5 andere
Richtig, richtig coole Sache. Wie ist das eigentlich mit günstigeren Karten? Gt 1050 z.B? Ist DLSS2 auch da verfügbar. Gerade hier sehe ich ein großen Vorteil.

Ich glaube bisher nur die teuren karten. Aber vielleicht änderst sich das in 2 Jahren.
 
fp69 schrieb:
Nicht ganz, denn wenn jemand z.B. nur mit 60 FPS spielt, braucht die Graka dank DLSS nicht mehr auf 100% zu rechnen, sofern die Marke ohne VSync/Limiter übersprungen würde.
Meine Aussage ging natürlich davon aus, dass die Framerate nicht limitiert wird (Limiter oder V-Sync) und die GPU ins maximale Power Limit läuft (was bei quasi jeder GeForce passiert). Gilt eines von beiden Faktoren nicht, ändert sich natürlich auch am GPU-Takt nichts oder entsprechend weniger.
Ergänzung ()

crustenscharbap schrieb:
Richtig, richtig coole Sache. Wie ist das eigentlich mit günstigeren Karten? Gt 1050 z.B? Ist DLSS2 auch da verfügbar. Gerade hier sehe ich ein großen Vorteil.
DLSS funktioniert nur auf Turing-GPUs mit Tensor-Kernen, also ab der GeForce RTX 2060 aufwärts.
 
hurga_gonzales schrieb:
Sorry, aber, wenn das die tollen Unterschiede, respektive Verbesserungen sein sollen, weshalb ich mir künftig für 1500 EUR eine Grafikkarte mit NVidia-Chip kaufen soll, dann.....NEIN DANKE!

Das Feature gibt es auch bei einer Karte für 320€ und macht dort am meisten Sinn.

DarkerThanBlack schrieb:
Wie gesagt. Ich brauche kein Feature, welches die Texturen verwischt und Grafikfehler produziert und das erst eingereift werden muss...
Da spiele ich einfach auf nativ und gut.

Klar, ab 8K oder so, kann es einen Vorteil bringen. Aber ob man bei 8K wirklich noch einen Unterschied zwischen 4K erkennt?

Wieso sollte es erst in 8k einen Vorteil bringen?

ampre schrieb:
Daran glaube ich erst wenn ich es gesehn hab und auch wenn es so wäre würde mann wohl das Spiel erst releasen wenn das 1x Netz auch dieses Spiel mehrmals nachtrainiert wurde.

Dann schau dir Gigapixel an. Da muss es auch nicht für jedes Bild neu trainiert werden
 
nagus schrieb:
DLSS2 support in Games: schalte nur bei Nvidia RTX mit DLSS2 den matschfilter aus und zeichne alles bis zum geht nicht mehr scharf. herzlichen glückwunsch, problem gelösung.

Und leg noch mindestens 50% fps drauf.
 
  • Gefällt mir
Reaktionen: adAstra
Zurück
Oben