News Ada Lovelace: Nvidia DLSS 3 soll bis zu 4× mehr FPS als nativ liefern

foo_1337 schrieb:
Man braucht keine Glaskugel um zu wissen, dass das nicht eintreten wird.
Zumindest nicht von Nvidia selbst.
Mal sehen ob AMD da kontert und auch was rausbringt
 
  • Gefällt mir
Reaktionen: Lamaan und Mcr-King
Serphiel schrieb:
Am Ende schadet es Nvidia nicht wirklich. FSR läuft auch bei ihnen also haben sie "mehr" zu bieten als AMD.
Seit Generationen verarscht Nvidia die Kunden laufend mit proprietärem Zeugs, das oft auch andersweitig lösbar wäre wie man beim Mitbewerber sieht.
Natürlich nützt man als Nvidia-Besitzer diesen offenen Ansatz dann gerne wenn das neue superduper-Gimmick der eigene Hersteller einfach nicht supporten will, kostet ja nix.
Dass man vorher vielleicht noch als "sieht soviel schlechter aus als bei Nvidia" bekritelt hat.... geschenkt.
Und bei der nächsten fälligen Anschaffung wirft man dann wieder dem Jensen die Kohle hinterher.
Aber hat schon bei der GTX970 funktioniert.
Nach kurzem Mimimi, haben die Leute reihenweise die Karten vertickt und dann einfach eine 980(ti) gekauft.
Vom geschäftlichen also alles richtig gemacht bei Nvidia.
Hat schon irgendwas von Stockholm-Syndrom, nicht wahr ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lamaan
Ich bin wirklich verwirrt, diese Präsentation war im Bereich Gaming einfach nicht ausführlich genug.

Basiert 2x 3090 Ti Rasterizer Performance nun auf Spielen mit DLSS 3.0 oder wird das quasi "immer" erreicht? Auf den Folien waren eigentlich immer MSFS/Portal RTX/Racer X zu sehen, sonst nichts.
Während man bei AMD/Intel bereits nach der Präsentation die Performance grob abschätzen kann, ist es bei nvidia ein komplettes Rätsel.

Die Idee von DLSS 3.0 ist interessant und auch die Bildqualität konnte bei 2.0 bereits in vielen Fällen überzeugen, war aber leider auch stark von der Implementierung abhängig und in manchen Spielen nervt Ghosting & co. - daher hätte ich mir hier ein 4K/8K Video gewünscht, damit man zumindest eine Idee von der Bildqualität bekommt.

Die Tests zur 4090 kommen hoffentlich vor dem 12.10. und beseitigen alle Unklarheiten.
Ergänzung ()

gustlegga schrieb:
Seit Generationen verarscht Nvidia die Kunden laufend mit proprietärem Zeugs, das oft auch andersweitig lösbar wäre wie man beim Mitbewerber sieht.

Die Lösungen von nvidia sind aber teilweise besser und man kann die offenen Alternativen der Konkurrenz trotzdem nutzen. Als Kunde ist mir ein komplett offener Ansatz natürlich lieber.
Ich hatte den "Fehler" (war eine gute Zeit) gemacht mir G-Sync Monitore zu kaufen, daher war ich komplett an nvidia gebunden, dank OLED kann ich nun zum ersten Mal seit etlichen Jahren auch wieder auf AMD gespannt sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Ich halte nicht viel von DLSS um ehrlich zu sein. Wenn es so bahnbrechend ist, warum steigt dann der Stromhunger weiter und weiter? RTX allein kann ja nicht der einzige Grund sein. Dann sollen sie mit solchen Techniken die Effizienz steigern, DAS wäre Fortschritt - in meinen Augen.
 
foo_1337 schrieb:
Die Offenheit ist für den Entwickler aber egal, denn das SDK was er braucht, bekommt er inkl. sehr guter Doku. Dazu kommt, dass es mittlerweile in den gängigsten Engines quasi one-click aktiviert werden kann.

FSR 2.0 muss übrigens auch aktiv implementiert werden.
Quasi 1 Click entspricht aber nicht den Tatsachen, etwas mehr muss hier schon getan werden Dev seitig und der Implementierungsaufwand von FSR 2.0/2.1 ist deutlich weniger Zeitintensiv. Wir reden hier von 1 bis 2 Woche Ersparnis gegen DLSS je nach Engine. Auf GpuOpen ist die FSR Dokumentation verfügbar genauso wie das SDK, hier gibt es keine Nachteile. Zudem ist der Support von Nvidia zu DLSS für die meisten Entwickler kostenpflichtig und nicht umsonst.
 
  • Gefällt mir
Reaktionen: Hito360
servare schrieb:
Ich halte nicht viel von DLSS um ehrlich zu sein. Wenn es so bahnbrechend ist, warum steigt dann der Stromhunger weiter und weiter? RTX allein kann ja nicht der einzige Grund sein. Dann sollen sie mit solchen Techniken die Effizienz steigern, DAS wäre Fortschritt - in meinen Augen.
Aber genau das macht DLSS doch? Sobald man DLSS aktiviert, sinkt der Stromverbrauch merklich und die Leistung geht spürbar hoch.

Taurus104 schrieb:
der Implementierungsaufwand von FSR 2.0/2.1 ist deutlich weniger Zeitintensiv. Wir reden hier von 1 bis 2 Woche Ersparnis gegen DLSS je nach Engine.
Nichts für ungut, ich bin selber Fan vom FSR 2, aber FSR 2 braucht quasi die gleichen Inputs wie DLSS und zusätzlich weitere Infos vom Spiel (Field of View usw.). Da wird sich auch der Implementierungsaufwand nicht unterscheiden.

DLSS 3 klingt insgesamt ganz spannend, insbesondere weil man das CPU Limit etwas aushebeln kann. Auch wenn der Inputlag nicht sinken sollte, dürfte der Bereich so von 40 bis 80 fps, indem gerade in Singleplayer Games der Inputlag klar geht, gut davon profitieren.

Mal sehen wie die Bildqualität so wird.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Joah..bei den jetzt aufgerufenen Preisen der neuen Generation braucht man DLSS 3.0 dann auch um etwas zocken zu können. :evillol:
 
  • Gefällt mir
Reaktionen: Mcr-King
servare schrieb:
Ich halte nicht viel von DLSS um ehrlich zu sein. Wenn es so bahnbrechend ist, warum steigt dann der Stromhunger weiter und weiter? RTX allein kann ja nicht der einzige Grund sein. Dann sollen sie mit solchen Techniken die Effizienz steigern, DAS wäre Fortschritt - in meinen Augen.
Die Leistung steigt weil grundperformance auch steigt, nicht nur RT. Und mit jedem Upscaling kannst du Strom sparen. Egal ob Dlss/FSR/NiS/RSR…Du brauchst nur dein Fps Limit setzen und fertig . Dlss verbraucht ja nicht mehr Energie als ohne Dlss.es steigert fps bei gleicher stromaufnahme. Nur Dlss/FSR2 sind in der Bildqualität nunmal auch m ein Vielfaches besser als die anderen Methoden. Die Frage liegt hier einfach in deinem Anspruch der Qualität des Bildes.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Pain_Deluxe schrieb:
€: Mittlerweile haben Mitarbeiter von NV geschrieben das 2.0 Weiterhin unterstützt wird wenn 3.0 Implementiert ist
Die Fragen die dann aber noch bleibt ist, ob dadurch ein noch höherer Entwicklungsaufwand betrieben werden muss. Entweder nVidia hängt durch die Implementierung von 3.0 gleich noch 2.0 irgendwie softwaretechnisch an, oder die Implementierungsregeln schreiben einen entsprechenden Mehraufwand vor um Rückwärtskompatibel zu sein. Das wäre interessant zu wissen. Aber trotzdem ist diese proprietäre Lösung nicht wirklich gut. Das bringt die Industrie einfach nicht voran. Man stelle sich nur mal geschlossene Grafik-APIs vor (kein OpenGL, kein Vulkan)...absoluter Horror.
 
Schöne Sache das die Technik fortschreitet und es nicht nur um immer mehr Takt geht.
Dann kann ich die bisher verpasseten Spiele (Witcher 3/Cyberpunk) in max Qualität in 4K spielen im Winter...
 
Gut viele Versprechungen aber es muss noch bewiesen werden. Vor allem was soll es bringen wenn die genannten werte dann nur im Ultra Performance Modus kommen wo die Bildqualität ohnehin eine Katastrophe ist. Ich nutze DLSS und FSR auch wo es notwendig ist, aber immer im höchsten Qualitätsmodus. Das funktioniert sehr gut, der Rest ist nichts für mich. Da leide die Qualität enorm und dafür habe ich dann keine Grafikkarte im vierstelligen Euro Bereich.
 
foo_1337 schrieb:
Wenn du nicht 8k oder mehr ausgibst, ist alles fake
Ich denke ein Entwickler denkt sich in den meisten Fällen was dabei wie er sein Spiel optisch wirken lassen möchte. Dann kommt Nvidia daher und skaliert mit AI am Spiel rauf und runter und generiert seine eigene Optik. Das macht den ganzen künstlerischen Ansatz kaputt meiner Ansicht nach...
 
  • Gefällt mir
Reaktionen: Ray Donovan
Das glaube ich nie im Leben, dass diese "Zwischenbilder Generierung" nicht auch weniger Hardware spezifisch umsetzen kann und auch auf älteren Tensorcores laufen könnte. Vielleicht etwas langsamer, weniger FPS, aber möglich. Für mich die bisher größte Kundenverarschung von NVidia bisher. Wie offensichtlich sie künstliche Schranken einbauen, um noch mehr exklusive Features zu verkaufen, ist echt übel. Kein NVidia mehr für mich. Leider interessiert es die breite Masse nicht und kauft fleißig weiter alle 2 Jahre neu zu Mondpreisen.
 
  • Gefällt mir
Reaktionen: Ray Donovan, Ardadamarda, Gigalodon und eine weitere Person
Haldi schrieb:
Also gibt es endlich Frame Interpolation.
Eigentlich hab ich sowas erwartet bevor DLSS kam.
Bei Fernseher gibt's sowas ja bereits seit Jahren.
Man nehme Bild 1 und Bild 2 und Berechne Daraus Bild 1.5 oder sogar Bild 1.33 und 1.66
Problem daran war halt bisher immer man Benötigt das vorher Nacher Bild halt also eine Zusätzliche Latenz der FPS+Bearbeitungszeit.

Nun mit nVidias Ansatz haben wir nur noch die Latenz der Bearbeitungszeit die dazu kommt.
Allerdings haben wir ein FakeBild.
Es hilft nur zur flüssigen Darstellung der Bildwiedergabe, sämtliche Inputs die in dieser Zeit gemacht werden, werden nicht registriert.

Nicht das jetzt irgend jemand einen competitive Shooter in 25fps Zocke wollen würde der mit DLSS3.0 dann 100fps bekommt...

Aber eigentlich wäre diese Technologie viel interessanter für Laptops welche bis 75W oder 150W TDP limitiert sind und daher nicht mehr Leisten können.

Haldi bringt die Sache hier schön auf den Punkt. Man erhöht zwar die Framerate erkauft sich das aber durch mindestens drei Nachteile:
  • Interpolationsartefakte
  • Prinzipbedingt keine Berücksichtigung von Nutzereingaben (Keyboard, Maus, Controller)
  • Am wichtigsten: Eine zusätzliche Latenz um mindestens die Hälfte der inversen ursprünglichen Framerate!

Das heißt man erhöht zwar die Framerate aber das Spiel steuert sich träger und die End-to-End Latenz (Eingabe -> Bildschirmausgabe) nimmt zu.

Erklärung: Spiel läuft nativ mit 50 fps. Sagen wir es wird jeweils ein Zwischenbild berechnet um auf 100 fps zu kommen.
Ohne DLSS 3.0: Bild 1 gerendert -> Ausgabe. 20ms warten. Bild 2 gerendert -> Ausgabe. 20 ms warten.
Mit DLSS 3.0: Bild 1 gerendert. Speichern. Bild 2 kommt. Zwischenbild 1.5 Berechnen. Bild 1 nach 40ms Ausgeben, Zwischenbild 1.5 10 ms nach Bild 1 ausgeben. Bild 2 10 ms nach 1.5 ausgeben.

Also mal sehen wie viel das tatsächlich bringt
 
  • Gefällt mir
Reaktionen: Lamaan und Ray Donovan
Killerattacks schrieb:
Mit DLSS 3.0: Bild 1 gerendert. Speichern. Bild 2 kommt. Zwischenbild 1.5 Berechnen.
Ich gehe eher davon aus, dass extrapoliert wird. D.h. aus den Bewegungsvektoren und Bild 1 wird Bild 1.5 berechnet ohne auf Bild 2 zu warten.
 
  • Gefällt mir
Reaktionen: Kuestennebel79, ComputerJunge, 54698uij0 und eine weitere Person
Ich sehe gerade erst, dass DLSS 3.0 auf RTX4000 beschränkt ist. lol. Typisch NV halt - unter den Scheißunternehmen der König xF
 
Ist aber nicht der Fall.
DLSS 3.0 wird auch auf älteren Generationen supported aber nicht vollumfänglich.
Wurde bereits im NV Dev Forum bestätigt. Könnte man auch gerne mal die News Updaten und erläutern was auf welche Karte läuft.
 
Taurus104 schrieb:
Quasi 1 Click entspricht aber nicht den Tatsachen, etwas mehr muss hier schon getan werden Dev seitig und der Implementierungsaufwand von FSR 2.0/2.1 ist deutlich weniger Zeitintensiv. Wir reden hier von 1 bis 2 Woche Ersparnis gegen DLSS je nach Engine.
Erstelle ein Unity Projekt und implementiere jeweils DLSS und FSR2. Dann wirst du erkennen, was ich meine. Spoiler: du wirst für DLSS keinen Tag brauchen.
 
  • Gefällt mir
Reaktionen: ThomasK_7
Zurück
Oben