F
foo_1337
Gast
Man braucht keine Glaskugel um zu wissen, dass das nicht eintreten wird.Hito360 schrieb:und in 6monaten geht dlss3 auch auf 3060
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Man braucht keine Glaskugel um zu wissen, dass das nicht eintreten wird.Hito360 schrieb:und in 6monaten geht dlss3 auch auf 3060
Zumindest nicht von Nvidia selbst.foo_1337 schrieb:Man braucht keine Glaskugel um zu wissen, dass das nicht eintreten wird.
Seit Generationen verarscht Nvidia die Kunden laufend mit proprietärem Zeugs, das oft auch andersweitig lösbar wäre wie man beim Mitbewerber sieht.Serphiel schrieb:Am Ende schadet es Nvidia nicht wirklich. FSR läuft auch bei ihnen also haben sie "mehr" zu bieten als AMD.
gustlegga schrieb:Seit Generationen verarscht Nvidia die Kunden laufend mit proprietärem Zeugs, das oft auch andersweitig lösbar wäre wie man beim Mitbewerber sieht.
Quasi 1 Click entspricht aber nicht den Tatsachen, etwas mehr muss hier schon getan werden Dev seitig und der Implementierungsaufwand von FSR 2.0/2.1 ist deutlich weniger Zeitintensiv. Wir reden hier von 1 bis 2 Woche Ersparnis gegen DLSS je nach Engine. Auf GpuOpen ist die FSR Dokumentation verfügbar genauso wie das SDK, hier gibt es keine Nachteile. Zudem ist der Support von Nvidia zu DLSS für die meisten Entwickler kostenpflichtig und nicht umsonst.foo_1337 schrieb:Die Offenheit ist für den Entwickler aber egal, denn das SDK was er braucht, bekommt er inkl. sehr guter Doku. Dazu kommt, dass es mittlerweile in den gängigsten Engines quasi one-click aktiviert werden kann.
FSR 2.0 muss übrigens auch aktiv implementiert werden.
Aber genau das macht DLSS doch? Sobald man DLSS aktiviert, sinkt der Stromverbrauch merklich und die Leistung geht spürbar hoch.servare schrieb:Ich halte nicht viel von DLSS um ehrlich zu sein. Wenn es so bahnbrechend ist, warum steigt dann der Stromhunger weiter und weiter? RTX allein kann ja nicht der einzige Grund sein. Dann sollen sie mit solchen Techniken die Effizienz steigern, DAS wäre Fortschritt - in meinen Augen.
Nichts für ungut, ich bin selber Fan vom FSR 2, aber FSR 2 braucht quasi die gleichen Inputs wie DLSS und zusätzlich weitere Infos vom Spiel (Field of View usw.). Da wird sich auch der Implementierungsaufwand nicht unterscheiden.Taurus104 schrieb:der Implementierungsaufwand von FSR 2.0/2.1 ist deutlich weniger Zeitintensiv. Wir reden hier von 1 bis 2 Woche Ersparnis gegen DLSS je nach Engine.
Die Leistung steigt weil grundperformance auch steigt, nicht nur RT. Und mit jedem Upscaling kannst du Strom sparen. Egal ob Dlss/FSR/NiS/RSR…Du brauchst nur dein Fps Limit setzen und fertig . Dlss verbraucht ja nicht mehr Energie als ohne Dlss.es steigert fps bei gleicher stromaufnahme. Nur Dlss/FSR2 sind in der Bildqualität nunmal auch m ein Vielfaches besser als die anderen Methoden. Die Frage liegt hier einfach in deinem Anspruch der Qualität des Bildes.servare schrieb:Ich halte nicht viel von DLSS um ehrlich zu sein. Wenn es so bahnbrechend ist, warum steigt dann der Stromhunger weiter und weiter? RTX allein kann ja nicht der einzige Grund sein. Dann sollen sie mit solchen Techniken die Effizienz steigern, DAS wäre Fortschritt - in meinen Augen.
Die Fragen die dann aber noch bleibt ist, ob dadurch ein noch höherer Entwicklungsaufwand betrieben werden muss. Entweder nVidia hängt durch die Implementierung von 3.0 gleich noch 2.0 irgendwie softwaretechnisch an, oder die Implementierungsregeln schreiben einen entsprechenden Mehraufwand vor um Rückwärtskompatibel zu sein. Das wäre interessant zu wissen. Aber trotzdem ist diese proprietäre Lösung nicht wirklich gut. Das bringt die Industrie einfach nicht voran. Man stelle sich nur mal geschlossene Grafik-APIs vor (kein OpenGL, kein Vulkan)...absoluter Horror.Pain_Deluxe schrieb:€: Mittlerweile haben Mitarbeiter von NV geschrieben das 2.0 Weiterhin unterstützt wird wenn 3.0 Implementiert ist
Ich denke ein Entwickler denkt sich in den meisten Fällen was dabei wie er sein Spiel optisch wirken lassen möchte. Dann kommt Nvidia daher und skaliert mit AI am Spiel rauf und runter und generiert seine eigene Optik. Das macht den ganzen künstlerischen Ansatz kaputt meiner Ansicht nach...foo_1337 schrieb:Wenn du nicht 8k oder mehr ausgibst, ist alles fake
Haldi schrieb:Also gibt es endlich Frame Interpolation.
Eigentlich hab ich sowas erwartet bevor DLSS kam.
Bei Fernseher gibt's sowas ja bereits seit Jahren.
Man nehme Bild 1 und Bild 2 und Berechne Daraus Bild 1.5 oder sogar Bild 1.33 und 1.66
Problem daran war halt bisher immer man Benötigt das vorher Nacher Bild halt also eine Zusätzliche Latenz der FPS+Bearbeitungszeit.
Nun mit nVidias Ansatz haben wir nur noch die Latenz der Bearbeitungszeit die dazu kommt.
Allerdings haben wir ein FakeBild.
Es hilft nur zur flüssigen Darstellung der Bildwiedergabe, sämtliche Inputs die in dieser Zeit gemacht werden, werden nicht registriert.
Nicht das jetzt irgend jemand einen competitive Shooter in 25fps Zocke wollen würde der mit DLSS3.0 dann 100fps bekommt...
Aber eigentlich wäre diese Technologie viel interessanter für Laptops welche bis 75W oder 150W TDP limitiert sind und daher nicht mehr Leisten können.
Ich gehe eher davon aus, dass extrapoliert wird. D.h. aus den Bewegungsvektoren und Bild 1 wird Bild 1.5 berechnet ohne auf Bild 2 zu warten.Killerattacks schrieb:Mit DLSS 3.0: Bild 1 gerendert. Speichern. Bild 2 kommt. Zwischenbild 1.5 Berechnen.
Erstelle ein Unity Projekt und implementiere jeweils DLSS und FSR2. Dann wirst du erkennen, was ich meine. Spoiler: du wirst für DLSS keinen Tag brauchen.Taurus104 schrieb:Quasi 1 Click entspricht aber nicht den Tatsachen, etwas mehr muss hier schon getan werden Dev seitig und der Implementierungsaufwand von FSR 2.0/2.1 ist deutlich weniger Zeitintensiv. Wir reden hier von 1 bis 2 Woche Ersparnis gegen DLSS je nach Engine.