Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia GeForce RTX: DLSS 3.5 soll Raytracing hübscher machen
Das ist quatsch. Mittlerweile ist es besser geworden, was die CPU last betrifft. Ich spare ca. 100 Watt und habe ein besseres Bild durch Dlss. 400 Watt auf Woods ohne Dlss und 300 mit und das mit 110 FPS limit.
Ist es nicht. Da ist garnichts besser geworden. Eventuell kommt das mit Unity 2021. Aber EFT arbeitet weiterhin mit großen (zu großen) und unoptimierten Drawcalls die jede CPU unabhängig von der Auflösung stark belastet. Verstärkt CPUs geringen Cache aufweisen. Das Ganze ist mit 13.5 noch schlimmer geworden weil die Clientside Desync Anpassungen die CPU nun zusätzlich nochmal mehr belasten. Wem 110 FPS reichen okay.
Besseres Bild durch DLSS sehe ich persönlich nicht so, gerade auf Entfernung und in Scopes.
Dass die Rekonstruktion das native Bild schlägt, hatten wir schon in einzelnen Games. Dass die neue DLSS Iteration das Ganze mit den Imagedetails nun standardmäßig" zu zementieren scheint und sogar ausbaut, ist in der Tat ziemlich beeindruckend.
Ich bin auch ziemlich geschockt von dem Vergleichsbild.
Es war mir ja bewusst, dass Spiegelungen mit DLSS schlechter aussehen, weil sie niedriger aufgelöst(weniger Strahlen), aber im Gegensatz zum Rest der Szene nicht mehr hochskaliert werden.
Also wäre es schon ein großer Schritt gewesen, wenn man mit DLSS 3.5 die Qualität der Spiegelungen auf das Niveau heben konnte, was man ohne DLSS hat, sprich einfach nur das "weniger Strahlen"-Problem angegangen.
Genau das hab ich mir auch beim Lesen der Überschrift vorgestellt.
Aber der Vergleich ist ja nicht mit DLSS 3.1 sondern mit dem nativen Bild, bedeutet bei den Spiegelungen sind wir nun durch den neuen Denoiser von "sehen fast immer schlechter aus als nativ" in einem Schritt zu "sehen deutlich besser aus als nativ" gesprungen.
Und ich denke, gerade für eine Technologie, die Zwischenbilder berechnen muss und das in Echtzeit, ist es ausschlaggeben wie viel Zeit die GPU für die Berechnung benötigt, damit es überhaupt sinnvoll sein kann.
Und? Es zeigt es ist umsetzbar und mit Optimierungsarbeit könnte man das kompensieren. Es wird schlicht nur nicht gemacht. Das ist Alles. Zudem wieder dein Screenshot die Aussage Vieler es würde garnicht funktionieren.
Das ist auch einfach nur ins Blaue geraten, oder weißt du, wie viel hier optimiert wurde und was speziell bei Ampere und Turing noch gehen würde?
Ansonsten kann man das Argument auf alles bringen
"Die PS5 könnte alle aktuellen Spiele in nativem 4K bei 120FPS darstellen wenn man Optimierungsarbeit reinstecken würde, wird nur nicht gemacht."
So in etwa wäre der Vergleich, wenn du die Leistung einer 2080Ti, die fast 3x so lange braucht wie eine 4090, mit "Optimierungsarbeit" kompensieren könntest
Ich bin jetzt seit 2019 dabei und bin bei fast 3000h(krank, ich weiß) und ich kann dir versichern, das es besser geworden ist. Anfangs waren 100 FPS gar nicht möglich, weil die CPU dicht gemacht hat. Mittlerweile ist es ok, aber immer noch verbesserungswürdig. Und ohne DLSS flackert doch alles und ist meiner Meinung nach, auch sehr Unscharf.
Und ja, mir reichen 110 FPS in 4K mit max Settings auf meinem OLED. Mehr brauch ich nicht, aber darum geht es nicht. Du hast behauptet, DLSS bringt nichts in dem Spiel und das ist völliger Unfug aber ja ich weiß schon, ist ja nur Marketing.
Ja, aber oftmals ist DLSS Performance (im Spiel)+2,25*DLDSR schneller und schicker. Halt nur mit dem Haken, dass das Interface (wie bei jedem Downsampling) leidet. Entsprechend bestünde auch für Nvidia die Möglichkeit, einen Modus zu konstruieren, der DLAA schlägt.
Meiner Erfahrung nach ist das eher selten schneller, manchmal schicker, aber auch oft unheimlich nervig weil zB 90% aller Unity spiele mit DSR ausbuggen. Insbesondre denke ich ist das bruteforcen über mehr Auflösung etwas was immer schön zu haben ist aber kaum etwas was Nvidia mehr pushen würde. DLAA hat aufgrund der "KI-Magic" das Potential zu Verbesserung ohne fixe Performance Penalty, DSR ist da immer an die Auflösung gebunden mit der es dann rendern muss. Alles schön zu haben aber viel weniger interessant für Nvidia, und wenn man es bevorzugt ist es schon so gut wies sein kann, bzw wenns besser wird dann eh auch für alles mit einem Treiberupdate. Kann mir nicht vorstellen dass sie das je einem Developer einreden das ins Spiel zu integrieren.
Wie eben dargelegt: Nvidia könnte sich darum kümmern, an Stelle der Devs. Und das wäre auch der clevere Weg --- denn einiges von der Arbeit muss eben bloß ein einziges Mal erledigt werden.
Ich denke das geht nur bis zu einem gewissen Grad, man kann DLSS quasi in eine Engine die TAA unterstützt einsetzen, und somit auch DLAA, das ist der Teil um den sich Nvidia kümmern kann, aber das tun sie ja auch.
Die breite Adaption zeigt das ja auch gut, aber für die richtig guten Umsetzungen braucht es auch Hints der Engine wos zB ignoriert werden soll, das wird immer nur der Developer machen können und da merkt man eben dann dass fast niemand sich da viel beschäftigen will (Ich wäre nicht überrascht wenn die wenigsten Developer sich überhaupt mit den Presetrs beschäftigt hätten) .
Aber eben weil die maximale Imagequalität nur mit doch etwas Arbeit geht und die maximalen Frames mit ein paar Artefakten viel einfacher interessiert es keinen. Nvidia könnte das höchstensso lösen indem sie verbieten DLSS ohne DLAA zu integrieren und wieso sollten sie das tun? Dann würden nur alle stattdessen schwächeres FSR verwenden und niemand hätte was davon.
Und genau deswegen denke ich eben, in der Theorie ist da viel was man sich wünschen kann, weils auch wirklich möglich wäre, aber in der Praxis bin ich mit den Optionen DLDSR+DLSS und DLSSTweaks sehr happy weils eh schon mehr ist als ich mir realistisch erhofft hätte.
Die Spiele die es nicht unterstützen sind meisens Indie Games, oder Games bei denen die reine Rasterleistung sowieso mit kleineren/älteren GPUs genügt, aber keine AAA Grafikkracher.
Destiny 2 kam auch vor 6 Jahren raus und läuft auf ner Kartoffel, siehe den damaligen CB Test dazu, 60FPS in 1440p mit ner GTX970, einer damals 3 Jahre alten Mittelklassekarte mit 3,5+0,5GB VRAM aus 2014.
Also ganz klar die Kategorie "Games bei denen die reine Rasterleistung sowieso mit kleineren/älteren GPUs genügt"
Glaub ja irgendwie FSR3 wird ne komplette Katastrophe.
Groß für Q1 angekündigt seitdem hört und sieht man dazu nichts mehr.
Wenn sie das jetzt nicht mit Starfield bringen sehe ich da schwarz für AMD.
Starfield ist doch eigentlich jetzt durch AMDs FSR only-Bestechung der Showcase Titel (weil sie sich damit nicht offiziell mit DLSS oder auch XeSS vergleichen lassen müssen, so ein Zufall ) und einer der wenigen globalen AAA Releases, der Werbung machen kann/soll für RDNA GPUs.
Würde mich sehr wundern, wenn FSR3 nicht zum Starfield Release erscheint.
Ich sagte ja bereits vor 8 Monaten, dass ich den Kniefall mache und AMD zaubern kann, wenn sie Frame Generation kontern ohne die Architektur, die sich Nvidia teuer bezahlen lässt.
FSR3 vs DLSS3 wurde uns suggeriert.
FSR mit Framegeneration live zu sehen wird eine Weichenstellung, in die eine oder die andere Richtung, und zwar auch für die Zukunft von AMD in GPU Sektor und als Feature Stack Anbieter.
Und nein, ich rede nicht von Nvidia als Konkurrent,.
Ich spreche von Intel GPUs und XeSS, unter anderem.
Intel wird noch weiter aufholen.
Wenn der Rettungsanker FSR3 gegen die Strömung nicht hilft, wird RDNA4 vielleicht im Fokus eher ein Playstation 6 Geschäft werden.
AMD hat sich bereits aus dem High End Kampf verabschiedet. Sind sie auch im midrange bald "raus"?
Das wäre für alle bescheiden.
Das Argument, dass es nur an den deutlich schnellern Optical Flow Accelerator von Ada liegt verfällt aber relativ flott wenn man die 4060 (welche Frame Gen unterstützt) und die 3090ti vergleicht, welche laut Nvidia Frame Gen angeblich nicht schafft.
Der OFA ist unabhängig der GPCs/TPCs/SMs, skaliert also nicht/nicht proportional mit der Renderleistung. Siehe das Blockschaltbild der entsprechenden GPUs.
Ergänzung ()
Taurus104 schrieb:
Zudem haben selbst Turing Karten einen Optical Flow Accelerator.
Der ist aber nicht nur nochmal deutlich schwächer, sondern unterstützt iirc auch einige Operationen gar nicht, die unter Ampere und Ada geboten werden.
Starfield ist doch eigentlich jetzt durch AMDs FSR only-Bestechung der Showcase Titel (weil sie sich damit nicht offiziell mit DLSS oder auch XeSS vergleichen lassen müssen, so ein Zufall )
Das gleiche gilt auch für Jedi Survivor und da war die FSR Implementierung schlechter als der Durchschnitt.
Generell meine ich, dass FSR im Schnitt immer besser ausgesehen hat, wenn man sich vergleichen musste.
Bei Starfield wird die DLSS Mod aber nicht so lange dauern, wie bei Jedi Survivor
Ich bin jetzt seit 2019 dabei und bin bei fast 3000h(krank, ich weiß) und ich kann dir versichern, das es besser geworden ist. Anfangs waren 100 FPS gar nicht möglich, weil die CPU dicht gemacht hat. Mittlerweile ist es ok, aber immer noch verbesserungswürdig. Und ohne DLSS flackert doch alles und ist meiner Meinung nach, auch sehr Unscharf.
Und ja, mir reichen 110 FPS in 4K mit max Settings auf meinem OLED. Mehr brauch ich nicht, aber darum geht es nicht. Du hast behauptet, DLSS bringt nichts in dem Spiel und das ist völliger Unfug aber ja ich weiß schon, ist ja nur Marketing.
Es bringt auch nichts, was tatsächlich relevant ist im Bereich Performance zum spielen von EFT vorallem durch deinen FPS Cap.
Wenn du anderer Meinung. Okay. Ich maße mir an schlicht mehr Ahnung zu haben.
Kann persönlich auch nicht nachvollziehen wie man ein Spiel wie EFT auf max. Settings spielt weil gerade unter Max. Settings zum Teil die Erkennbarkeit von Scavs und PMCs leidet. (selbst auf kurze Distanz)
Weshalb selbst BSG bereits max. Settings zum jetzigen technischen Stand nicht empfiehlt.
Aber auch hier, jedem das Seine.
Ergänzung ()
H6-Mobs schrieb:
Hunt soll wohl mit Update der Cryengine 5.11 schon mal FSR2.1 bekommen.
Abwarten. Mal schauen was da kommt von Crytek. Sinnvoller wäre ja dann schon 2.2 bzw 2.3 weil es diese schon längst gibt.
Ergänzung ()
Vitche schrieb:
Der OFA ist unabhängig der GPCs/TPCs/SMs, skaliert also nicht/nicht proportional mit der Renderleistung. Siehe das Blockschaltbild der entsprechenden GPUs.
Ergänzung ()
Der ist aber nicht nur nochmal deutlich schwächer, sondern unterstützt iirc auch einige Operationen gar nicht, die unter Ampere und Ada geboten werden.
Was nichts daran ändert das man es umsetzen könnte trotzallem.
Selbst eine etwas schlechtere Bildqualität wäre besser als garkein Feature für Ampere, Turing.
Zudem ist die allgemeine Aussage zu Turing und Ampere damit trotzdem widerlegt.
Turing hat einen Optical Flow Accelerator und Nvidia könnte es umsetzen, möchten es nur nicht. Gerade Nvidias kann nicht mit dem Argument kommen das man nicht die Manpower oder das Know-how hätten dies umzusetzen.
Mal ganz vereinfacht.
Davon ab, warum veröffentlicht Nvidia ein SDK für Funktionen/Instruktionen, für GPUs die dafür eigentlich nicht dafür vorgesehen sind.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich sagte ja bereits vor 8 Monaten, dass ich den Kniefall mache und AMD zaubern kann, wenn sie Frame Generation kontern ohne die Architektur, die sich Nvidia teuer bezahlen lässt.
Ich bin halt der Meinung das sie sich selbst mit der Vorschnellen Ankündigung einen Bärendienst erwiesen haben.
Wenn da diese Woche auf der Gamescom nicht im Zusammenhang mit Starfield kommt wüsste ich wirklich nicht mit was dann.
Das war einfach ganz schlechtes Marketing damals von AMD.
Also nochmal zum Verständnis: Die Szene bei 0:33, ist ohne DLSS, aber mit full RT Overdrive?
Das ist krass, wie es das ganze nochmal weiter aufwertet, denn der Vergleich sieht schon eher aus wie RT-Psycho vs Overdrive
Ja, das wäre schon deswegen schlecht, weil Nvidia dann ein beliebiges Preisschild an die Karten machen könnte, und nicht alle wollen Tausende von Euro sogar dann für eine Mid-Range-Karte bezahlen...
...weil es keinen Mehrwert hat, wozu dann den Aufwand betreiben und ggf. nicht technisch versierte User verwirren wenn das Feature nicht vernünftig läuft etc...? Die Argumentation durch den zu langsamen OFA aus vergangener Generation ist für mich zumindest schlüssig. Offizielle Aussage von NV. Alles andere sind wilde Gerüchte. Heißt am Ende alles Spekulation.