News Nvidia GeForce RTX: DLSS 3.5 soll Raytracing hübscher machen

A.Xander schrieb:
Wer damit jetzt ein Problem hat und sich von einem Börsenkonzern über den Tisch gezogen fühlt, obwohl er noch nicht mal weiß was er mehr bekommt, ist selber schuld.
Die aktuelle GPU Generation wurde mit dieser Folie beworben...
1692796240509.png

https://www.computerbase.de/2022-11/amd-radeon-rx-7900-xtx-rdna-3-vorstellung/

Ich würde mich übern Tisch gezogen fühlen, hätte ich mir eine Karte aus dem AMD Lager geholt, aber das muss jeder für sich wissen. Es war aber auch nicht der Punkt, die Verzögerung kann natürlich technische Gründe haben oder man hat es bewusst verzögert. Sollte FSR3 auf RDNA2 schlecht laufen, wäre die Antwort allerdings relativ klar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
MMIX schrieb:
In abgespeckter Form (ohne Ki Berechnung) könnte ich mir FSR3 auf Nvidia und Intel GPUs - analog zu FSR3 auf RDNA2 - vorstellen.
Was dann ja schon irgendwie dumm wäre da Nvidia KI Unterstützung bietet. Warum also abspecken?
Bei Intel kenn ich mich tatsächlich nicht aus aber die haben KI Cores oder?
 
BOBderBAGGER schrieb:
Technologisch sicher interessant nur mit der Namensgebung tun die sich echt keinen gefallen.

Es ist das gleiche Problem wie bei USB: API-Version (bzw. Spec-Version bei USB) sagt einfach nichts/wenig über die tatsächlichen Features aus.

Mag umständlich wirken, aber man sollte sich schlichtweg dran gewöhnen. Der Ottonormalverbraucher kann weder mit dem einen, noch mit dem anderen etwas anfangen, also juckt das eh nur die Technik-Bubble. ;)
 
Taurus104 schrieb:
DLSS bringt einem in Tarkov rein garnichts ohne entsprechende CPU. Tarkov ist extrem CPU bounded selbst in 4k.
Ergänzung ()


Mit jeder 8GB Karte beim Einsatz von RT und FG weil die zusätzlichen Vram fressen
DLSS3 FG
Taurus104 schrieb:
DLSS bringt einem in Tarkov rein garnichts ohne entsprechende CPU. Tarkov ist extrem CPU bounded selbst in 4k.
Ergänzung ()


Mit jeder 8GB Karte beim Einsatz von RT und FG weil die zusätzlichen Vram fressen
dlss3 fg würde auch in tarkov was Bringen Im cpu limit. Aber tarkov unterstützt das nicht.
 
Atnam schrieb:
Was dann ja schon irgendwie dumm wäre da Nvidia KI Unterstützung bietet. Warum also abspecken?
Bei Intel kenn ich mich tatsächlich nicht aus aber die haben KI Cores oder?

Weil die Ki Cores in RDNA3 anders arbeiten als Tensor in Ada und AMD müsste FSR3 auch intern auf Tensor optimieren was sie nie im Leben machen würden.
 
Atnam schrieb:
Bei Intel kenn ich mich tatsächlich nicht aus aber die haben KI Cores oder?
Die XMX Einheiten übernehmen da den Job der signifikanten Beschleunigung dieser Berechnungen.
Wird nur nicht als "Core" bezeichnet. Aber soweit ich das richtig in Erinnerung habe sind die "Tensor Cores" von Nvidia auch tief in die SMs integriert, so dass die nicht wirklich so autonom laufen, wie der Name suggeriert. Mehr Core im Sinne von IP-Core als Shader-Core.
 
Mimir schrieb:
@Novasun
Wo hat denn RDNA3 "KI" Einheiten? Dass diese Rechenoperationen auf den CUs etwas schneller laufen (aufgrund neuer instructions) mag ja sein, aber das ist doch nicht vergleichbar mit den Tensorcores bei Nvidia.

Siehe hier https://www.computerbase.de/2022-12..._worte_zur_technik_rund_um_navi_31_und_rdna_3

Und das es das selbe wie bei NV ist habe ich doch gar nicht behauptet. Ich meine AMD nennt die Units auch KI Einheiten...
Ergänzung ()

0ssi schrieb:
Soll das etwas bedeuten,
dass man Frame Generation nicht ohne DLSS Upsampling nutzen kann ? :confused_alt:
Technisch gesehen müsste es gehen. Fernseher machen das heute schließlich auch...
Ergänzung ()

Atnam schrieb:
Was dann ja schon irgendwie dumm wäre da Nvidia KI Unterstützung bietet. Warum also abspecken?
Bei Intel kenn ich mich tatsächlich nicht aus aber die haben KI Cores oder?
Da wäre gar nichts dumm. Auf der anderen Seite wenn AMD die Lebenszeit 3xxx Karten von NV deutlich verlängert wäre das unter bestimmten Vorraussetzungen gar intelligent...
 
Zuletzt bearbeitet:
Garack schrieb:
DLSS3 FG

dlss3 fg würde auch in tarkov was Bringen Im cpu limit. Aber tarkov unterstützt das nicht.
Durchaus möglich in der Theorie. Aber was nicht da ist, kann man nicht bewerten. Davon würde ich den Vorteil bei Tarkov nicht unbedingt sehen, weil FG die Latenz und den Inputlag trotz Reflex stark erhöht, was in einem Game wie Tarkov extrem nachteilig ist.
 
Novasun schrieb:
Da wäre gar nichts dumm. Auf der anderen Seite wenn AMD die Lebenszeit 3xxx Karten von NV deutlich verlängert wäre das unter bestimmten Vorraussetzungen gar intelligent...
Es wäre dumm in dem Kontext das sich AMD damit ja brüstet das FSR überall drauf läuft nicht nur auf ihren eigenen Karten. Da wäre es ja irgendwie schräg wenn sie das dann bei FSR3 dann aufeinmal nicht mehr so machen würden.

Versteh mich nicht falsch. Ich denke auch das eine Lösung nur für RDNA Karten weitaus besser wäre als es für alle Anbieter entwickeln zu wollen.
Ewig wird AMD aber diesen "Nvidia sind die Böse und wir die Guten" Kurs aber nicht mehr fahren können.
 
MMIX schrieb:
Soll soll soll
Es gab bislang nur einen Hinweis eines Leakers für FSR3 in starfield, demnach nur Gerüchte worauf alle sich nun einschiessen. Es kann passieren, kann auch nicht.
Das schöne ist - am Freitag werden wir mehr wissen...
 
  • Gefällt mir
Reaktionen: MMIX
Novasun schrieb:
Technisch gesehen müsste es gehen. Fernseher machen das heute schließlich auch...
Frame Generation lässt sich aktuell eigentlich immer unabhängig von DLSS Super Resolution nutzen. Teils ist sogar die gleichzeitige Nutzung von FSR 2 möglich.
Wichtig ist halt immer nur, dass das Spiel die entsprechenden Upsampling-Verfahren (oder zumindest eines davon, damit der Rest per Mod umsetzbar ist) implementiert hat. So rein über den Treiber oder für Videocontent wäre Frame Generation nicht nutzbar, da Informationen aus der Gameengine erforderlich sind.
 
@Taurus104
DLSS bringt in Tarkov teils 30% und mehr, zumindest bei meinem Setup? Hier davon zu reden das es nichts bringt finde ich schon weit hergeholt. :confused_alt:
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Atnam schrieb:
Versteh mich nicht falsch. Ich denke auch das eine Lösung nur für RDNA Karten weitaus besser wäre als es für alle Anbieter entwickeln zu wollen.
Das würde ich jetzt mal nicht glauben, dass AMD mit dem Ziel daran gegangen ist, dass es auf der Konkurenz gut läuft. Wenn man halt keine passenden Hardwareeinheiten dafür hat und stattdessen normale Mathematik verwendet, wie GPUs sie schon lange gut können, dann läuft das halt auch ohne großen Mehraufwand bei der Konkurenz gut.
Diese Entscheidung war quasi gefallen, als AMD beschlossen hat mehr Rasterperformance in der Fläche zu verbauen, anstatt die gleiche Fläche in neue Hardwarebeschleuniger speziell für RayTracing, Skalierung, etc. zu investieren.
Man könnte das nur absichtlich proprietär machen, aber das spart dir keine Arbeit, wenn du nicht selbst Hardware hast, die mehrere Softwareschritte auf einmal machen könnten, die aber nicht mit Hersteller-agnostischen Befehlen ansprechbar sind.

Du siehst ja bei Intel wie die Mischung aussieht. Intel hat Beschleuniger die genau dazu passen und hat XeSS konsequent darauf ausgelegt. Zusätzlich haben sie dann eine runter gedummte Variante davon für ihre iGPUs gebaut, da die diese Hardwarebeschleunigungseinheiten so nicht bieten. Das funktioniert dann zwar auch bei den anderen Herstellern, weil die die selben Befehle verstehen und man nicht versucht hat, diese auszusperren, aber XeSS hat doch kaum Performance gebracht auf den anderen GPUs, weil es eben nicht darauf optimiert war. FSR 2 kostet halt (mit Absicht) weniger Performance, also bleibt mehr ürbig.

Das ist ja wie bei AMD's FSR: Sie sagen ist ja offen, wenn Nvidia für ihre Architektur optimieren will, können sie diesen Code gerne zu unserer Library beitragen. Aber großen Grund das für die Konkurenz mit viel Energie zu optimieren sehe ich da nicht.

Die letzte Konsequenz von einer offenen Lösung wäre ja eigentlich die die DirectStorage geht. Es gibt eine mehr oder weniger schlechte herstelleragnostische Lösung by default. Aber jeder Hersteller ersetzt das mit seinem Treiber durch die für seine Hardware beste Implementierung, die dann auch voll Hersteller und Generationsspezifisch sein kann. Größtes Problem dabei für Upscaling und Frame Generation sind unterschiedliche Inputdaten, weil FSR 2 da zB scheinbar mehr Daten braucht um so manche üblichen Artefakte zu unterdrücken.

Solange jeder Hersteller noch daran feilt, welche Daten denn für ihn optimal sind, lässt sich sowas halt nicht vereinheitlichen, ohne dem Fortschritt im Weg zu sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Atnam

Noch ein DLSS 3.5 showcase Titel.
Und ist Path Traced:

On PC, Alan Wake 2 players can marvel at fully ray traced (path traced) graphics that are accelerated and enhanced by NVIDIA DLSS 3.5 and NVIDIA Reflex.
https://www.nvidia.com/en-us/geforc...nk-2077-phantom-liberty-dlss-3-5/#alan-wake-2
 
  • Gefällt mir
Reaktionen: AI94, Cerebral_Amoebe, Taxxor und 4 andere
Wow, da sieht man nochmal sehr deutlich was DLSS3.5 bringt.

Die Akkumulationszeit die RT bisher gebraucht hat wenn Lichtquellen sich schnell ändern ist damit scheinbar auch hinfällig.

Das "grissellige" an Zäunen und anderen Oberflächen, was man bei Cyberpunk mit Pathtracing gesehen hat auch behoben.

Das ist echt ein Gamechanger für RT und PT.

Vor allem lässt das ja auch Spielraum, beim DLSS Modus ggf. auch runter zu gehen. Wenn DLSS Balanced oder performance in Kombination mit Raytracing bei DLSS3.5 besser aussieht, als z.B. der Quality Modus mit DLSS3 dann wäre das genial.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso, Taxxor und Tornavida
Laphonso schrieb:

Noch ein DLSS 3.5 showcase Titel.
Und ist Path Traced:

On PC, Alan Wake 2 players can marvel at fully ray traced (path traced) graphics that are accelerated and enhanced by NVIDIA DLSS 3.5 and NVIDIA Reflex.
https://www.nvidia.com/en-us/geforc...nk-2077-phantom-liberty-dlss-3-5/#alan-wake-2


DLSS 3.5 ist bisher ziemlich beeindruckend, wenn es so läuft, wie die Trailer vermuten lassen.
Hut ab. Die RT (Diner-Szene) ist ziemlich gut. Aber auch der Zaun oder die feineren Lichter.
Konkurrenzlos.

Okay dann unterstützt eben Starfield kein DLSS, wer ist darüber jetzt noch traurig :p
 
Laphonso schrieb:
Noch ein DLSS 3.5 showcase Titel.
Das sieht echt super aus.
Bin gerade am überlegen, was ich mir als Upgrade von einer 6700XT (CPU 5900x, WQHD Res) holen soll.
Brieftasche sagt 4070, Herz eher 4070TI oder 4080.
Ist halt die Frage, wie gut CP und AW2 jeweils laufen werden auf den jeweiligen Modellen.
 
xexex schrieb:
Sollte FSR3 auf RDNA2 schlecht laufen, wäre die Antwort allerdings relativ klar.
Das auf jeden Fall, aber ich gehe mal nicht davon aus, in 2 Tagen sind wir schlauer.
 
ElectricStream schrieb:
Okay dann unterstützt eben Starfield kein DLSS, wer ist darüber jetzt noch traurig :p

Kommt per Mod und wurde bestätigt. DLSS3 während Early Access und DLSS2 ab offiziellen Release am 06.09
 
  • Gefällt mir
Reaktionen: Laphonso und ElectricStream
Pesky_ schrieb:
Bin gerade am überlegen, was ich mir als Upgrade von einer 6700XT (CPU 5900x, WQHD Res) holen soll.
Machs wie jeder Zweite hier...4090 🤣Mit nem 5900x sollte die 4070ti schon gut passen.
 
  • Gefällt mir
Reaktionen: Laphonso, H6-Mobs und s1ave77
Zurück
Oben