News Nvidia DLSS 4 im Detail: Multi Frame Generation und ein neues neuronales Netzwerk

Ich hoffe das die neuen Spiele weiterhin mit DLSS3 angeboten werden sonst bringt dir die noch aktuelle Generation nicht mehr so viel.
 
Jack3ss schrieb:
schade dass die echte performance nicht mehr besser wird,
sondern nur noch "generierte" Verbesserungen möglich sind
Hm, ich warte noch die Tests ab, Nvidia hat ja hauptsächlich mit DLSS verglichen.
AMD hat gestern gar nichts gesagt oder gezeigt.

Im Grunde noch völlig offen was uns da jetzt ohne KI-Hilfe erwartet.
 
Bei dem DLSS Vergleich wurde getrickst. Man sieht eindeutig, das DLSS4 eine andere Grafikeinstellung hatte.
 
BxBender schrieb:
Ich persönlich würde mir übrigens ein System wie FSR wünschen, womit man quasi mit dem Treiber in jedem Spiel dann die etwas einfachere Technik einsetzen könnte, ohne auf eine explizite Unterstützung vom Hersteller im Spiel abhängig zu sein.
Gibts ja längst, Lossless Scaling bietet auch bis 3x so viele FPS wie nativ. Ist halt etwas Gefrickel notwendig. Oder auch Optiscaler. Dand gibts FG Mods für 3000er Karten und so weiter. Wenn man nur will, hat man so auch ohne nVIDIAs Frame Generation in fast jedem Spiel eine Alternative.
 
Erstmal den ersten Schrecken beruhigen und auf unabhängige Tests und Benchmarks warten...🍵
 
  • Gefällt mir
Reaktionen: Tyagarion
Sorry aber ich benutze schon 30 Jahre einen PC und das konfigurieren eines PC Settings wird immer mehr zur Wissenschaft. Früher gab es ein Spiel da hat man die Grafikkonfiguration im Spiel vorgenommen und war fertig in 20 Sekunden. Wer schon mal das Spiel "Red Redemption 2" wird an Einstellungen ja total überfahren Millionen Settings müssen eingestellt werden. Meistens sind dann die Spiele schon wieder so alt das es intern keine Einstellungen für DLSS oder FSR gibt. Demnach macht man dies dann wieder über ein externen NVIDIA Tool nur fragt man sich denn welche Einstellungen alles überschrieben wird und welche Settings nun wirklich die aktuellen sind. Und wenn das noch nicht genug ist kommt noch Razer um die Ecke und versucht DEINE Settings auch noch einmal zu optimieren.
 
  • Gefällt mir
Reaktionen: Volvo480, Krik, QXARE und 3 andere
DrFreaK666 schrieb:
Woher weißt du das? 4x FG gibt es auch mittels Lossless Scaling (Die Qualität ist natürlich schlechter).
Das 2x FG konkurriert mit dem Treiber-AFMF. Manchmal ist das eine besser, manchmal umgekehrt. Lossless Scaling ist aber leichter zu bedienen. Kein Neustart oder ähnliches. Auf den Desktop tabben stürzt auch nicht ab.

Das 3x/4x fühlt sich aber sehr schlecht an. Viele Artefakte um den Mauszeiger bzw. das Fadenkreuz. Direkt ausgemacht. MFG muss und kann eigentlich nur besser sein.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
JoeDoe2018 schrieb:
Sorry aber ich benutze schon 30 Jahre einen PC und das konfigurieren eines PC Settings wird immer mehr zur Wissenschaft. Früher gab es ein Spiel da hat man die Grafikkonfiguration im Spiel vorgenommen und war fertig in 20 Sekunden. Wer schon mal das Spiel "Red Redemption 2" wird an Einstellungen ja total überfahren Millionen Settings müssen eingestellt werden. Meistens sind dann die Spiele schon wieder so alt das es intern keine Einstellungen für DLSS oder FSR gibt. Demnach macht man dies dann wieder über ein externen NVIDIA Tool nur fragt man sich denn welche Einstellungen alles überschrieben wird und welche Settings nun wirklich die aktuellen sind. Und wenn das noch nicht genug ist kommt noch Razer um die Ecke und versucht DEINE Settings auch noch einmal zu optimieren.

Grundsätzlich begrüße ich die vielen Einstellungsmöglichkeiten.
Das Problem sehe ich eher darin, dass sich die Spieleentwickler auf den neuen Technologien wie DLSS, FSR und FG ausruhen und ihre Games nicht mehr vernünftig "nativ" optimieren. Klar bieten diese Technologien einen Mehrwert bei schwächeren Systemen, aber die vorhandene Hardware ausnutzen, tut keiner mehr so wirklich.
 
  • Gefällt mir
Reaktionen: Tyagarion, goldeye, leo_cb und 2 andere
BxBender schrieb:
Ergo hätte man beispielsweise nur noch jedes 4 Bild in korrekter Darstellungsweise.
Vielleicht reduziert das dann ja das Flimmern zwischen falsch und richtig.
du wolltest sagen "aus dem Flimmern zwischen falsch und richtig" wird "aus dem Flimmern zwischen richtig und falsch" ;)
scnr der Spitzfindigkeiten & hier spaltet der Chef noch selbst die Haare, seit 1973
 
Mimir schrieb:
Ist ja auch schwierig, wenn es bei der Chipfertigung keine Fortschritte mehr gibt. Bzw. höhere Leistung und Transistorendichte auch 1:1 mehr Kosten verursacht. Das gabs in der Form bisher noch nie und ist eigentlich sehr schlecht.

Dass Nvidia dann über die Software und dafür ausgelegte Architekturoptimierungen trotzdem große Fortschritte erzielen kann grenzt fast schon an ein Wunder. Dass AI genau jetzt den "Tag rettet" wo die Chipfertigung an vorläufige Limits gerät ist ein sehr glücklicher Zufall.

Schaut man sich das RTX Neural Rendering SDK an, dann wird künftig wohl noch sehr viel mehr über KI optimiert.

Neural Textur Komprimierung. Neurale Shader und Materialien. Hier ersetzt dann ein AI Model die ansonsten extrem aufwändige und rechenintensive Berechnung via Pathtracing (welche bei komplexen materialeigenschaften irrsinnig aufwändig wird)

Eigentlich ein genialer Ansatz. Man berechnet nicht Brute Force Pathtracing, sondern lässt die AI einfach "verstehen", wie Licht und Materialien sich verhalten und bekommt dann das gleiche Ergebnis mit sehr viel weniger Rechenleistung zustande.

Spannende Zeiten.

Und sorry für den Seitenhieb, aber leider ist es die Wahrheit: Gefühlt hat Nvidia AMD mittlerweile um 5+ Jahre abgehängt. wenns überhaupt reicht.
Bei AMD hört man immernoch nichts von pathtracing oder irgendwelchen bestrebungen in diese Richtung. Wenn jetzt nicht mit RDNA4 dann frühestens 2027 mit der nächsten Gen. Dann sind 5 Jahre seit RTX4000 vergangen. Bzgl. FSR4 setzt man erst jetzt auf ein AI Model, welches ggf. die bisherige DLSS Qualität erreichen könnte, wenn man optimistisch ist und das läuft dann auch nur auf 2025er AMD Hardware, während Nvidia das neue DLSS AI Model für RTX2000 aus dem Jahre 2018 verfügbar macht. Die ganzen "AI Cores" auf AMD GPUs, die ja eigentlich keine AI Cores sind, sondern Shader Cores mit erweiterten Befehlssätzen scheinen also weitestgehend sinnfrei gewesen zu sein. Scheinbar nichtmal ein AI Upscaler lässt sich damit betreiben, während Nvidia mittlerweile Upscaling, Frame Generation, Denoising und sogar teile des Pathtraced Renderings auf den Tensor Cores laufen lässt.

Schade, dass AMD damit nahezu irrelevant im Gaming GPU Markt wird. Ich wünschte wirklich, es wäre anders.
genau das! Mir fehlt auch vollkommen das Verständnis, dass das nicht als Innovation begriffen wird. Warum einige hier immer noch so geil auf Rohleistung sind, die sie dann aber beim aktueller Stand der Fertigung nicht bezahlen wollen, weil es immens teure Endprodukte bedeuten würde, ist mir ein Rätsel. Und wer wirklich glaubt, dass es dazu eine Alternative gäbe, ist doch nicht ganz aufnahmefähig. Die Spieleindustrie wird diese Technologie gerne aufnehmen und in Zukunft lassen sich damit Ressourcen in der Entwicklung sparen.
Da können einige die doppelte Rohleistung einer 4090 fordern solange sie wollen; es wird so nicht laufen.
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Guitarluke, one2know und 2 andere
atar1990 schrieb:
genau das! Mir fehlt auch vollkommen das Verständnis, dass das nicht als Innovation begriffen wird. Warum einige hier immer noch so geil auf Rohleistung sind, die sie dann aber beim aktueller Stand der Fertigung nicht bezahlen wollen, weil es immens teure Endprodukte bedeuten würde, ist mir ein Rätsel.
Ist doch schnell erklärt: Weil die "Endprodukte" (Warum nicht einfach Produkt? Klingt Endprodukt soviel schlauer?) ja trotzdem "immens teuer" geworden sind.
 
  • Gefällt mir
Reaktionen: ThePlayer
nato44 schrieb:
Alles andere ist unwissenschaftlich.
Alles andere ist aber genau das, was der Spieler später tatsächlich erlebt.

Was bringt mir ein Test der Rohleistung, wenn alle Spiele später immer mit DLSS (wäre ja bescheuert das auszustellen, um mit dem schlechteren Originalbild zu spielen) und FG laufen.

Als Kunde will ich eher einen Test mit vergleichbarer Bildqualität in normalen Spielbedingungen.

Was will ich mit einem theoretischen Vergleich in niemals genutzten Bereichen (native Ausgabe).
 
  • Gefällt mir
Reaktionen: cruse, Kraeuterbutter, ElisaMüller und eine weitere Person
Fakeframes, Ghosting, KI Gematsche und vor allem Unschärfe. Seit dem Hype um RT geh es einfach nur noch abwärts mit der Grafik. Abgesehen von ein paar Demos wird das Ergebnis am Ende schlechter.
 
  • Gefällt mir
Reaktionen: SP-937-215, KuhJoe, Virny und eine weitere Person
Frame Gen ist Murks

Das kann vielleicht aus 60-90 FPS halbwegs glaubbare 200+ FPS machen, aber halt nicht 20 FPS auf 60 heben, weil einfach zu wenige Daten da sind.
Letzteres ist aber was uns weiter bringen würde. Ist mir doch egal ob ein game 60 oder 5000 FPS hat. 60FPS mit höherer Qualität wäre wichtiger, und daran versagt Frame-gen vollkommen.
 
Blackfirehawk schrieb:
Viel interessanter finde ich das man mit dem Treiber quasi das Spieleigene DLSS überschreiben kann um es zu verbessern.
Das ist ggf. das interessante Killer Feature hier, über das viele gar nicht gestolpert sind 👍
 
  • Gefällt mir
Reaktionen: one2know
phanter schrieb:
Frame Gen ist Murks

Das kann vielleicht aus 60-90 FPS halbwegs glaubbare 200+ FPS machen, aber halt nicht 20 FPS auf 60 heben, weil einfach zu wenige Daten da sind.
Letzteres ist aber was uns weiter bringen würde. Ist mir doch egal ob ein game 60 oder 5000 FPS hat. 60FPS mit höherer Qualität wäre wichtiger, und daran versagt Frame-gen vollkommen.

Dafür hast du Upscaling. DLSS Performance vs Native kann mit pathtracing die FPS in 4K bereits um Faktor 2-3 anheben. Dann kommst du in Bereiche bei denen Frame Generation dann den Rest erledigen kann.


Vokans schrieb:
Ich hoffe das die neuen Spiele weiterhin mit DLSS3 angeboten werden sonst bringt dir die noch aktuelle Generation nicht mehr so viel.

Da DLSS4 für alle GPUs sowie deren jeweils unterstützten Features verbesserungen bringt, ist das gar nicht nötig.

Die Entwickler müssen nur DLSS4 einbauen und du kannst mit deiner RTX4000 GPU Frame Generation mit dem neuen Model nutzen mit erhöhter Performance und geringerem VRAM verbrauch sowie den neuen Upscaling Algorithmus in besserer Qualität.

Nur das Multi Frame Generation braucht eine RTX5000 Karte.
 
  • Gefällt mir
Reaktionen: Pro_Bro, Paddydapro, Vokans und 2 andere
Also hat man demnächst in 4k Ultra anstatt 60 (FG) FPS, in Wirklichkeit: 15! :o:freak:

Na herzlichen Glückwunsch zu diesem Fortschritt! :daumen:
 
wie auch sonst? Das ist Spitzentechnologie. Die benötigten Komponenten, der Fertigungsprozess, sämtliche Infrasrruktur, gute Löhne (die da mittlerweile in Asien auch gezahlt werden) und eine Marge für das Unternehmen müssen irgendwo herkommen. Der Markt gibt das doch her! Der Gamingmarkt ist in den letzen 30 Jahren stetig gewachsen. Kann ja die Sehnsucht nach „früher war alles besser“ verstehen. Die Frage ist immer, sind das realistische Einschätzungen? Ich sehe hier ein innovatives Produkt, mit dem man gerechnet auf mehrere Jahre viel Spaß und Zeitvertreib hat. Und man kann es nicht nur zum Gamen nutzen. Gute Sache!
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Kraeuterbutter und one2know
Ich stehe dem auch skeptisch entgegen.
Zum einen Teile ich die Überforderung an Einstellungen die auch nicht global passen sondern je nach Spiel gewählt werden müssen.
Das ist definitiv nicht zielführend und hat keinen Mehrwert mehr.
Zweitens dass es nicht quelloffen oder auf Engine Ebene stattfindet. Das wird wie immer die Akzeptanz am Markt negativ beeinflussen.

Der offene Ansatz von AMD ist mir weitaus lieber als das gemurkse mit NVIDIA.

Und wer hier AMD gerne bessere sehen möchte, der möge mal die HW kaufen und den Hersteller unterstützen und nicht heuchlerisch dann doch NVIDIA kaufen aber dann hier ne gezwungene Träne drücken.
 
  • Gefällt mir
Reaktionen: SP-937-215, Virny, ThePlayer und eine weitere Person
Zenx_ schrieb:
Und AMD hat dem nichts entgegenzustellen und können nur noch durch Rohleistung und einer Preisreduktion Verkäufe erzielen. Ne 9070XT sollte mindestens 150€ unter einer 5070 liegen.
Genau das möchte ich: Mehr Rohleistung zum Guten Preis.

Die ganzen Software-Spielereien, künstlichen Fake-Frames und hochskalierten Bilder interessieren mich wenig.
 
  • Gefällt mir
Reaktionen: TheHille, nato44 und Virny
Zurück
Oben