News Nvidia DLSS 4 im Detail: Multi Frame Generation und ein neues neuronales Netzwerk

Mimir schrieb:
Dass Nvidia dann über die Software und dafür ausgelegte Architekturoptimierungen trotzdem große Fortschritte erzielen kann grenzt fast schon an ein Wunder.

Sorry aber das íst nicht war. Mit guten Algorithmen waren schon immer sehr gute Ergebnisse machbar. Und diese waren über die Zeit gesehen auch immer beachtlich und Konkurenzfähig zur Steigerung in Hardware.
 
Mimir schrieb:
DLSS Performance vs Native kann mit pathtracing die FPS in 4K
...und sieht merklich matschiger aus. Ist das am Ende das, was ich von einer 1000€+ GPU erwarten soll?
Ich bekomme zwar PT, dafür aber ein unscharfes Bild mit wabernden Details und 75% der Frames haben AI Artefakte?

Ich finde es an sich ja cool und technisch extrem beeindruckend, aber das Endergebnis hat halt weiterhin einen faden Beigeschmack, weil die Bildqualität in manchen Aspekten arg leiden muss, um in anderen voran zu kommen.

Ich habe die Tage Alan Wake 2 angefangen, in 4K mit PT High. Auf DLSS Quality ist die Bildschärfe noch okay, darunter nimmt sie aber für meinen Geschmack zu stark ab, um damit auf einer 4090 zufrieden zu sein.
Um dann nicht nur mit 50fps rumzukrebsen schalte ich noch FG an. Das ist zwar insgesamt okay, hat aber durchaus einige fiese Artefakte in Bewegung, die mit niedrigeren DLSS Stufen zudem noch sichtbarer werden.

So bekomme ich zwar coole neue Technologien wie RT/PT und AI Zeug...die Bildschärfe und Klarheit kommt so aber nichtmal mehr an das Niveau, das ich vor knapp 10 Jahren mit einer 980Ti in 4K hatte.
Ergänzung ()

atar1990 schrieb:
eine Marge für das Unternehmen müssen irgendwo herkommen
Lmao. Nvidia mangelt es definitiv nicht an Marge. Die greifen weit mehr ab, als "nötig" wäre (was ist schon "nötig" im unhaltbaren ewigen Wachstum?), einfach weil sie es aktuell können da sie keine echte Konkurrenz mehr haben.
 
  • Gefällt mir
Reaktionen: Maxysch
Die Bildschärfe wird sich mit dem neuen Transformer Model mit Ray Reconstruction deutlich erhöhen, keine Sorge. Dann bekommst du auch mit Ray Reconstruction, was bisher sehr weich aussah ein knack scharfes Bild.
 
Wird sich zeigen müssen. Schärfer wirds, sah man ja zB im 2077 Video von DigitalFoundry gestern. Aber knackscharf war das auch noch nicht. Und Ghosting ist zwar geringer, aber trotzdem noch sichtbar.

Ist beides gut, aber es bleibt ein Problemthema.
 
Während ich den Nutzen von FG noch zum Teil nachvollziehen kann, kann ich es bei MFG nicht. Ich spiele normalerweise mit 70-80fps. Würde ich diese nur mit MFG erreichen, wäre es unspielbar durch die Latenz.
 
Powl_0 schrieb:
Wird sich zeigen müssen. Schärfer wirds, sah man ja zB im 2077 Video von DigitalFoundry gestern. Aber knackscharf war das auch noch nicht. Und Ghosting ist zwar geringer, aber trotzdem noch sichtbar.

Ist beides gut, aber es bleibt ein Problemthema.

Schau mal hier bei 1:01

Der Unterschied ist schon gewaltig.

Übrigens ist auch das ganze Video sehenswert. Wenn da die Reise hin geht, macht nvidia alles richtig.
 
Powl_0 schrieb:
Lmao. Nvidia mangelt es definitiv nicht an Marge. Die greifen weit mehr ab, als "nötig" wäre (was ist schon "nötig" im unhaltbaren ewigen Wachstum?), einfach weil sie es aktuell können da sie keine echte Konkurrenz mehr haben.
Das ist Käse. Diese ja sooo unverschämte Marge ist die Grundlage dafür, dass wir solche Innovation wie diese Woche gezeigt überhaupt sehen. Nvidia geht genau den richtigen Weg. Und ja, Spaß kostet ;)
 
atar1990 schrieb:
Diese ja sooo unverschämte Marge ist die Grundlage dafür, dass wir solche Innovation wie diese Woche gezeigt überhaupt sehen.
Eigentlich nicht, denn die 16,6 Milliarden bleiben, nachdem die Entwicklung solcher Features bereits finanziert wurde.

Nvidia setzt den (finanziellen) Siegeszug rund um AI-Infrastruktur mit einem weiteren Rekordquartal fort, das 30 Milliarden US-Dollar Umsatz und 16,6 Milliarden US-Dollar Nettogewinn einbrachte.
 
  • Gefällt mir
Reaktionen: Powl_0
@guggi4 Es ist doch allen Beteiligten zu gönnen. Ich sehe hier ein hervorragendes Management, hochzufriedene Shareholder und Innovationen zu angemessenen Preisen. Was kann Nvidia dafür, dass man bei AMD offenbar jahrelang auf das falsche Pferd gesetzt hat und jetzt technologisch abgehängt ist? Das ist Versagen des Managements. Ist doch super, wenn da sehr viel Gewinn übrig bleibt. So geht Wirtschaft :)
 
  • Gefällt mir
Reaktionen: goldeye
Ist halt nur für den Endkunden ungeil, weil die Preise sehr hoch bleiben.
 
  • Gefällt mir
Reaktionen: goldeye
@Powl_0 Naja... Wenn man in Zukunft die Bildqualität einer 4090 für 600 Euro + X auf den Bildschirm bekommt, ist das doch ein fairer Preis (was für einer krasser Technologiesprung mithilfe der AI). Dass man für die neuesten Blüten der Darstellung eben weiterhin 1200 Euro oder als absoluter Enthusiast an die 3000 Euro ausgeben muss, ist eben der Lauf der Dinge. Ändern könnten das nur massive Investitionen anderer Unternehmen, um diesem Markt wieder Wettbewerb zu verschaffen. Wobei es echten Wettbewerb nie gegeben hat. Dann hätte es 10+ Chiphersteller auf dem GPU-Markt geben müssen. Ich bin nach wie vor hochzufrieden, wie sich das alles darstellt. Das ganze Gejammere ist so nervig.
 
  • Gefällt mir
Reaktionen: TøxicGhøst
atar1990 schrieb:
Dann hätte es 10+ Chiphersteller auf dem GPU-Markt geben müssen.
Ich überlege gerade, ob es jemals so viele gleichzeitig gab...
Ende der 90er gab es mindestens so viele, wobei das quasi mehrere Gruppen aufgeteilt auf jeweils eine Nische/Branche waren. Ab da wurde schnell stark konsolidiert und aufgekauft.
Ergänzung ()

atar1990 schrieb:
Wenn man in Zukunft die Bildqualität einer 4090 für 600 Euro + X auf den Bildschirm bekommt, ist das doch ein fairer Preis
Irgendwann landen wir da, aber nicht mit einer 5070, auch wenn Nvidia Marketing das gerne so drehen würde.
 
  • Gefällt mir
Reaktionen: Guitarluke
radoxx schrieb:
Diese hochskalierten Bilder sehen mittlerweile aber oft besser aus als das native Bild. Deutlich mehr Bildstabilität und kaum Kantenflimmern.

Ich hatte auch bisher nur positive Erfahrungen mit DLSS. Das sieht so scharf aus, wie WQHD aussehen soll, und ist gleichzeitig so gut wie frei von Pixelbröseln oder -krabbeln. Selbst bei "normal" herunterskaliertem nativem 4k sehe ich mehr Störungen, wie z.B. Moiré.

Ryzen 14900KS schrieb:
Meine Sehgewohnheiten sind vielleicht etwas alte Schule, aber ich stelle bei meinen Fernsehern z. B. immer alle Bildverbesserungen aus. Ich stelle sogar die Bildwiederholrate auf 25 Bilder/Sekunde, weil es sonst nervt.

Für mich sind 24/25 fps so unfassbar schlecht, dass selbst die erste (?) FG-Implementation im Philips DVD 1010 für mich deutlich mehr Segen als Fluch war. Und 1080p mit 24 fps sind ähnlich absurd, wie 7.1 mit 5 kHz oberer Grenzfrequenz.

Halos, Bugs bei sich wiederholenden Mustern, oder Ruckel-Rückfälle bei zu schnellen Bewegungen sind mit den neueren Implementationen immer weniger geworden, und sollten bei Nvidia/AMD FG gar keine Rolle spielen, weil sie bei Spielen Zugriff auf native Modelle und Bewegungsvektoren haben.
 
Ich bin gespannt auf die neue Bildstabilität für PT.

Für CP2077 gibt es ja diverse RT Mods, die das Niveau über das maximale ingame mögliche anheben und so
das Bild deutlich beruhigen können an kritischen Stellen.

Wenn das nun so in allen RT/PT Spielen funktioniert, wäre das eine gute Sache.

Turrican101 schrieb:
Was bringen mir "echte" Pixel, wenn meine Karte davon viel zu wenig generieren kann? Und warum sind negative Nebeneffekte durch FG böse, aber schlechtere Darstellung durch kleinere Texturen, schlechterem AA oder generell fehlenden Effekten usw. in Ordnung, um mehr FPS zu bekommen?

Letztlich könnte man auch alle die "Ich will nur nativ spielen wegen der Bildqualität!" fragen, ob sie schon einen OLED benutzen.
Oder wenn nicht, warum nicht, denn OLED hat nunmal die wenigstens Nachteile in Sachen Bildqualität.

Für mich zählt letztlich das sichtbare Ergebnis, egal wie es erzeugt wird.
Und DLSS etwa ist verdammt gut gereift über die Jahre, FG ebenso wenn es optimal umgesetzt wird.

Turrican101 schrieb:
Ich finde dieses Rumgehate gegen FG und Upscaling auch merkwürdig. Es sorgt dafür, dass die Spiele besser aussehen oder flüssiger laufen, aber weil es keine "echten" Pixel sind ist es falsch. :rolleyes:

Grundsätzlich ist es schon reichlich komisch, im Bereich der PC Spiele "unechtes" zu kritisieren. :D
Seit es diese gibt, werden Tricks und Kniffe angewandt um das darzustellen, was man darstellen möchte mit den technischen Limitierungen die man hat.
 
  • Gefällt mir
Reaktionen: AnkH und shadACII
akuji13 schrieb:
Letztlich könnte man auch alle die "Ich will nur nativ spielen wegen der Bildqualität!" fragen, ob sie schon einen OLED benutzen.

Gut, da kommt das Preisargument ins Spiel. Wer sich ne 4090 oder ne 5090 kauft, um in nativ zu spielen, dabei aber nen LCD nutzt setzt imho falsche Prioritäten.

Um aber gleiches mit gleichem zu vergleichen müsste man auch fragen ob in 4K gespielt wird. Jemand der in 1440p auf nativ beharrt, aufgrund der Bildqualität, der kann auch in 4K mit Quality Upscaling spielen (ebenfalls 1440p renderauflösung) und bekommt ein VIEL besseres Bild bei nur sehr geringen performancekosten.
Selbst DLSS Performance sieht trotz 1080p interner Auflösung in 4K besser aus, als 1440p nativ und läuft schneller.

Das einzige, was man halbwegs ernst nehmen kann sind Leute, die in 4K nativ spielen wollen und dabei DLAA (nicht TAA) nutzen. Das sieht natürlich nochmal nen kleinen Tick besser aus als 4K DLSS Quality. Wem es darauf ankommt, meinetwegen. Aber alles andere ist nicht ernst zu nehmen.


akuji13 schrieb:
Grundsätzlich ist es schon reichlich komisch, im Bereich der PC Spiele "unechtes" zu kritisieren. :D
Seit es diese gibt, werden Tricks und Kniffe angewandt um das darzustellen, was man darstellen möchte mit den technischen Limitierungen die man hat.

Jap, gerade klassisches Rasterizing ist die reinste Fake show. And das von Anfang bis Ende. Es ist in etwa so als würde man in Photoshop frei Schnauze das Licht per Hand so malen, wie man es sich vorstellt, einfach damit man einen halbwegs realistischen Look hat.

Und das ist ja tatäschlich fast im wahrsten Sinne so. Beispiel Lightmaps. Da wird die globale beleuchtung vorberechnet und in eine Lightmap "gebacken" welche dann etliche gigabyte auf der SSD belegt und die ganze Beleuchtung und Schattierung einer Szene beinhaltet. Im Spiel wird diese Lightmap dann über die Geometrie und die Texturen gelegt, damit es so aussieht, als würden Objekte realistisch beleuchtet und verschattet werden. Nur blöd, dass dann Beleuchtung und schatten an Ort und Stelle verbleiben, sobald man ein objekt mal verschiebt. Dynamische objekte können natürlich dann grundsätzlich in der Lightmap nicht abgebildet werden und "leuchten" dann innerhalb der Spielwelt erstmal unnatürlich, da sie nur sehr primitiv von der Echtzeitbeleuchtung beleuchtet und verschattet werden. Auch zu kleine Objekte können nicht erfasst werden, weil die Lightmap dann irsinnig groß (Speichergröße) werden würde. Weshalb nur größere Strukturen darin abegbildet werden. Damit nicht erfasste objekte dann halbwegs realistisch beleuchtet aussehen, klatscht man überall fake lichter und Schatten hin, teilweise mit billigen screen space effekten, um den Eindruck einer realistischen Beleuchtung zu erzeugen. Das ganze ist aber dann auch wieder sehr artefaktbehaftet und physikalisch einfach falsch. Es gleicht halt wirklich schon fast einem "Bild anmalen in Photoshop".

Das ist fast schon lächerlich primitiv, aber natürlich sehr wirksam, solange die Szene nicht dynamisch ist.


RT ist hingegen eben tatsächliche Simulation von Lichtstrahlen. Völlig anderer Ansatz und es dürfte nachvollziehbar sein, warum man den alten Mist nicht ewig so weiter führen kann. Ob man heute schon FullPathtracing braucht sei mal dahingestellt. Das ist eben ne performancefrage. Aber zumindest ne halbwegs simple RT GI ist das mindeste, was ich heutzutage bei einem grafisch aufwändigen Spiel sehen will. Mit UE5 und Lumen wird das aber eh zum Standard.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: akuji13, Guitarluke und shadACII
Gibt es eigentlich schon Infos, wie die Funktionen unter Linux funktionieren werden?
 

Ähnliche Themen

Zurück
Oben