News Nvidia DLSS 4 im Detail: Multi Frame Generation und ein neues neuronales Netzwerk

Mimir schrieb:
Schade, dass AMD damit nahezu irrelevant im Gaming GPU Markt wird. Ich wünschte wirklich, es wäre anders.
Ich glaube zwar nicht, dass AMD damit gleich irrelevant wird. Auch ich mit meiner 4070 Ti nutzte bisher Pathtracing überhaupt nicht (nur mal das "Subset" Raytracing). Primär, weil meine (wenigen) Spiele dies gar nicht unterstützen. Aber vermutlich auch, weil ich damit dann auch nicht weit kömmte. ^^

Aber immerhin könnte ich ja bei Bedarf nachlegen. Es wäre zwar teuer, aber möglich.

Bei "Retail"-GPUs ist bei AMD für mich schon länger fast gar keine "Linie" mehr zu erkennen. Ich habe (sehr) lange ausschließlich AMD-Karten gekauft. Das war für mich ok, solange der Zentralansatz der virtuellen Spielewelten Rasterizing war und ich bei AMD ein für meine Gaming-Ansprüche passendes Angebot vorfand.

Leider musste ich beim Thema openCL feststellen, dass so ein Mutliparallelrechenknecht von AMD mir als einfachem Hobbyisten abseits von Gaming (Blender, Affinity) wenig brachte. Ich habe die 7870 und Vega56, soweit ich mir erinnere, zusammen 8 Jahre genutzt. Es blieben für mich reine Gaming-Karten (der openCL-Compiler aus der Zeit der 7870 war ein schlechter Witz).

Die Gründe für den erstmaligen Wechsel auf AMD waren zwei: RTX4000 ist effizienter als die 7000er-Reihe und ich wollte mal selbst DLSS ausprobieren. Bei letzterem hatte ich insofern Glück, dass ich bei den "guten" Implementierungen eingestiegen bin. Und (auch) das hat mich bisher überzeugt. Zusammen mit der Effizienz hatte ich noch nie auch nur ansatzweise eine so leise und kühle Grafikkarte mit richtig gutem Output (zur Sicherheit: Bei den Spielen, die ich spiele). Und CUDA liefert - proprietär hin oder her.

Ich wünsche AMD, dass FSR4 qualitativ ähnlich gut wird. Aber auch bei dieser Generation ist es erst mal wieder "nur" ein Versprechen. Ich hoffe, AMD liefert dieses Mal - und zwar bevor die jetzt neue Generation schon wieder alt geworden ist. Mir reichte das allerdings nicht mehr.
 
timohepolis schrieb:
Klar bieten diese Technologien einen Mehrwert bei schwächeren Systemen, aber die vorhandene Hardware ausnutzen, tut keiner mehr so wirklich...
Es ist eine rein entwicklerpolitische Entscheidung, ob ein Spiel im Review als gut optimiert gilt oder nicht. In einer Welt ohne DLSS/FSR/FG hätte man das ursprüngliche Preset "Max" (oder "Episch oder wie die alle heißen) einfach gestrichen und die nächstunteren Presets solange in das neue "Max" Preset umbenannt, bis das Topmodell das einigermaßen packt.

Siehe z. B. die Stalker 2 "True Epic Graphic Settings" Mod, die anscheinend u. a. ein paar Einstellungen in der ini ändert. Die technischen Möglichkeiten waren also vorher schon da, aber haben sich wohl aus Entwicklersicht nicht gelohnt. Allerdings will man auch mit guter Grafik werben und den Besitzern von Top-GPUs auch etwas bieten.
 
  • Gefällt mir
Reaktionen: Kraeuterbutter
Mimir schrieb:
Die Schärfe steigt halt deutlich an, wenn das Bild in Bewegung ist. Das sieht man schon. Flüssig ist ein Spiel bereits mit 80-90 FPS. Aber wirklich scharf wird es eben erst bei extrem hohen Bildraten.
Nur bei TAA, DLSS, und anderen Effekten die über mehrere Frames berechnet werden. Bei Frames die für sich alleine vollständig sind ist das nicht nötig, die sind auch bei 30 FPS in Bewegung schon scharf
Mimir schrieb:
Verstehe deinen Punkt aber nicht. Wenn das Feature verfügbar ist, macht man es eben an und hat ein deutlich schärferes Bild in Bewegung. Gibt doch keinen Grund, sich darüber zu ärgern, nur weil es existiert und man damit ne Verbesserung bekommt. Du versuchst dem ganzen irgendwie grundlos die Daseinsberechtigung nehmen zu wollen....

Natürlich ist das nicht überlebenswichtig, um ein Spiel genießen zu können. Aber das zählt auch allgemein für aktuelle Grafikkarten....
Aber das halt damit gebencht wird. Sowohl von Nvidia, als auch von der Presse.
Der ganze Fokus liegt nun auf Frame-Gen. Was wie gesagt nutzlos ist. Die DIE Fläche hätte für besseres Raster verwendet werden können, oder alternativ mehr RT cores für mehr echte samples. Oder alternativ, wenn man bei Tensor Cores bleibt könnten die Tensor Cores was anderes sinnvolleres machen als diesen Murks. Stattdessen biegt man jetzt die Pipeline dafür um
Ergänzung ()

ElliotAlderson schrieb:
Nein, die Latenz wird nicht zwangsweise verschlechtert. Wir haben die Technik jetzt seit über 2 Jahren und einige raffen es einfach immer noch nicht.
Die Latenz wird schlechter. Es kann gar nicht anders sein. Das versucht man zwar durch Reflex auszugleichen, aber Reflex funktioniert halt auch ohne Frame gen. Das zeigen auch alle Tests die dazu gemacht wurden.

Die geringste Latenz hast du immer wenn du jedes errechnete Frame so schnell wie möglich darstellst. Nicht wenn du ein Frame 1-3 Frames zurück hältst um dazwischen noch 1-3 weiter künstliche Frames anzuzeigen.
 
  • Gefällt mir
Reaktionen: Virny
@Wolfgang

Denn während das CNN primär die Bewegungen von Pixeln in einer festgelegten Region über mehrere Frames hinweg überwacht. War das Pixel aus dieser Region verschwunden, waren auch die vorher gewonnenen Informationen weg.

fehlt hier evtl ein Satz?
und wo wäre genau der Unterschied zwischen beiden Varianten. Laut Text beobachten ja beide über mehrere Frames hinweg.

Das neue neuronale Netzwerk auf Basis von „Vision Transformer“ dagegen kann Pixel über den gesamten Frame und mehrere Frames hinweg beobachten
 
Mimir schrieb:
Die Schärfe steigt halt deutlich an, wenn das Bild in Bewegung ist. Das sieht man schon. Flüssig ist ein Spiel bereits mit 80-90 FPS. Aber wirklich scharf wird es eben erst bei extrem hohen Bildraten.
Das Problem der schlechten motion clarity wird aber nicht durch zu niedrige fps erzeugt, sondern ist ein latentes Problem aller sample and hold Displays; hohl den alten Röhrenmonitor wieder raus und du hast auch mit 60fps gestochen scharfe Bewegung.
Digital Foundry's John meinte in einem Kommentar zu den recht neuen WQHD 480Hz OLED Monitoren, dass deren motion clarity beinahe auf Röhrenmonitor -Nivea ist, aber nur wenn man auch entsprechen hohe fps hat. Dass scheint mir bisher der einzig interessante Einsatzbereich von MFG zu sein. Wer mit 120/144Hz unterwegs ist wie ich will echte frames, damit alles schon fluffig von der Hand geht, mit Controller tuns auch 60.
 
phanter schrieb:
Nur bei TAA, DLSS, und anderen Effekten die über mehrere Frames berechnet werden. Bei Frames die für sich alleine vollständig sind ist das nicht nötig, die sind auch bei 30 FPS in Bewegung schon scharf

Nein, sind sie nicht.

OLEDs haben schaltzeiten von unter 0,1 ms, wären also theoretisch schnell genug für 10.000 Hz. Jedes einzelbild ist also perfekt scharf, weil die Pixel nahezu instantan umschalten.

Und dennoch sieht Bewegung bei 60 Hz auf einem OLED so aus, wenn man ein Objekt, das über den Bildschirm wandert mit den Augen verfolgt:
https://i.rtings.com/assets/products/fd4XcUMe/asus-rog-swift-oled-pg32ucdm/pursuit-60hz-large.jpg

Bei 120 Hz so:
https://i.rtings.com/assets/products/NWJGhWbE/asus-rog-swift-oled-pg32ucdm/pursuit-120hz-large.jpg

Und bei 240 Hz so:
https://i.rtings.com/assets/products/naOpmcIm/asus-rog-swift-oled-pg32ucdm/pursuit-max-large.jpg



Das Problem ist einfach, dass durch das sample and hold prinzip das Bild für die gesamte Frametime angezeigt wird. Also bei 16,6 ms wird dein Auge 16,6 ms mit ein und dem selben Bild belichtet, bevor dann das nächste kommt. Das ist natürlich zu 100% so gewollt und perfekt um ein Bild ohne jegliches Flimmern zu haben. Dieser Umstand sorgt aber prinzip bedingt für einen optischen Unschärfeeffekt, den man nur mit Backlight Strobing (also das einfügen von flimmern, was man ja eigentlich vermeiden will) oder extrem hohen Bildraten weg bekommt.

1000 Hz sollten vorerst als Ziel reichen, um nahezu perfekte Schärfe für die meisten Inhalte in Bewegung zu erreichen. Frame Generation hilft, dieses Ziel zu erreichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Guitarluke, ElisaMüller und shadACII
Fyrex schrieb:
Wird doch ständig bei CPU Benchmarks gemacht. Da laufen dann Spiele in 720p usw. , also überhaupt keine realistischen Szenarien für High-End-CPUs. Da stört es auch keinen.
Das hat da schon einen komplett anderen Hintergrund.

Bei CPU´s limitieren die Grafikkarten oft massiv. Durch 720p schält man die echte Leistungsfähigkeit und da auch Zukunftsfähigkeit von CPU´s weit besser heraus, als wenn man alle einfach im GPU-Limit laufen lassen würde.

Bei Grafikkarten ist es einfach nur blöd, nicht mit DLSS zu testen. Wenn DLSS 4 die gleiche Qualität erzeugt, wie AMD FRS2, dann sollte man auch genau diese beiden (in der Realität) auch genutzten Situationen vergleichbar.

Was bringt mir die z.B. Aussage "AMD ist in der Rohleistung 20% schneller", wenn am Ende jedes Spiel (in der Realität) mit vergleichbarer Bildqualität und vergleichbarer Latenz, auf Nvidia 3x schneller läuft?
 
  • Gefällt mir
Reaktionen: Powl_0, goldeye, Kraeuterbutter und eine weitere Person
Mimir schrieb:
Und dennoch sieht Bewegung bei 60 Hz auf einem OLED so aus, wenn man ein Objekt mit den Augen verfolgt:
Tut sie halt nicht. Das ist ein Bild mit wesentlich längere Belichtung als es ein Auge hat.

Ein Bild bei 60Hz im OLED ist scharf aber hat ein leichtes "stepping", zwischen Frames, da wie du richtig sagst Frames länger gehalten werden als eigentlich real.

Das nehme ich aber bei 100Hz nicht mehr wahr.
 
  • Gefällt mir
Reaktionen: Lors
phanter schrieb:
Die Latenz wird schlechter. Es kann gar nicht anders sein. Das versucht man zwar durch Reflex auszugleichen, aber Reflex funktioniert halt auch ohne Frame gen. Das zeigen auch alle Tests die dazu gemacht wurden.
Soweit richtig, aber gegenüber nativ ohne irgendwelche Features, wird es eben nicht schlechter.
Dazu kommt, dass du nicht in jedem Spiel Reflex separat aktivieren kannst. Da hast du dann nur FG on vs. off.

Das mit der Latenz hält sich auch stark in Grenzen. Habe es in CoD ausgetestet und du merkst absolut 0 Unterschied, wenn die FPS hoch genug sind.
 
Fraggil schrieb:
In den kurzen Video Clip ist auch erkennbar wie jede DLSS Version das Bild dunkler macht.
Bildvergleiche in komprimierten Videos kannst du vergessen. Jedenfalls wenn's um solche Feinheiten geht. Die Videos sind immer dunkler. Nimm mal eins auf und lads mal bei yt hoch.
 
gustlegga schrieb:
das Wasser auf Sandböden und Kopfsteinpflaster...
ich weiß worauf du hinaus willst... Effekte und Stimmungen um die Technik zu zeigen, quasi..

aber: auch auf Sandböden und auf Kopfsteinpflaster kann Wasser stehen..
merk ich jedesmal nach Regenwetter wenn hier im Hof auf dem Sandweg direkt vom Gartentürl ne 2m große Lacke steht arghh
 
  • Gefällt mir
Reaktionen: gustlegga
guggi4 schrieb:
Ich finde das irgendwie bisschen missverständlich.
So klingt das, als wären 40% der Frames "echt", es sind aber nur 25%.
Ich glaube es geht bei der Aussage nicht um das Verhältnis von generierten zu echten Frames sondern ums Verständnis wo sich die generierten Frames in Position zu den echten befinden.
also: Frame 1, GenF1+ GenF2+ GenF3, Frame 2

Für die Verhältnisrechnung wäre Frame 2 dann obsolet bzw. verzerrend, fürs Verständnis zum Ablauf nicht.
 
phanter schrieb:
Das nehme ich aber bei 100Hz nicht mehr wahr.
Ich glaube da haben wir den wichtigen Punkt. Du nimmst das nicht mehr wahr. Ich habe zwar selbst (noch) keinen OLED, aber merke einen sehr großen Unterschied in der wahrgenommenen Schärfe von 144 Hz IPS und 144 Hz IPS + Backlight Strobing. Demnach ist FG für dich wohl tatsächlich uninteressant, ich find es schon cool meine FPS von ~70 auf über 144 zu bekommen, auch wenn es keine echten sind und ich damit nicht den Vorteil von weniger Latenz habe.

phanter schrieb:
Die Latenz wird schlechter. Es kann gar nicht anders sein. Das versucht man zwar durch Reflex auszugleichen, aber Reflex funktioniert halt auch ohne Frame gen. Das zeigen auch alle Tests die dazu gemacht wurden.
phanter schrieb:
Die geringste Latenz hast du immer wenn du jedes errechnete Frame so schnell wie möglich darstellst. Nicht wenn du ein Frame 1-3 Frames zurück hältst um dazwischen noch 1-3 weiter künstliche Frames anzuzeigen.
Also im besten Fall ändert sich die Latenz einfach nicht mit Frame Gen, wie der Test von CB auch zeigt:
https://www.computerbase.de/artikel...nvidia-dlss-frame-generation-vergleich.86978/

Läuft Reflex 2 Warp eigentlich nur auf den nativen Frames oder auch auf den FG Frames? Mit naivem Blick hätte letzteres ja sogar das Potenzial die Latenz mit FG sogar zu verbessern.
 
Fyrex schrieb:
Die ganzen Software-Spielereien, künstlichen Fake-Frames und hochskalierten Bilder interessieren mich wenig.

Es wird ja niemanden gezwungen, DLSS FG oder DLSS SR einzuschalten: Einfach Pathtracing ausschalten und gut ist. Dann hat man auch mit älteren RTX Karten auch noch genügend Leistung, um neue Spiele schön aussehen zu lassen.
 
 
  • Gefällt mir
Reaktionen: ElisaMüller und Humbertus
Kraeuterbutter schrieb:
aber: auch auf Sandböden und auf Kopfsteinpflaster kann Wasser stehen..
merk ich jedesmal nach Regenwetter wenn hier im Hof auf dem Sandweg direkt vom Gartentürl ne 2m große Lacke steht arghh
Ich red nicht von Wasserlacken. Die halbe Stadt war ein See.
Das hat dann mit Immersion halt auch nix mehr zu tun.
:D
 
BxBender schrieb:
Noch mehr Zwischenbilder sorgen für noch mehr falsche Informationen und Fehldarstellungen.
Ergo hätte man beispielsweise nur noch jedes 4 Bild in korrekter Darstellungsweise.
Und dazu kommt noch, dass jedes dieser vierten Bilder auch nicht die ganze Wahrheit darstellen, da sie per KI hochskaliert wurden.

Mimir schrieb:
Dass Nvidia dann über die Software und dafür ausgelegte Architekturoptimierungen trotzdem große Fortschritte erzielen kann grenzt fast schon an ein Wunder. Dass AI genau jetzt den "Tag rettet" wo die Chipfertigung an vorläufige Limits gerät ist ein sehr glücklicher Zufall.
Ein Wunder ist das nicht. Nachdem man gemerkt hat, dass man mit Taktfrequenzen und Strukturgrößen nicht mehr großartig skalieren kann, hat man zunehmend auf parallele Verarbeitung gesetzt. Nachdem die aber auch problematisch ist*, versucht man halt nun die Menge der zu verarbeitenden Daten gering zu halten und interpoliert, wo man es für nötig hält. Aber auch das ist nicht grenzenlos. Irgendwann muss der Chip zu viel raten/interpolieren und dann werden die Fehler einfach zu groß.

Und dann wird die nächste Sau durchs Dorf getrieben. Was das sein wird, weiß ich nicht. Vielleicht gießt man ja dann gleich die halbe Grafikengine direkt in die Hardware, sodass diese noch effizienter laufen können. Es gibt ja nur noch ein Hand voll großer Game Engines, der Aufwand ist also "überschaubar". Es würde auch Fehler minimieren, da alle Entwickler dann nun mehr oder weniger die gleichen ausgereiften und durch getesteten Funktionen verwenden. Dann braucht es nicht bei jedem neuen Spiel neue, angepasste Treiber.

Es ist auch denkbar, dass man noch mehr spezialisierte Funktionseinheiten im Chip anbietet. Die Nvidia-GPUs haben ja bspw. Shader- und Tensor-Kerne. Da kann man sicher noch ein paar Dinge weiter ausdifferenzieren und entsprechend effizienter rechnen lassen.

* Nicht jede Aufgabe kann beliebig parallelisiert werden und irgendwann frisst das immer komplexere Management unzähliger neuer Funktionseinheiten jegliche Mehrleistung auf.
 
Ich bring das jetzt aber noch nicht ganz zusammen aus der Grafik von NV und dem Text: das einzige "neue Feature" das nicht auf ner 40XXer läuft ist die neue Multi-Frame Generation, aber die upgedateten DLSS Algorithmen (#4) schon.

Oder die auch nur auf ner 50XXer?
 
ElliotAlderson schrieb:
Doch FSR4, aber während AMD daran arbeitet die BQ von DLSS einzuholen, haut Nvidia schon die nächsten Features raus.
Wobei DLSS 4 keine Pflicht ist.
Kann mit meiner 7900XTX bzw. 4080 genauso gut jedes Spiel spielen.
Oder wird die 4xxx Reihe Obsolet weil es kein DLSS4 + FG kann
 

Ähnliche Themen

Zurück
Oben