News Upsampling: Vier von Fünf RTX-Spielern nutzen DLSS – auch auf CB?

cypeak schrieb:
man definiere bitte nativ.
Kein Super Resolution an.
Sprich das BIld was du siehst, wurde auch so von der GPU berechnet und nicht in einer niedrigeren Auflösung generiert und dann zu deiner gewünschten Auflösung upscaled (DLSS SR).
 
Komisch das es nicht eine Auswahlmöglichkeit gibt, dass man NUR dann DLSS oder gar FG nutzt, wenn es nicht genügend schnell native funktioniert. Oft tut es das, da verstehe ich nicht, warum ich trotzdem DLSS nutzen soll...
 
DJMadMax schrieb:
98, 97, 96 ... FPS wiederum sorgen immer mehr dafür, dass es vermehrt Lagspikes gibt, was allein technisch bedingt schon nachvollziehbar ist, denn irgend einer der Frames muss immer doppelt so lange angezeigt werden, damit wieder die 100 Hz des Monitors erreicht werden können.
ähm...das mag man vielleicht messen können, aber du als mensch kriegst davon nichts mit.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
_ROG_ schrieb:
V-Sync braucht man eigentlich nicht mehr seit es Gsync gibt. Gilt natürlich auch für FreeSync.
Mit der Aussage wäre ich vorsichtig. Blurbusters hat mal gut erkärt, wieso man V-Sync auch mit G-Sync aktivieren sollte:

Blurbusters schrieb:
Wait, why should I enable V-SYNC with G-SYNC again? And why am I still seeing tearing with G-SYNC enabled and V-SYNC disabled? Isn’t G-SYNC suppose to fix that?

The answer is frametime variances.

“Frametime” denotes how long a single frame takes to render. “Framerate” is the totaled average of each frame’s render time within a one second period.


At 144Hz, a single frame takes 6.9ms to display (the number of which depends on the max refresh rate of the display, see here), so if the framerate is 144 per second, then the average frametime of 144 FPS is 6.9ms per frame.


In reality, however, frametime from frame to frame varies, so just because an average framerate of 144 per second has an average frametime of 6.9ms per frame, doesn’t mean all 144 of those frames in each second amount to an exact 6.9ms per; one frame could render in 10ms, the next could render in 6ms, but at the end of each second, enough will hit the 6.9ms render target to average 144 FPS per.


So what happens when just one of those 144 frames renders in, say, 6.8ms (146 FPS average) instead of 6.9ms (144 FPS average) at 144Hz? The affected frame becomes ready too early, and begins to scan itself into the current “scanout” cycle (the process that physically draws each frame, pixel by pixel, left to right, top to bottom on-screen) before the previous frame has a chance to fully display (a.k.a. tearing).


G-SYNC + V-SYNC “Off” allows these instances to occur, even within the G-SYNC range, whereas G-SYNC + V-SYNC “On” (what I call “frametime compensation” in this article) allows the module (with average framerates within the G-SYNC range) to time delivery of the affected frames to the start of the next scanout cycle, which lets the previous frame finish in the existing cycle, and thus prevents tearing in all instances.


And since G-SYNC + V-SYNC “On” only holds onto the affected frames for whatever time it takes the previous frame to complete its display, virtually no input lag is added; the only input lag advantage G-SYNC + V-SYNC “Off” has over G-SYNC + V-SYNC “On” is literally the tearing seen, nothing more.
 
  • Gefällt mir
Reaktionen: Axonteer
Gsync brauchst Du immer. Wenn Du 150Fps Durchschnitt hast und auf 120Fps runterrutscht , dann ruckelt es. Gsync synchronisiert die FPS der GPU mit der Bildfrequenz des Monitors
 
Pheenox schrieb:
Denn physikalisch gibt es hardwareseitig Grenzen der Machbarkeit. Dass wir hier noch einen weiten Weg vor uns haben - geschenkt. Wir haben schon einen langen weg in den letzten 25 Jahren zurückgelegt und sehen die Entwicklung von damals zu heute.
Man könnte aber auch argumentieren, die Spielentwickler wollen mittlerweile grafisch mehr, also die Hardware auf dem aktuellen Entwicklungsstand liefern kann. Klar haben Spiele auch immer die Hardware vorangetrieben, aber meist waren es erstmal nur einzelne Spiele, die Grenzen der Hardware ausgelotet haben.

Vielleicht wurde Raytracing oder gar Pathtracing schlicht zu früh als Grafikfeature in der Breite eingeführt und wäre erst sinnvoll, wenn entsprechende Hardwareleistung auch im Mainstream verfügbar ist, statt das starke Auseinanderdriften von benötigter Rechenleistung und realisierbarer Rechenleistung mit Upscaling und Frame Generation zu kompensieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Axonteer
Eorzorian schrieb:
Also bis jetzt spiele ich nicht so aufwendige Spiele oder neue Spiele, die DLSS nötig hatten. Demnächst will ich mir zwei Teile der FF7-Serie, Cyberpunk 2077 und ein paar "neue" Spiele holen, dann wird man sehen, ob mein mickriger 8GB VRAM von RTX 3070 TI alles stemmen kann. Meine Erwartung ist aber schon negativ. :heul: :D
Mach Dir keine Sorgen.. ;)
 
Ich habe mal Lossless Scaling probiert, das kann jetzt auch mehrere Multi-Frames.
Ich hatte dann eine Art Schatten in den Bildern, wenn ich mich bewegt habe und die Mauseingabe war total schwammig.

Die App ist wahrscheinlich lange nicht so gut, wie das auf den RTX 5000 gemacht wird.
 
Ich stehe auf dem Standpunkt, dass DLSS und Konsorten mehr Krücke bzw. Retter in der Not sind, und nicht die bevorzugte Wahl sein sollten. Nicht, weil ich grundsätzlich etwas gegen "gefakte Frames" habe, sondern weil mich das Ergebnis nicht wirklich überzeugt.

Ich verbringe meine komplette Daddel-Zeit momentan wieder ausschließlich an der Schwertküste, und Baldur's Gate 3 in 1440p und auf einer 4070 Super sieht nativ und mit TAA aktiviert für mich deutlich hübscher aus als alle anderen Kombinationen von Grafikoptionen.

Upscaling auf "Quality" ist optisch zwar erstaunlich nah dran an nativer Auflösung, aber eben nur nah dran - wenn man die Unterschiede einmal erspäht hat, fallen sie immer wieder ins Auge. Zudem macht DLSS für mich in dem Spiel wenig Sinn: In den deutlich flüssiger laufenden Akten I und II braucht die Karte keine Hilfe: Mit allen Einstellungen auf Maximum und TAA aktiviert (DLAA sieht für mich "verwaschen" aus) schafft die Super fast die 165 Hz/FPS, die mein Monitor bringt. Da ich aber eh ein 100 FPS Limit gesetzt habe und die Karte undervolted läuft (sonst wird sie deutlich wärmer/stromhungriger/lauter ohne dass ich im Spiel einen großartigen Unterschied sehen könnte), ist das relativ wurscht.

In Akt III hingegen packt die Karte (das Spiel?) die 100 FPS nicht überall - an einigen besonders heftigen Orten mit vielen NPCs geht's runter auf 80, 85 FPS und DLSS auf Quality ändert daran nicht viel. CPU (i7 14700KF) scheint auch nicht höher belastet zu werden als in anderen Akten, also gehe ich mal von Optimierungsmängeln im Spiel aus.
Unterm Strich: DLSS/FG etc sind nette Optionen für die Hinerhand - wirklich entscheidend sollte aber die reine Raster-Performance sein. Es war zu befürchten, dass Nvidia da auf dem Launch-Event von Dingen wie "5070 = 4090" faseln würde .... für mich klingt das allerdings nach hohlen Versprechungen und irreführendem Marketing. Zudem stimmt es mich ziemlich pessimistisch was die "wahre" Leistung der 50xx-Karten unterhalb der 5090 angeht. Wenn da wirklich so viel Generations-Uplift kommen würde, müsste man dann DLSS 4 heranziehen, um die Karten in Performance-Charts gut aussehen zu lassen?

S.
 
  • Gefällt mir
Reaktionen: Romanow363, Axonteer, Slowz und eine weitere Person
DJMadMax schrieb:
FG funktioniert auch ohne Syncing - wenn der Monitor 360 Hz kann und ich durch FG "nur" 150 FPS erreiche, dann kann ich dennoch ruckelfrei, ohne Tearing und mit (abhängig vom Spiel) relativ gleichmäßigen Frametimes spielen.

Nochmal: Auch GSync / Freesync ist Syncing. Sonst hättest Du Tearing. Nur ist das Syncen eben variabel, weswegen Du mit 150fps kein Tearing hast, obwohl das kein Bruchteil von 360Hz ist.

DJMadMax schrieb:
Du verstehst aber nicht, dass ich mit Frame Generation keine "maximale Leistung" aus der Grafikkarte herausholen will. Wenn FG mir 150 FPS liefert, mir aber 100 FPS reichen, die ich ohne FG wiederum nicht erreiche, dann möchte ich exakt 100 FPS mittels Vsync haben.
Sprichst Du nun von VSync oder GSync? Denn bei einem 360Hz Monitor wirst Du niemals VSync mit 100fps haben. 100fps ist kein ganzzahliger Bruchteil von 360Hz. Mit VSync (ohne GSync) kannst Du mit einem 360Hz Monitor nur 360fps, 180fps, 90fps usw. mit konstanter Frametime anzeigen.

Deswegen verwendet man GSync und einen Framelimiter auf die gewünschte Framerate. Dann hast Du eine stabile fps mit stabiler Framepacing, auch auf zwischen-Frequenzen die eben keine ganzen Teiler Deiner Monitorfrequenz sind.
 
  • Gefällt mir
Reaktionen: DJMadMax und ElliotAlderson
Shio schrieb:
Kein Super Resolution an.
Sprich das BIld was du siehst, wurde auch so von der GPU berechnet und nicht mit einer niedrigeren Auflösung und dann upscaled (DLSS SR).
das reicht heutzutage nicht mehr - es geht nicht nur um de auflösung, sonder z.b. auch was für eine aa-technik zum einsatz kommt; wenn ich "nativ" rendere und bei dem nativen bind ein forciertes taa angewendet wird und dann vergleicht man das mit einem dlss sr bild, ist es kein wunder dass man meint das würde teilweise besser aussehen; gerade wegen dem schmieren das taa mitverursacht...

aber das hat heutzutage kaum jemand auf dem schirm; man macht dlss qualitätstests mit still-frames in die man reinzoomt und zeigt wie "geil" dlss details rekonstruiert gegenüber nativem bild - nur das man nicht gesagt hat wie die verwendete engine-konfiguration (gerade die unreal engine ist hier "berüchtigt") das native bild negativ beeinflusst hat; weil sich gerade bei einzelbildern bei einer bewegung das (häufig forcierte) taa die details verschmiert hat...
 
  • Gefällt mir
Reaktionen: Axonteer
_Blake_ schrieb:
wenn nicht gar besser als nativ

Wie kann was besser als native sein ? Entweder gleich aussehend oder anders .... Und dann ist es Geschmacksfrage

Wenn sich Programmierer was bei gedacht haben wie ein Bild auszusehen hat wie kann man dann sagen es ist besser ?
 
  • Gefällt mir
Reaktionen: Axonteer
Nativ sieht im laufenden (sorich bewegtbild) spiel halt einfach besser aus, aber da das performancenässig auf 1440p nicht mehr sauber spielbahr ist - leider - muss man notgedrungen zu dlss greifen. FG Ist je nach spiel/engine mal yay oder nay

Als ich damals vor viiielen jahren auf 1440p wechselte vom HD war für mich als leistungskompensation schon immer klar: lieber 1440p ohne AA als HD mit.
 
Zuletzt bearbeitet:
Capthowdy schrieb:
Mit der Aussage wäre ich vorsichtig. Blurbusters hat mal gut erkärt, wieso man V-Sync auch mit G-Sync aktivieren sollte:
Der VSync Schalter bedeutet etwas anderes wenn man GSync benutzt.

Denn auch GSync ist ja eine Synchronisation.

Der Unterschied zwischen VSync an und aus (bei eingeschaltetem GSync) entsteht erst, wenn die Framerate die Monitorfrequenz überschreitet.

Bei ausgeschaltetem VSync wird dann die Framerate auch höher als die Monitorfrequenz. Man hat dann aber Tearing (NUR wenn die Framerate höher als die Frequenz des Monitors ist).

Bei einschaltetem VSync wird die Framerate auf die Monitor-Frequenz begrenzt.

Besser als VSync ist ein FL unterhalb der Monitor-Frequenz. Dann ist es auch unerheblich, ob VSync an ist oder nicht.
Ergänzung ()

scryed schrieb:
Wie kann was besser als native sein ? Entweder gleich aussehend oder anders .... Und dann ist es Geschmacksfrage
Native ist ja nicht "perfekt". Auch native ist eine Rasterisierung auf die Pixel, also wird ein Bild auf ein festes Pixelraster gepresst. Das ist definitiv nicht perfekt.

Die Abbildung kann verbessert werden, und DLAA/DLSS ist dazu ein Weg und ist in nahezu allen Fällen auch besser als Native.
 
DLSS (Quality) immer (sofern verfügbar), Frame Generation nie. Bin dennoch auf die Ergebnisse mit Multi Frame Generation und das neue Transformer-KI-Modell im Allgemeinen gespannt.
 
  • Gefällt mir
Reaktionen: Myon und PeacemakerAT
Naitrael schrieb:
Wieso würde man Technologien simultan einsetzen, die exakt das Gegenteil voneinander sind?

Wenn du mit G-Sync, dann V-Sync ausschaltest, hast du kein G-Sync mehr. Das kannst du mit MSI Afterburner und einem Plugin sehen, ob die FPS und die VRR sich syncen
 
Ich habe es damals für mich bei CoD:MW 2019 getestet noch mit der RTX2060. Mehr FPS aber vor allem deutlich bessere Kantenglättung als bei nativer Auflösung mit AA. Sofern man nicht auf das Performance-Setting zurückgreifen muss und auf "Qualität" oder ggfls. noch drüber unterwegs ist, ist auch mit den Bild-Artefakten oder Schlieren alles unter Kontrolle.
 
AxelStu schrieb:
Weil es halt "Grafikfehler" produzieren kann, die einen gewaltigen nerven.
Die Grafikfehler sind aber massiv weniger als mit TAA und ist von der Bildqualität vergleichbar mit SSAA bzw. OGSAA bei etwa der Hälfte an Leistungskosten. Ich muss definitiv aufhören in diesen Thread zu schauen, da überkommt mich die geballte Verzweiflung.
AxelStu schrieb:
Mag an der Implementierung in dem jeweiligen Spiel liegen, aber schlussendlich ist das völlig egal, wenn man es sieht und es einen stört.
Das ist aber dann Nitpicking und Scheuklappen gegenüber den Verbesserungen, anders geht das gar nicht.
Flackern hast du mit DLAA definitiv viel viel weniger.
AxelStu schrieb:
Das Flickern hängt da mit den Schatten zusammen und ist selbst mit DLAA vorhanden.
Dann liegt es an den Schatten in Indiana Jones, die aber nichts mit DLAA zu tun haben.
AxelStu schrieb:
Indiana Jones: Teilweise extremes Schimmern von Kleidungsstücken. Feine Kanten, Zäune, etc. flickern auch stark.
PoE2: Gras wird zu einer grünen Matschepampe in Bewegung.
TLoU: Auch hier Flickern an Kanten. Einfach nur nervig.
Gerade gestern Abend 2h Indiana Jones und eine halbe TloU gespielt. Kann ich nicht bestätigen.
AxelStu schrieb:
Kann sein, dass du das nicht wahrnimmst, aber "offenkundig" ist es nicht immer besser.
DLAA? Doch, auf alle Fälle.
 
Zurück
Oben