• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Deliver Us Mars: Sci-Fi-Abenteuer hebt mit Raytracing und DLSS 3 ab

Taxxor schrieb:
Der Schärfefilter wäre in diesem Fall so oder so notwendig, weil das native Bild mit TAA zu verwaschen ist.
Wäre die Software Performant genug um downsampling zu nutzen, bräuchte man weder taa noch dlss.
 
theGucky schrieb:
Der Publisher scheint sogar genug Geld zu haben um Denuvo zu bezahlen, also würde ich KeokeN Interactive nicht mehr als Indie-Entwickler einstufen.
Ist doch gut so...
Glaub viele verwechseln Indie Projekte, welche unter der AA Qualität liegen oft mit sowas hier.
Am Ende ist es ein Studio, welches AA Titel produziert und dann über einen Publisher published.
Hätte tatsächlich lust auf das Game, ABER: die Animationen (gerade beim schnellen laufen) haben mich direkt abgeschreckt, das sieht grausig aus, schaut mal wie hölzern das wirkt und die Füße gleiten quasi über den Boden / und die Treppen rauf....
Hier merkt man meist auch die Quali Unterschiede zwischen AA und AAA Titeln. Wobei es aber auch AAA Titel von Indie Entwicklern geben kann.
 
floh667 schrieb:
Wäre die Software Performant genug um downsampling zu nutzen, bräuchte man weder taa noch dlss.
Ja wow, hätten wir heute die Leistung einer 6090 für 500€ könnte man das auch machen.

Ist aber halt nicht drin, genau so wenig wie du mit dem Buzzword „Optimierung“ ein God of War bei gleicher Optik mit den dreifachen FPS laufen lassen kannst, um DLSS gegen Downsampling tauschen zu können.
Die Anforderungen an die GPU werden, vor allem mit RT schneller steigen als die GPUs mitkommen.

Im Fall dieses Indie Titels liegt es klar an der Optimierung, das Spiel müsste deutlich besser laufen bei der Optik. Aber ein God of War ist nicht schlecht optimiert und du bekommst aktuelle AAA Titel, die auch nach was aussehen, nicht einfach so dazu, mit 120FPS in 4K downsampled von 8K auf ner 4070 zu laufen.
 
Zuletzt bearbeitet:
floh667 schrieb:
Wäre die Software Performant genug um downsampling zu nutzen, bräuchte man weder taa noch dlss.
Falsch- Für stochastische Effekte ist die temporale Glättung unerlässlich. Sonst hast Du Ameisenkrabbeln und Flimmern aus der Hölle:

Hier ab 2:12

Aber ich weiss- Nur so macht Dir das Spielen dann auch richtig Spaß, denn Du hast dann schließlich das gute Gefühl, dass dann kein "Schummeln" stattfindet und alles schön "nativ" dargestellt wird.

Nur gut, dass die neuen Karten mit DLSS (mit dedizierten Einheiten) und in etwas schlechterer Qualität FSR (über Shader) solch eine Rechenkraft entwickeln, dass bereits kurze Zeit nach Szenenwechsel durch intelligente Kumulation der Daten das von Dir geliebte Downsampling betrieben wird, auch ohne dass die Software da speziell optimiert sein muss oder man Bruteforce die bereits berechneten Pixel immer wieder verwirft und von neuem rechnet. Das ist absolut ineffizient.

Diesen nativen, durch Quantisierungsartefakte durchlöcherten Schrott bei feinen Strukturen inkl. Treppchenbildung will sowieso niemand mehr.

Ich gebe Dir Recht in dem Punkt, dass heutzutage alle User und viele Entwickler dazu neigen, die Szenen zu überschärfen. Finde ich auch nicht gut.
 
Zuletzt bearbeitet:
@Blackfirehawk

Da ich selber aktuell keine moderne Nvidia GPU besitze, kann ich leider nur das wiedergeben was ich über DLSS und Co gelesen habe. Es soll doch zu diversen Artefakten kommen mit DLSS und FSR. Ghosting ist auch so eine Problematik. Wurde nicht mal ne Zeitlang von den Freunden von Eyecandy wild irgendwelche DLL files ausgetauscht, um per spezifischer DLSS Version bessere Ergebnisse zu bekommen? Hab das irgendwo mal aufgeschnappt.

Wenn der Benefit dieser Technologien erst bei hohen FPS zum tragen kommt, dann verfehlt man damit doch das eigentlich Ziel? Ich dachte immer das man damit kaum spielbare Raytracing-Grafikschlachten in den spielbaren FPS-Bereich bringen wollte. Der Sprung von zB 120 zu 240 FPS ist halt relativ witzlos, besonders wenn man keinen positiven Einfluss bgzl Input-Lags hat.

Aktuell wird Frame Generation doch nur per DLSS-Framework und dann irgendwann mit AMDs FSR umgesetzt. Darum sehe ich da auch keine Trennung zwischen Aufblasen der Auflösung und Einschieben von interpolierten Fake-Frames. Ist mehr so eine Evolution.

Das sind spannede Technologien, welche wohl irgendwann zum Standard werden. Aktuell sehe ich aber noch einige unschöne Nachteile.

Im Grunde wollen wir doch alle hohen FPS im mittleren dreistelligem Bereich, gepaart mit maxed out settings (+ cfg tweaks, mods, dll hax) bei mindestens 8k und das ganze ohne Input-Lags! x)
Ergänzung ()

.Sentinel. schrieb:
Knapp daneben ist auch vorbei- Für "lau" bekommt man es nur deshalb nicht, weil ein Titel eben entsprechend saubere Inputs liefern muss und weil man um ein sauberes Ergebnis erhalten zu können erheblich Rechenleistung vorhalten muss, um besser als nativ auszusehen. Die Tensor cores kosten Die- Fläche und den User somit Geld. Liefern aber für ihre Aufgabe unglaublich viel Rechenleistung.
Es ist wesentlich einfacher. Man bekommt es nicht für "lau", weil es einfach zusätzliche Rechenschritte kostet. Aber anscheinend ist es billiger, als direkt ein neues Frame zu rendern. Und besser als nativ sieht da auch nichts aus. Das geht rein prinzipbedingt einfach nicht.

Btw diese Aussage "DLSS sieht besser aus als eine native Auflösung" habe ich schon öfters ausserhalb von Tech-Foren gelesen und auch im eigenen Bekanntenkreis schon gehört. Wie kommt man darauf?

.Sentinel. schrieb:
Frame Generation ist das Feature, welches genau für die smoothness auf dem Bildschirm sorgt. Als eher das Gegenteil von dem, was Du beschreibst.
Wenn ich von smoothness schreibe, dann meine den wichtigen Faktor des Input-Lags bzw die Latenz zwischen Eingabe und Ausgabe. Und gerade bei diesem wichtigen Punkt sehe ich eher Nachteile bei Upscaling und Frame Generation.

Also bleibt es bei der Abwägung zwischen eyecandy und smoothness.
 
Zuletzt bearbeitet:
Player(1) schrieb:
Btw diese Aussage "DLSS sieht besser aus als eine native Auflösung" habe ich schon öfters ausserhalb von Tech-Foren gelesen und auch im eigenen Bekanntenkreis schon gehört. Wie kommt man darauf?
Weil das SS in DLSS Supersampling bedeutet. Nativ gerendert bedeutet, dass Du ein Sample pro Bildpunkt hast.

Temporales Supersampling bedeutet, dass Du temporal Daten anhäufst, die nach wenigen Frames die Zielauflösung, die hier als Nativ bezeichnet wird an Samples überflügelt.

Und weil die DLSS Auflösung intern mit einer höheren Pixelanzahl als nativ rechnet, kann dieses folglich auch fehlende Details darstellen, welche in der nativen Auflösung lückenhaft erfasst werden:
https://www.computerbase.de/forum/t...aytracing-und-dlss-3-ab.2128870/post-27850609

Du hast also für einen Pixel mehr Information, womit der Farbwert eines Pixels treffsicherer gebildet werden kann und nicht im Quantisierungsrauschen, die die native Auflösung immer mit sich bringt, untergeht. Letztenendes ist es DSR. Wobei DSR schon ab Frame 1 nach Szenenwechsel ein Downsampling bietet und DLSS erst nach Frame 3-4.

Player(1) schrieb:
Wenn ich von smoothness schreibe, dann meine den wichtigen Faktor des Input-Lags bzw die Latenz zwischen Eingabe und Ausgabe. Und gerade bei diesem wichtigen Punkt sehe ich eher Nachteile bei Upscaling und Frame Generation.
Im Gegenteil- Hier wurden doch jetzt schon wirklich in mehreren Threads genügend Messungen gepostet.
DLSS3 im Gesamtpaket war grundsätzlich immer UNTERHALB der Latenz der in nativen Auflösung berechneten Frames.
Wenn man also mit DLSS3, also z.B. DLSSQuality+Reflex+FG plötzlich Latenzprobleme wittert, dann muss das Spiel vorher NOCH schlechter spielbar gewesen sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Player(1)
@.Sentinel. Ja das Prinzip von Supersampling ist mir bekannt. War ja quasi der heilige Gral des AAs. Deine kurze Beschreibung ist sehr klar und verständlich und lässt auch tief blicken. Der Herr kennt sich aus! x)

Aber bezieht sich jetzt das SS bei DLSS dann nicht eher auf die endgültige Auflösung aufm Screen, denn intern wird auf der Ebene des Spiels doch in einer niedrigeren Aufösung gerendert.

Oder geht das SS bei DLSS über die Zielauflösung hinaus? Ich zumindest habe davon bis jetzt nichts derartiges gelesen.

Edit: Jetzt lese ich deine Post zum zweiten mal und meine Nachfrage hat sich damit erledigt. Oder hast Du den Post noch bisschen mit Infos angereichert?

Edit2: Da du wild deinen Beitrag editierst war meine Verwirrung wohl nicht ganz unbegründet. Die Latenz zwischen Eingabe und Ausgabe bei DLSS vs nativ ist niedriger? Bei gleichen FPS? (x) doubt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Player(1) schrieb:
Wenn der Benefit dieser Technologien erst bei hohen FPS zum tragen kommt, dann verfehlt man damit doch das eigentlich Ziel? Ich dachte immer das man damit kaum spielbare Raytracing-Grafikschlachten in den spielbaren FPS-Bereich bringen wollte. Der Sprung von zB 120 zu 240 FPS ist halt relativ witzlos, besonders wenn man keinen positiven Einfluss bgzl Input-Lags hat.

Aktuell wird Frame Generation doch nur per DLSS-Framework und dann irgendwann mit AMDs FSR umgesetzt. Darum sehe ich da auch keine Trennung zwischen Aufblasen der Auflösung und Einschieben von interpolierten Fake-Frames. Ist mehr so eine Evolution
Ich hab's auch lieber nativ als mit dlss und raytracing ist nach wie vor für mich etwas wo ich sage.. es sieht anders.. aber nicht wirklich besser aus...
Vorallem nicht in Anbetracht der Leistung die es verschlingt.


Was das kaum spielbar in spielbare FPS durch framegeneration angeht..
Du brauchst halt eine gewisse Menge Bilder die Sekunde zum interpolieren..
Je mehr Daten vorhanden sind desto leichter tut sich die KI..
Ist ja mit DLSS nicht anders.. aus 50% Auflösung zaubert das auch kein gutes Bild.
Und je mehr Bilder die Sekunde.. desto weniger fallen dir verwaschene Zwischenbilder auf wenn die kI es nicht hinbekommt (gibt da diverse YouTube Videos mittlerweile zu)
Je mehr FPS desto niedriger die Zeit wo dir ein fakeframe dargestellt wird.
Und je weniger sich zwischen 2 Bildern ändert desto genauer wird es.


Selbst Hardware unboxed empfiehlt 60fps nativ Minimum.
Deswegen auch meine Aussage je mehr Nativ-fps man hat desto mehr Daten hat die KI
Desto weniger fallen dir Bildfehler von fakeframes auf..


Frame Generation ist unabhängig von DLSS.. du kannst auch DLSS einfach ausgeschaltet lassen und nativ zocken und die FG dazu schalten als boost.
Wenn du nativ fast deine 120fps machst kannst du halt einen 240hz Monitor richtig schön ausnutzen und die Smoothness genießen..


DLSS 3 ist im Grunde genommen der überbegriff von DLSS (egal welche Version)+ FG

Was den inputlag angeht.. es kommt halt aufs Spiel an.. n schönes Singleplayer Spiel ist das ganze nicht so tragisch
Bei nem Shooter oder Rennspiel schon eher..

Und inputlag ist halt auch immer sehr subjektiv.. manches ist messbar aber nicht fühlbar.

Anderseits.. entweder du hast deine 40ms inputlag mit 120fps weil du auf FG verzichtest..
oder du hast deine 40ms inputlag mit 240fps weil du FG nutzt

Du hast ja im Grunde nicht den inputlag verloren.. sondern frames gewonnen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Player(1)
Player(1) schrieb:
Aber bezieht sich jetzt das SS bei DLSS dann nicht eher auf die endgültige Auflösung aufm Screen, denn intern wird auf der Ebene des Spiels doch in einer niedrigeren Aufösung gerendert.
Das Bild wird bei DLSS anders generiert.
Du generierst nicht mehr die die Pixel stur nach Darstellungsraster am Bildschirm, sondern in niedrigerer Auflösung, dafür aber bei jedem Framewechsel in anderer Anordnung (halton sequenz). Somit erfasst Du schonmal grundsätzlich Pixel, die bei der nativen Auflösung unter den Tisch fallen können, weil dadurch eben Pixelpositionen auch außerhalb des sturen Rasters erfasst werden.

Oder geht das SS bei DLSS über die Zielauflösung hinaus? Ich zumindest habe davon bis jetzt nichts derartiges gelesen.
Du hast es erfasst. Bei Nutzung von DLSS verwirft das System bereits berechnete Pixel nicht, sondern integriert diese zusätzlich zu den pro Frame neu berechneten Pixeln so lange, bis (und jetzt kommt die AI ins Spiel) die AI mit seiner antrainierten Gewichtungsabschätzung sagt, dass dieses Pixel nicht mehr gut ist, weil es z.B. verdeckt wird bzw. die Position durch Bewegung der Pixel der einzelnen Frames durch die AI nicht mehr genau eingeordnet werden kann.

Blackfirehawk schrieb:
Ich hab's auch lieber nativ als mit dlss
Dann hast Du ein falsches Bild von DLSS. Im schlimmsten Fall tauschst Du DLSS- Artefakte gegen Quantisierungsartefakte wie Aliasing und löcher in feinen Strukturen mit der nativen Auflösung. Mit dem Unterschied, dass Du ohne DLSS oft 50% und mehr Leistung auf der Straße liegen lässt.
Und auch nicht vegessen. DLSS senkt die Latenz. Somit kommst Du nativ insgesamt inzwischen schlechter weg.
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
Selbst Hardware unboxed empfiehlt 60fps nativ Minimum.
Deswegen auch meine Aussage je mehr Nativ-fps man hat desto mehr Daten hat die KI
Desto weniger fallen dir Bildfehler von fakeframes auf..
Dann ist das so ähnlich wie mit tearing in den pre VRR-Zeiten. Das wurde auch erst ab mittleren FPS-Bereichen erträglich. vsync ist ja nur für Masochisten ^_^

Ich persönlich finde diesen Umstand mit den min60fps schon irgendwie schade. Denn damit verkommen diese Technologien zu reinem Luxus. Ich fänds geiler wenn unspielbar 20fps zu ordentlichen 60fps aufgeblasen werden könnten.

Blackfirehawk schrieb:
was den inputlag angeht.. es kommt halt aufs Spiel an.. n schönes Singleplayer Spiel ist das ganze nicht so tragisch
Bei nem Shooter oder Rennspiel schon eher..

Und inputlag ist halt auch immer sehr subjektiv.. manches ist messbar aber nicht fühlbar
Ich komme noch aus der alten Zeit wo man sich von CRTs vollstrahlen lassen hat. Da war der Wechsel auf TFT-Screens sehr stark spürbar. Selbstverständlich sind wir nun wieder wesentlich weiter und wahrscheinlich sind moderne Displays, besonders diese verrückten TN-Panels mit 300+hz, auch nicht mehr von diesem Effekt betroffen. Trotzdem sehe ich zusätzliche Interpolation als kontraproduktiv an. Besonders wenn es nur für high fps Junkies wirklich nutzbar ist.

Eine kleine Bitte hätte ich aber noch an Dich. bei DLSS gibts keine KI. Im Grunde gibt es garkeine KIs. Das sind nur per machine learning generierte Algorithmen.
"KI" ist halt seit paar Jahren ein trendy Thema und ist dabei mehr zu einem buzzword degeneriert. Das triggert mein Nerd-Hirn. x)
 
.Sentinel. schrieb:
Dann hast Du ein falsches Bild von DLSS. Im schlimmsten Fall tauschst Du DLSS Artefakte gegen Quantisierungsartefakte der nativen Auflösung. Mit dem Unterschied, dass Du ohne DLSS oft 50% und mehr Leistung auf der Straße liegen lässt.
Und auch nicht vegessen. DLSS senkt die Latenz. Somit kommst Du nativ insgesamt inzwischen schlechter we
Ich hab bis jetzt keine dlss Version in egal welchen Spiel gesehen die "besser als das Original" aussieht.
Alles unterhalb von "ultra quality" ist für mich sogar eine massive Verschlechterung der Bildqualität und nicht lohnend.

Was ich allerdings gut finde ist DLAA.. das ist schön knackig und besser als TAA als anti aliasing
 
Player(1) schrieb:
Eine kleine Bitte hätte ich aber noch an Dich. bei DLSS gibts keine KI. Im Grunde gibt es garkeine KIs. Das sind nur per machine learning generierte Algorithmen.
"KI" ist halt seit paar Jahren voll trendy Thema und das triggert mein Nerd-Hirn. x)
Definitionssache. In dem Falle wird ein neuronales Netz simuliert, welches durch deep- learnig antrainierte Gewichtungen vornimmt.
Letztendlich funktioniert unser Gehirn auch nur mit Elektronen. Somit ist das auch nur ein extrem Leistungsfähiger mit jeder menge sparsity durchsetzter algorithmus :)
 
Player(1) schrieb:
Ich komme noch aus der alten Zeit wo man sich von CRTs vollstrahlen lassen hat. Da war der Wechsel auf TFT-Screens sehr stark spürbar. Selbstverständlich sind wir nun wieder wesentlich weiter und wahrscheinlich sind moderne Displays, besonders diese verrückten TN-Panels mit 300+hz, auch nicht mehr von diesem Effekt betroffen
Ich bin auch noch mit CRT aufgewachsen..
Selbst ein 300hz LCD schmiert dir die Details zusammen weil die Pixel respons Zeit mies ist..
Da musst du schon OLED nehmen.. die bekommen das hin..

Ich kann dir aus eigener Erfahrung vergewissern das ein 165hz OLED ein 240hz LCD brutalst überlegen ist was smoothness und Motion Blur angehr
 
  • Gefällt mir
Reaktionen: Player(1) und .Sentinel.
@.Sentinel. Warum zwingst Du mich zum klugscheissen? x)
Naja ist ja weder von Dir noch mir böse gemeint. Dann wollen wir mal:

Ja es ist eine Definitionssache und ebendiese ist ja bei KI nicht gegeben. Denn von Intelligenz kann man halt nicht reden.
Wobei diese Intelligenz auch nicht bei jedem lebendigem rumlaufendem Algorithmus gegeben ist. lol

Und btw. Unserer Gehirn ist son elektro-chemisches Konstrukt. Noch kann ich meiner Graka keinen Kaffee für einen FPS-Boost geben. Aber vll sollte man daran mal arbeiten? Mehr Koffein für alle!
 
  • Gefällt mir
Reaktionen: .Sentinel.
Blackfirehawk schrieb:
Ich hab bis jetzt keine dlss Version in egal welchen Spiel gesehen die "besser als das Original" aussieht.
Alles unterhalb von "ultra quality" ist für mich sogar eine massive Verschlechterung der Bildqualität und nicht lohnend.

Das ist, weil Du Dich scheint es schon so an die Fehler, die die Rasterisierung mit sich bringt gewöhnt hast, dass Dir die eklatanten Vorteile temporalen Supersamplings nicht auffalen.

Wenn Du die beiden Bilder unten vergleichst, dann gibt es ganz Objektiv einen Gewinner.
Und mit der Bildqualität des Gewinners erhältst Du mehr FPS einhergehend mit niedrigerer Latenz.

1675552007986.png


1675552034757.png


Ist aus Wolfenstein. Mit einer der in meinen Augen besten DLSS Umsetzungen nebst Doom Eternal, die erhältlich ist.
 
  • Gefällt mir
Reaktionen: Zer0Strat und Player(1)
Gut das Spiel hab ich nicht.
Aber spontan würde ich sagen das obere Bild ist mit dlss und das untere nativ.
So verwäscht es nämlich in allen spielen wo ich dlss bisher getestet und genutzt habe.


Wobei es auch gut hinkommt zu sagen..
oben ist mit der Spiel eigenen anisotropen Filterung (die oft kacke ist) und unten ist 16x im Nvidia Treiber forciert..
Sieht nämlich genauso aus der effekt mit den besseren Konturen von details.

Wie gesagt alles unter ultra quality ist für mich eine Verschlechterung..
Ich mag jedoch DLAA.. quasi dlss auf nativer Auflösung zur Kantenglättung
 
Blackfirehawk schrieb:
Gut das Spiel hab ich nicht.
Aber spontan würde ich sagen das obere Bild ist mit dlss und das untere nativ.
So verwäscht es nämlich in allen spielen wo ich dlss bisher getestet und genutzt habe.
Ja- Weil die Entwickler immer wieder das Lod Bias nicht beachten. Bei Wolfenstein sieht man, wie es richtig geht.
Ärgert mich auch immer wieder, dass eine solch gute Technik durch schlechte Umsetzung leiden muss.

Unten ist DLSS...
 
Unti schrieb:
Ist doch gut so...
Glaub viele verwechseln Indie Projekte, welche unter der AA Qualität liegen oft mit sowas hier.
Am Ende ist es ein Studio, welches AA Titel produziert und dann über einen Publisher published.
Hätte tatsächlich lust auf das Game, ABER: die Animationen (gerade beim schnellen laufen) haben mich direkt abgeschreckt, das sieht grausig aus, schaut mal wie hölzern das wirkt und die Füße gleiten quasi über den Boden / und die Treppen rauf....
Hier merkt man meist auch die Quali Unterschiede zwischen AA und AAA Titeln. Wobei es aber auch AAA Titel von Indie Entwicklern geben kann.
Es ging um den Begriff Indie-Entwickler. Dieser wurde im Artikel genutzt und ist nicht mehr bei diesem Entwickler zutreffend. Indie-Entwickler heißt, das sie selber publischen.
Weiter gefasst kann es auch sein, das sie mit Hilfe bestimmter Publischer nehmen, welche das Spiel nur vertreiben aber, diese sonst keinen Einfluss auf die Entwicklung oder Finanzierung haben.

Gewechselt haben die Entwickler von dem Spiel (KeokeN Interactive) vom Indie-Publischer Wired Productions zu den "großen" Publischer Frontier Developement, welcher auch auch Elite-Dengerous entwickelt und verbreitet.
Zudem ist auch Denuvo enthalten, was eigentlich ZU teuer ist für Indie-Entwickler.
Das zeigt, das sie sehrt warscheinlich von Frontier Developements finanziert worden sind, was damit den Status Indie-Entwickler auflöst.
 
Player(1) schrieb:
Die Latenz zwischen Eingabe und Ausgabe bei DLSS vs nativ ist niedriger? Bei gleichen FPS? (x) doubt
Die Latenz ist erst mal dadurch niedriger dass DLSS die fps erhöht. Durch FG steigt sie zwar an, ist aber dank Reflex immer noch unterhalb dessen, was man nativ hatte.

Beispiel
Nativ 60FPS/55ms
DLSS Quality 80FPS/40ms
DLSS Q+FG+Reflex 160FPS/45ms
Nativ+FG+Reflex 120FPS/50ms
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Unti
@Taxxor Ja, Das die Latenz sich durch mehr FPS verbessert war mir soweit klar, da naheliegend. Aber guck mal genau wie der Teil endet, welchen Du von mir zitiert hast: "Bei gleichen FPS? (x) doubt".

Seit paar Jahren testest man doch diese Eingabelatenz per Speziallösung (Sensor am screen, Maus die den Klick zeitlich misst usw). Gibt es sowas auch für DLSS und Co?

Gibt da einen einfachen Testfall der mich interessant. Wie sieht diese Ein-/Ausgabelatenz bei 60fps nativ vs 60fps DLSS/FSR aus?

Gibt es solche Tests?
 
Zurück
Oben