Kein Super Resolution an.cypeak schrieb:man definiere bitte nativ.
Sprich das BIld was du siehst, wurde auch so von der GPU berechnet und nicht in einer niedrigeren Auflösung generiert und dann zu deiner gewünschten Auflösung upscaled (DLSS SR).
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Kein Super Resolution an.cypeak schrieb:man definiere bitte nativ.
ähm...das mag man vielleicht messen können, aber du als mensch kriegst davon nichts mit.DJMadMax schrieb:98, 97, 96 ... FPS wiederum sorgen immer mehr dafür, dass es vermehrt Lagspikes gibt, was allein technisch bedingt schon nachvollziehbar ist, denn irgend einer der Frames muss immer doppelt so lange angezeigt werden, damit wieder die 100 Hz des Monitors erreicht werden können.
Mit der Aussage wäre ich vorsichtig. Blurbusters hat mal gut erkärt, wieso man V-Sync auch mit G-Sync aktivieren sollte:_ROG_ schrieb:V-Sync braucht man eigentlich nicht mehr seit es Gsync gibt. Gilt natürlich auch für FreeSync.
Blurbusters schrieb:Wait, why should I enable V-SYNC with G-SYNC again? And why am I still seeing tearing with G-SYNC enabled and V-SYNC disabled? Isn’t G-SYNC suppose to fix that?
The answer is frametime variances.
“Frametime” denotes how long a single frame takes to render. “Framerate” is the totaled average of each frame’s render time within a one second period.
At 144Hz, a single frame takes 6.9ms to display (the number of which depends on the max refresh rate of the display, see here), so if the framerate is 144 per second, then the average frametime of 144 FPS is 6.9ms per frame.
In reality, however, frametime from frame to frame varies, so just because an average framerate of 144 per second has an average frametime of 6.9ms per frame, doesn’t mean all 144 of those frames in each second amount to an exact 6.9ms per; one frame could render in 10ms, the next could render in 6ms, but at the end of each second, enough will hit the 6.9ms render target to average 144 FPS per.
So what happens when just one of those 144 frames renders in, say, 6.8ms (146 FPS average) instead of 6.9ms (144 FPS average) at 144Hz? The affected frame becomes ready too early, and begins to scan itself into the current “scanout” cycle (the process that physically draws each frame, pixel by pixel, left to right, top to bottom on-screen) before the previous frame has a chance to fully display (a.k.a. tearing).
G-SYNC + V-SYNC “Off” allows these instances to occur, even within the G-SYNC range, whereas G-SYNC + V-SYNC “On” (what I call “frametime compensation” in this article) allows the module (with average framerates within the G-SYNC range) to time delivery of the affected frames to the start of the next scanout cycle, which lets the previous frame finish in the existing cycle, and thus prevents tearing in all instances.
And since G-SYNC + V-SYNC “On” only holds onto the affected frames for whatever time it takes the previous frame to complete its display, virtually no input lag is added; the only input lag advantage G-SYNC + V-SYNC “Off” has over G-SYNC + V-SYNC “On” is literally the tearing seen, nothing more.
Wer will denn Multi-Fake-Frames trotz des brutalen Input-Lags nutzen ?Grestorn schrieb:Doch, wird es.
Nur nicht die Multi-Frame-Generation, die ist RTX 5000 exklusiv.
Man könnte aber auch argumentieren, die Spielentwickler wollen mittlerweile grafisch mehr, also die Hardware auf dem aktuellen Entwicklungsstand liefern kann. Klar haben Spiele auch immer die Hardware vorangetrieben, aber meist waren es erstmal nur einzelne Spiele, die Grenzen der Hardware ausgelotet haben.Pheenox schrieb:Denn physikalisch gibt es hardwareseitig Grenzen der Machbarkeit. Dass wir hier noch einen weiten Weg vor uns haben - geschenkt. Wir haben schon einen langen weg in den letzten 25 Jahren zurückgelegt und sehen die Entwicklung von damals zu heute.
Mach Dir keine Sorgen..Eorzorian schrieb:Also bis jetzt spiele ich nicht so aufwendige Spiele oder neue Spiele, die DLSS nötig hatten. Demnächst will ich mir zwei Teile der FF7-Serie, Cyberpunk 2077 und ein paar "neue" Spiele holen, dann wird man sehen, ob mein mickriger 8GB VRAM von RTX 3070 TI alles stemmen kann. Meine Erwartung ist aber schon negativ.![]()
![]()
DJMadMax schrieb:FG funktioniert auch ohne Syncing - wenn der Monitor 360 Hz kann und ich durch FG "nur" 150 FPS erreiche, dann kann ich dennoch ruckelfrei, ohne Tearing und mit (abhängig vom Spiel) relativ gleichmäßigen Frametimes spielen.
Sprichst Du nun von VSync oder GSync? Denn bei einem 360Hz Monitor wirst Du niemals VSync mit 100fps haben. 100fps ist kein ganzzahliger Bruchteil von 360Hz. Mit VSync (ohne GSync) kannst Du mit einem 360Hz Monitor nur 360fps, 180fps, 90fps usw. mit konstanter Frametime anzeigen.DJMadMax schrieb:Du verstehst aber nicht, dass ich mit Frame Generation keine "maximale Leistung" aus der Grafikkarte herausholen will. Wenn FG mir 150 FPS liefert, mir aber 100 FPS reichen, die ich ohne FG wiederum nicht erreiche, dann möchte ich exakt 100 FPS mittels Vsync haben.
das reicht heutzutage nicht mehr - es geht nicht nur um de auflösung, sonder z.b. auch was für eine aa-technik zum einsatz kommt; wenn ich "nativ" rendere und bei dem nativen bind ein forciertes taa angewendet wird und dann vergleicht man das mit einem dlss sr bild, ist es kein wunder dass man meint das würde teilweise besser aussehen; gerade wegen dem schmieren das taa mitverursacht...Shio schrieb:Kein Super Resolution an.
Sprich das BIld was du siehst, wurde auch so von der GPU berechnet und nicht mit einer niedrigeren Auflösung und dann upscaled (DLSS SR).
_Blake_ schrieb:wenn nicht gar besser als nativ
Der VSync Schalter bedeutet etwas anderes wenn man GSync benutzt.Capthowdy schrieb:Mit der Aussage wäre ich vorsichtig. Blurbusters hat mal gut erkärt, wieso man V-Sync auch mit G-Sync aktivieren sollte:
Native ist ja nicht "perfekt". Auch native ist eine Rasterisierung auf die Pixel, also wird ein Bild auf ein festes Pixelraster gepresst. Das ist definitiv nicht perfekt.scryed schrieb:Wie kann was besser als native sein ? Entweder gleich aussehend oder anders .... Und dann ist es Geschmacksfrage
Naitrael schrieb:Wieso würde man Technologien simultan einsetzen, die exakt das Gegenteil voneinander sind?
Die Grafikfehler sind aber massiv weniger als mit TAA und ist von der Bildqualität vergleichbar mit SSAA bzw. OGSAA bei etwa der Hälfte an Leistungskosten. Ich muss definitiv aufhören in diesen Thread zu schauen, da überkommt mich die geballte Verzweiflung.AxelStu schrieb:Weil es halt "Grafikfehler" produzieren kann, die einen gewaltigen nerven.
Das ist aber dann Nitpicking und Scheuklappen gegenüber den Verbesserungen, anders geht das gar nicht.AxelStu schrieb:Mag an der Implementierung in dem jeweiligen Spiel liegen, aber schlussendlich ist das völlig egal, wenn man es sieht und es einen stört.
Dann liegt es an den Schatten in Indiana Jones, die aber nichts mit DLAA zu tun haben.AxelStu schrieb:Das Flickern hängt da mit den Schatten zusammen und ist selbst mit DLAA vorhanden.
Gerade gestern Abend 2h Indiana Jones und eine halbe TloU gespielt. Kann ich nicht bestätigen.AxelStu schrieb:Indiana Jones: Teilweise extremes Schimmern von Kleidungsstücken. Feine Kanten, Zäune, etc. flickern auch stark.
PoE2: Gras wird zu einer grünen Matschepampe in Bewegung.
TLoU: Auch hier Flickern an Kanten. Einfach nur nervig.
DLAA? Doch, auf alle Fälle.AxelStu schrieb:Kann sein, dass du das nicht wahrnimmst, aber "offenkundig" ist es nicht immer besser.
Das ist die große Frage ob es mit Reflex 2 oder generell schon mit reduziertem Input Lag kommt.NoNameNoHonor schrieb:Wer will denn Multi-Fake-Frames trotz des brutalen Input-Lags nutzen ?