Das war deine ursprüngliche Aussage:
Quidproquo77 schrieb:
FG soll auch 5-10% V-ram einsparen.
Und da wollte ich wissen, wie FG weniger VRAM belegen kann als kein FG...auch wenn es sparsamer implementiert ist, ist es trotzdem ein Zusatzfeature mit mehr Frames und Informationen im Speicher.
Daher wollte ich erfragen was genau da verglichen wird.
Als Antwort habe ich erhalten, dass nur der Teil der zu FG gehört weniger braucht und das hat mich zu der Aussage gebracht, dass das ja lächerlich wenig wäre. wenn ein paar Prozent von ca 1,1GB gespart werden.
Du hast korrigiert:
Quidproquo77 schrieb:
Du musst die VRAM Belegung vom gesamten VRAM Bedarf abziehen.
Ich habe inzwischen die Originalquelle gefunden und es wurde das alte FG mit dem neuen FG verglichen.
Nvidia meint wohl 30% vom FG-Anteil gespart zu haben und das sind dann in dem Beispiel 5% weniger Gesamt-VRam.
Also ganz nett....aber eigentlich nix, das jetzt eine 8 oder 12GB Karte rettet wenn da ein VRAm hungriges Spiel daherkommt.
Quidproquo77 schrieb:
Was bringt dir ein niedriger Inputlag, wenn die Bilder ruckeln?
Das sind zwei verschiedene Sachen. Warum sollte ich nicht von einem niedrigen Input Lag profitieren wollen, nur weil die Animation etwas ruckelt?
Wenn MFG die FPS vervierfacht...die Qualität der Frames stimmt, das Framepacing stimmt und sich der Input Lag nicht verändert, ist das ein tolles Feature...spricht ja nichts dagegen.
Aber wenn ich einen schlechteren Input Lag akzeptieren muss, um die flüssigeren Animationen zu bekommen und eventuell auch Artefakte/Zittern/usw, dazu bekomme, muss man abwägen was einem wichtiger ist.
Wird sicherlich auch stark vom Spiel und anderen Faktoren abhängen.
Digital Foundry durfte wohl etwas mit einer 5080 spielen und haben auch PC Latency gemessen. Leider nur FG mit 1, 2 und 3 Fake Frames...gerne hätte ich die Latency ohne FG gesehen und gewusst, ob da Reflex aktiv war.
50,97 ms, 55.5 ms und 57,3 ms sind der Durchschnitt aus deren Test.
Basierend darauf, würde ich sagen...wenn schon FG dann gleich alle drei fake Frames.
Aber über 50ms PC Latency ist aus meiner Erfahrung nicht sonderlich angenehm. Da fehlt mir der Vergleich zu deaktiviertem FG.
Das neue AI Model sieht erstmal ziemlich genial aus.
Welche Grafikkarte hast du eigentlich?
Quidproquo77 schrieb:
Das ist die gleiche Argumentation mit Scheuklappen wie bei TAA wo nicht TAA das Bild "unscharf" macht, sondern die niedrige Auflösung und die geglätteten Kanten.
TAA glättet ja nicht nur die Kanten....das ist ja das Problem was ich damit habe!
Es verwischt halt alles und nimmt damit auch die Details von Texturen mit.
Das Video von Digital Foundry habe ich ja schon verlinkt.
Quidproquo77 schrieb:
MSAA macht das auch "unscharf" das wirkt nur weniger unscharf für dich weil MSAA 90% des Bildes nicht beruhigt und glättet, weil's aufgrund Deferred rendering nicht mehr funktioniert.
MSAA macht nur die Geometrie unscharf. Nicht die Flächen.
Das das heutzutage nicht mehr sinnvoll ist habe ich ja selbst schon mehrfach gesagt.
Quidproquo77 schrieb:
Rechts ist für dich unscharf. Das Problem liegt an deiner persönlichen Präferenz.
Du missinterpretierst mein Problem mit TAA.
Die schrägen Kanten von Geometrie unscharf zu machen ist nunmal wie AA funktioniert. Das will ich nicht verteufeln.
Ich will halt nicht, dass die Texturen und senkrechten/hrizontalen Kanten auch unscharf werden und Ghosting muss auch nicht sein.
Quidproquo77 schrieb:
Jeder Grafikregler schränkt dich theoretisch ein, sowie Auflösung, Kantenglättung usw.warum du bei RT da so ein Fass aufmachst, verstehe ich nicht.
Weil RT im Vergleich zu den meisten anderen Reglern sehr viel mehr Leistung kostet und dabei nicht zwangsläufig besser aussieht.
Es geht mir vor allem um das Rauschen, das durch die unzureichende Anzahl an Rays entsteht.
Klar kann man das mit TAA verwischen, aber das verwischt halt auch alles andere.
Quidproquo77 schrieb:
Klar war das im übrigen schon 2006, als Daniel Pohl von Intel noch Artikel schrieb, nicht nur hier auf Computerbase.
Ja da kann ich mich noch dran erinnern und die Probleme sind die gleichen geblieben.
Nicht genug Hardwareleistung um mehrere Rays pro Pixel in Echtzeit zu verschießen!
Vor allem nicht, da die Anforderungen an die Auflösung so stark gestiegen sind.
Immer mehr Polygone machen RT irgendwann mal sinnvoller als Rasterisierung aber das ist ja noch immer Zukunftsmusik.
Stand jetzt, werden nur ein paar Effekte mit RT gemacht und diese mit (Aus meiner Sicht)unzureichend wenigen Rays....trotzdem senkt es die FPS und entlastet den Raster-Pfad nicht ausreichend, wie früher mal erhofft.
Dann hat man also Effekte die rauschen und über Denoiser + DLSS/FSR/XeSS/TAA geglättet und beruhigt werden müssen.
Mal geht das gut und mal nicht.
Nimm z.B. Control, da werden die RT-Schatten nicht nur aus den Rays des aktuellen Frames konstruiert, sondern die Rays aus mehreren Frames aufaddiert. Das führt zu Schatten die zeitlich verzögert "wachsen/wandern".....sicherlich ein Problem, dass mit vielen FPS besser wird, aber die Fake Frames werden dir hier nicht helfen.
In CP2077 baut sich aus dem gleichen Grund die Beleuchtung verzögert auf.
Das ist für mich keine Technik, die schlicht "besser" ist!
Es ist teilweise echt ein Mehrwert, wie in Indiana Jones, wo die RT-Schatten in hohen RT-Stufen das ganze Bild vom "PC-Spiele-Gefühl" Richtung "natürlich" verschieben.
Das Gegenteil ist aus meiner Sicht oft der Fall, wenn die Schatten in CP2077 vor sich hin rauschen.
Raytracing(Und Lumen) haben ihre Problemstellen und daher ist es momentan für mich eher nichts.
Ich habe lieber mehr FPS und weniger Rauschen.
Quidproquo77 schrieb:
Habe ich völlig andere Erfahrungen gemacht, deswegen ist mir das einfach suspekt.
Jeder hat eine andere Wahrnehmung...manche halten 30 FPS auch für flüssig und reaktionsschnell.
Andere sehen den Unterschied von 160 auf 180 FPS.
Ich erfreue mich eher an einem reaktionsschnellen Spielgefühl, als am Realismusgrad der Beleuchtung.
Und da ich nicht die Hardware habe um ein Bild in hoher Auflösung+hohe FPS+Hohe pixeldichte+Hohe Hz+synchron+gestochen scharf usw. zu bekommen, muss ich Kompromisse eingehen.
Und dieser Kompromiss ist DLSS am Laptop und irgendwas was kein TAA ist am Desktop mit 1440p.
Quidproquo77 schrieb:
Ob FG mit den 8GB VRAM wirklich sauber läuft?
Alles eine Frage der gewählten Texturen. Muss man halt entsprechend runter stellen um die 8GB nicht zu überlasten.
Da Texturen (meiner Meinung anch) mehr Einfluss auf die Optik haben als alle anderen Optionen, ist das sehr schade, aber den Aufpreis für eine mobile 4080 wollte ich nicht zahlen.
Quidproquo77 schrieb:
Dann erhöhe ich die Auflösung, oder knalle Downsampling rein, was im Endeffekt dem gleichkommt. TAA in 4K sieht fantastisch aus. In 1080p weniger, wie auch 1080p generell.
Schön wenn man die Leistung dafür hat....die meisten Spieler werden Kompromisse eingehen müssen.
Quidproquo77 schrieb:
Früher teuer für ein flimmerfreies Bild, heute umsonst.
Was verstehst du unter flimmern?
Nur das Kantenflimmern an den Geometire Übergängen oder auch flackernde Texturen und rauschende Effekte?
"früher" gab es temporal in der Regel nicht, dafür hatte man keine rauschenden Effekte.
Aber ja...SSAA und MSAA haben echt viele FPS gekostet und FXAA war unscharf wie TAA..und dabei noch schlechter.
Daher zurück zu meinem eigentlichen Punkt den ich machen wollte!
Ich werde erst wieder eine AMD Grafikkarte kaufen, wenn AMD es geschafft hat KI-FSR so gut zu bekommen, dass es eine ähnliche Qualität wie DLSS erreicht...damit ich nicht auf andere AA Techniken angewiesen bin.
Nvidia legt mit dem neuen DLSS die Latte aber immer höher.
Quidproquo77 schrieb:
Was auch auf TAA aufbaut...
Wüsste nicht, wo TAA und DLSS zusammenhänge haben?
Das eine mittelt stumpf den aktuellen Frame mit mehreren älteren und verschobenen Frames.
DLSS nutzt KI um das aktuelle Bild zu rekonstruieren...nach angelernten Mustern, wie Objekte, Kanten, Oberflächen im Optimalfall aussehen.
Dafür nimmt es auch Informationen aus vergangenen Frames, aber dank Bewegungsvektoren kann es Ghosting entgegenwirken.
Das hat in der Vergangeheit nicht immer gut funktioniert, aber es wird immer besser und teilweise durch Patches gefixt.
For allem die In Aussicht gestellte Funktion, um neurere DLSS Versionen über die Nvidia App zu erzwingen, klingt praktisch...das sollte AMD auch schnell einführen!
Meine Frustration kommt halt daher, dass ich aktuell zwei eingeschränkt spielefähige PCs habe ....einen Laptop mit 13700H und 4060, der ein träges 4K Display hat...und keine Option einen externen Monitor mit über 120Hz anzuschließen...Ausgänge hängen an der Intel iGPU.
Ich kann RT, DLSS, FG, und 4K ausprobieren....aber die CPU überhitzt schnell und ist auch teilweise langsam.
..und die 4060 ist nicht für 4K gemacht....und selbst extremes DLSS rettet die FPS oft nicht.
..und der Laptop ist laut!
Naja und der Desktop mit 5800X3D und Radeon VII hat ordentlich CPU power aber eben nur die Wahl zwischen TAA/FSR oder manchmal XeSS.
Je nach Spiel gibt mir nichts davon in 1440p ein wirklich zufriedenstellendes Bild....für Downsampling fehlt mir die Leisung.