.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.643
Einerseits:
Andererseits:
Der Lag Nativ vs DLSS3 ist bei DLSS3 niedriger. Und das bei mit FG erheblich gestiegener Framezahl.
Konntest Du vor dem ganzen DLSS&CO Gedöns keine Spiele spielen, weil alle Laggy waren?
Es fällt mir auf, dass symptomatisch demjenigen, dem es bei DLSS3+Framegeneration auffält, wenn in einem Frame den Bruchteil einer Sekunde kleine Teilbereiche inkonsistent sind, dann komischweise überhaupt nicht stört oder auffällt, wenn z.B. bei Screenspace- Reflections beim Perspektivwechsel teils der Effekt über große Bildschirmbereiche komplett und über die gesamte Szenendauer wegglitch. Denen fällt komischer Weise auch oftmals nicht auf, dass Objekte beleuchtet scheinen, obwohl sie in einer schattigen Ecke stehen....
Irgendwie merkwürdig, nicht?
Aluhut bitte absetzen.
Effizienter werden bei realistischerem und qualitativ hochwertigerem Rendern ist angesagt.
Im Nachhinein wird der größte Gegner die Entwicklung sowieso adaptieren und sich dann auch irgendwann einfach über fehlerfreiere und immersivere Grafik freuen können.
Eli0t schrieb:Wenn das Spiel so lahm ist, juckt das auch nicht... Und bei welchen Spiel juckt der Lag nicht? Flight Simulator und Schach Aber bei Schach brauch ich keine 240fps
Andererseits:
Jetzt musst Du Dich halt mal entscheiden?Wen juckt das, ob die 5,10 oder 15% langsamer sind?
Der Lag Nativ vs DLSS3 ist bei DLSS3 niedriger. Und das bei mit FG erheblich gestiegener Framezahl.
Konntest Du vor dem ganzen DLSS&CO Gedöns keine Spiele spielen, weil alle Laggy waren?
So sieht es aus....Das sieht man auch bei der 4090 bei einigen Spielen, wo die brachiale Anzahl der ALUs einfach wenig bringt.
Das wird sich erst bei neuen Spielen richtig zeigen, die dafür auch entwickelt wurden.
Ja- Knapp gehalten aber nicht von den Fertigern oder NVIDIA. Das wäre finanzieller Selbstmord, die Produktionsstraßen zu drosseln oder zu stoppen, wenn die Kapazitäten gebucht sind.Eli0t schrieb:Auch für Dich: Eher friert die Hölle zu.
...Die Karten werden knapp gehalten, die Leute kaufen Sie trotzdem, egal was sie Kosten.
Jeden, der sich auch nur annähernd mit Computergrafik und einer weiteren möglichen Zukunft mit Qualitäts- und Geschwindigkeitssteigerung auseinandersetzt. Nebst dem der das einfach in seinen Spielen einschaltet und nicht mehr mit kaputter Grafik zu leben hat.Wen juckt RT?
Es fällt mir auf, dass symptomatisch demjenigen, dem es bei DLSS3+Framegeneration auffält, wenn in einem Frame den Bruchteil einer Sekunde kleine Teilbereiche inkonsistent sind, dann komischweise überhaupt nicht stört oder auffällt, wenn z.B. bei Screenspace- Reflections beim Perspektivwechsel teils der Effekt über große Bildschirmbereiche komplett und über die gesamte Szenendauer wegglitch. Denen fällt komischer Weise auch oftmals nicht auf, dass Objekte beleuchtet scheinen, obwohl sie in einer schattigen Ecke stehen....
Irgendwie merkwürdig, nicht?
Ja- Ganz, ganz sicher. NVIDIA stand mit dem Geldkoffer vor der Tür und hat die Entwickler dafür bezahlt mal eben einen Teil der bereits erstellten und QA getesteten Renderpipeline wegzuwerfen.Eli0t schrieb:Das Spiel liegt AMD nicht, weil die PC-Portierung die AMD Optimierungen ENTFERNT hat. Weil Entwickler dumm.
Aluhut bitte absetzen.
In Metro Exodus Enhanced erhöht RT die Immersion und Atmosphäre -> Höherer Spielspaß.mcsteph schrieb:Für mich zählt Spielspaß und kein RT.
Zum Glück nimmt man auf Blockierer des Fortschritts in diese Richtung keine Rücksicht.RT ist ein Hype ähnlich 3D,VR, PhysX oder DLLS usw.
Für die Tester scheint auch nichts anderes mehr zu existieren. Tests in der normalen Auflösung ohne diese Gimmicks werden immer weniger.
Effizienter werden bei realistischerem und qualitativ hochwertigerem Rendern ist angesagt.
Im Nachhinein wird der größte Gegner die Entwicklung sowieso adaptieren und sich dann auch irgendwann einfach über fehlerfreiere und immersivere Grafik freuen können.
Zuletzt bearbeitet: