.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.628
Taxxor schrieb:Schon klar, aber +75% min Frames? Der Großteil dieses Unterschieds dürfte dann eher von den Low Settings und nicht von der CPU an sich kommen.
Das deckt sich aber mit meinen Erfahrungen mit hochtaktendem, niedriglatentem Speicher inkl. deutlich übertakteter CPU (womöglich auch noch den Cache hochgetrieben).
Das drückt sogar in 4K die min. FPS oft deutlich nach oben und reguliert die Frametime- Varianz, wenn die Engine dafür empfänglich ist und die min FPS die Ursache z.B. in einem begrenzenden Renderthread oder einer anspruchsvollen Streamingengine haben.
xexex schrieb:In Foren funktioniert aber die Werbeindustrie bestens. Bildschirme die gestern völlig ausreichend waren und ein Superbild "hatten", sind heute nur noch "Augenkrebs". Alleine deshalb weil es Bildschirme gibt die eine höhere Auflösung haben oder mehr FPS unterstützen und nicht in etwa weil man eine neue Brille hat oder über Nacht einen Adlerblick bekam. Man könnte es in vielen Fällen schlichtweg Einbildung nennen.
Genau davon spreche ich weiter oben im Thread mit etwas überspitzten Aussagen.
Einerseits kann man ohne superhochauflösendes 4K in 120Hz nicht mehr leben, andererseits werden dreiviertel der Effekte darauf, die man dann auf seinem 4K Display zu sehen bekommt mangels Rechenkraft "normaler" Shader niedrig aufgelöst, sind physikalisch nicht korrekt und laufen in einem Bruchteil der FPS- Rate der restlichen Engine.
Jetzt, wo man sich ranmacht, da endlich qualitativ was zu tun, wird es als Gimmick und Unnütz abgetan.
Das widerspricht sich halt hart, wenn man sonst konstatiert, dass man Mikrounterschiede an der Grenze der Menschlichen Sehkraft und darüber so extrem wahrnimmt, dass alles darunter unspielbar wird, dann aber ins Forum schreibt, dass in Echtzeit ablaufende hochaufgelöste Effekte nur ein Beiwerk wären, welches im Spiel in der Hektik sowieso nicht auffallen würde.
Logikfehler - Entweder stimmt das eine oder das andere nicht.