Nighteye schrieb:
Verstehe ich nicht.
Wieso sollte man zb Stalker 2 oder andere Spiele nicht in 1080p auf High Spielen ?
Mein Kumpel hat zb nur einen 1080p Bildschirm und eine RX7900 GRE und Zockt Stalker 2 auf High.
Die Balance zwischen Qualität und Performance muss stimmen. Dabei ist es vollkommen egal, ob es nun
high,
ultra,
cinematic oder Kartoffel-Preset heißt.
Dass Game-/Technik-Reviewer nur
max settings wählen, ist deren Problem, nicht das der Entwickler - und schon gar nicht nVidias. Die reiben sich da schön die Hände.
Die Tester sind damit auf den Höher-Größer-Schneller-Besser-Zug aufgesprungen, auf dem sie
imho als
neutrale Reviewer nix zu suchen hätten.
Gedacht sei folgender Grenzfall:
40FPS für eine 4090 in FHD bei Ultra-Violence-Chansaw-Settings. Was nun?
Das Spiel kann mit diesen Settings
aktuell nicht flüssig gespielt werden. In 10 Jahren aber schon noch.
Aus Entwicklersicht scheint mir das schlau.
Da viele Reviewer aber auf oben genanntem Zug sitzen, wird der Backlash/Shitstorm enorm sein. Also muss der Entwickler das Setting 5 Jahre lang verstecken bis die "Gesellschaft" dann so weit ist.
Das ist nur
ein Bespiel, warum sich "nicht ausreichen" eigentlich als falsch herausstellt und
max settings eben
nicht automatisch die Referenz festlegen sollte.
In der Vergangenheit gab es das Tessellation-HairWorks-Problem: die Parameter waren für das visuelle Resultat nicht wirklich ausschlaggebend. Wurden aber so hoch gewählt, dass AMD-Grafikkarten unnötig einbrachen - bei nahezu keinem visuellen Vorteil gegenüber "sanfteren" Parametern.
Die Reviewer haben das
imho zu wenig "korrigiert": AMD stand blöd da.
Das nehme ich - als nVidia-Nutzer - nVidia
leicht übel, den Reviewern aber sehr. Das hätte groß und breit propagiert werden und das entsprechend faire(!) Setting stattdessen als
default gewählt werden müssen.