Captain Mumpitz schrieb:
Im Endeffekt: es kotzt mich tatsächlich ein wenig an, in welche Richtung man sich hier bewegt. Es werden 100 neue Technologien eingeführt, anstatt dass man sich auf was einzelnes konzentrieren oder die Engines/Spiele wieder entsprechend programmieren und optimieren würde.
Es sind ja nicht 100 grundsätzlich verschiedene Techniken, sondern unterschiedliche Implementierungen der gleichen grundlegenden Techniken/Ideen. Solange wir noch wenigstens etwas Wettbewerb bei den GPU Herstellern und den Engines haben, wird sich das nicht vermeiden lassen und ist sicher besser als Monokultur. Hätten wir nur noch Hardware von nVidia und alle Spiele würden mit UE5 laufen, gäbe es natürlich deutlich weniger Auswahl.
Es kommt hinzu, dass die Techniktests, z.b. bei CB den Eindruck erwecken, als wäre ein Spiel nur spielbar, wenn man alles genauestens eingestellt hat. Wenn man es dann mal selber im Spiel ausprobiert, habe ich z.B. oft Mühe die Unterschiede in den Settings überhaupt zu sehen, bzw. wenn ich sie sehe, sie in "besser" vs. "schlechter" einzuordnen. Wenn bei Ultra ein paar Grassbüschel mehr erscheinen, als bei High ist zwar grundsätzlich sichtbar, aber hat auf das Spielerlebniss eigentlich keinen Einfluss.
Bei Raytracing ist oft noch ähnlich: Ja es gibt dann immer die eine oder andere Pfütze die mit Raytracing viel geiler aussieht als ohne, aber die meisten Spiele bestehen nun mal nicht hauptsächlich aus Pfützen.
Anderseits erwecken Redaktionen, Influencer, etc. den Eindruck dies würde alles benötigt werden, dadurch sind die Entwickler gezwungen, es einzubauen. Man denke nur an den fehlenden DLSS Support in Starfield beim Release. Sich auf "eins" zu konzentrieren ist schlicht keine Option für Entwickler.
Und es ist ja nicht so, dass diese Techniken umsonst zu haben sind. Wenn z.B. Motion Vektoren benötigt werden, ist das für die Entwickler ja mehr Arbeit.
Captain Mumpitz schrieb:
Bei aktuellen Benchmarks, aber insbesondere beim eigenen Optimieren der Settings in Spielen selber, stelle ich immer öfter fest wie mich die zahlreichen Optionen eher überfordern als dass sie helfen.
Im Gegensatz zu den Konsolen hat man halt beim PC eine extreme Bandbreite an Hardware mit verschiedener Leistungsfähigkeit, eine große Variation bei den Ausgabegeräten bzgl. Auflösung und Bildfrequenz und dann natürlich auch Spieler die sehr unterschiedliche Schwerpunkte setzen.
Dem Einen sind dreistellige FPS sehr wichtig, der Andere nimmt lieber ein paar Ruckler in Kauf und hat dafür prachtvolle Grafik. Der Besitzer einer 4090 will ja dass seine teure Hardware auch ausgenutzt wird und das Spiel in voller Pracht erscheint, während Andere erwarten, das auch ihre 5 Jahre alte Einsteiger GPU noch ein Spielerlebnis ermöglicht.
Das optimale Spiel sollte also beim Release gerade so eben am Anschlag auf der verfügbaren Top-Hardware laufen und sie dabei optimal ausnutzen, aber auch eben darunter noch spielbar sein.
Also endet man dann in einem Menü mit zig Optionen. Gut ist es, wenn Spiele im Grafikmenü Hinweise geben, was die Option bewirkt, auch ob sie z.B. eher die GPU be/entlastet oder die CPU. Da ist die Qualität sehr unterschiedlich.
Ein Problem ist in der Tat oft die die unbekannte Wechselwirkung zwischen Spiele- und Treibersettings.
Captain Mumpitz schrieb:
Man verlässt sich auf Seiten Entwickler schlicht darauf, dass so oder so mit DLSS und FG usw. gearbeitet wird, um eben ein entsprechendes Resultat zu erreichen.
Wie gesagt, aus oben genannten Gründen bleibt den Entwicklern eigentlich kaum eine andere Wahl. Speziell der Trend zu UHD als Auflösung hat dazu geführt: Nativ überfordert UHD in vielen Fällen selbst sehr leistungsfähige Grafikkarten, einfach wegen der vielen Renderpixel und teilweise sicher auch, weil UHD nur zur Geltung kommt, wenn auch andere Faktoren, wie ewa Polygonauflösung, passend erhöht werden. Anderseits scheinen temporäre Upsampling Techniken sogar oft die Qualität zu erhöhen.
Als natürliche Folge kommen diese Techniken dann auch bei niedrigen Auflösungen zum Einsatz, wobei sie dort oft schlechter funktionieren.