Manegarm schrieb:
Ich hab ja damals schon die Theorie vertreten dass große Spieleentwickler Peformancebremsen einbauen um den hardware-Umsatz anzukurbeln. Man wurde dafür immer dumm angeguckt.
Wenn man sich aber die Entwicklung so anguckt, besonders den Realtime-Vergleich aus den Videos, kann das gar nicht anders sein wie angemommen. Zwar hat sich die Grafik statisch verbessert, das streitet auch keiner ab. Aber das beschränkt sich größtenteils auf Texturen, Texturen brauchen jedoch nicht die Leistung die solche Spiele tatsächlich abverlangen. Das was tatsächlich Hardwäre BRÄUCHTE, sucht man in den Spielen vergebens. Und genau das ist es was nicht sein kann.
Grafik von gestern, Systemanforderung von morgen. Und solange die menschen den Schund immer wieder kaufen, wird sich daran auch nichts ändern.
Man muss sich doch nur mal das neue Battlefield angucken, gestern habe ich die Beta gespielt. Oder auch das 3 Jahre alte battlefront 2. Da hat man wirlkich das gefühl dass die Technik fair ausgenutzt wird. Das sieht wirklich sehr gut aus.
Was Ubisoft da jedes jedes jahr bei Far Cry macht ist mir ein Rätsel. Und natürlich auch ein paar andere große Entwickler.
Dass z.B. Ultra Details oder HD Texture Packs die Hardware Verkäufe ankurbeln sollen, da würde ich voll und ganz zustimmen.
Dass die Entwickler aber generell Performancebremsen einbauen, das glaube ich nicht.
Der Grund dafür ist mich mich ganz einfach:
Das Spiel muss nur auf aktuellen Konsolen lauffähig sein. Nicht mehr und nicht weniger. Wenn also ein Spiel mit gefühlt PS3 Optik für next-gen Konsolen veröffentlicht wird wie z.B. die PS5, dann ist alles gut, solange das Spiel dann eben mit 4K und 60 FPS läuft. Selbst wenn man meinen könnte, dass es mit der Optik auch in 8K mit 120 FPS laufen sollte, so hat der Entwickler kein Interesse daran, das auch zu erreichen. Er muss immer nur so weit optimieren, dass das Performance Target mit aktueller (Konsolen) Hardware erreicht wird.
Erst am PC fällt dann auf, wie schlecht optimiert wurde, wenn dann plötzlich fünf Jahre alte Hardware in nem schlecht aussehenden Spiel weniger FPS erreicht, als in einem fünf Jahre altem Spiel, das um Welten besser aussah.
Und warum sehen die Spiele nun teilweise so schlecht aus?
Geld.
Aufwändige Grafik mit aufwändigen Assets ist nunmal teuer. Wie gut ein Spiel aussieht ist heutzutage mehr eine Frage des Entwicklungsbudgets und eher weniger eine Frage der Rechenleistung.
Klar sind beides wichtige Faktoren, aber ich sehe den Anteil des Budgets mittlerweile deutlich höher als den der Rechenleistung. Wer einen Beweis braucht, soll sich die Unreal Engine 4 Demos ansehen, die es seit vielen Jahren auf Youtube zu bestaunen gibt. Rein technisch haben wir den Fotorealismus schon beinahe erreicht. Die Unreal Engine wird ja z.B. z.B. auch für Filmproduktionen genutzt.
Aber ganze Spiele bzw. open Worlds in der Optik umzusetzen ist eben zu teuer.
eRacoon schrieb:
Habt ihr eigentlich trotz HD Texturen immer mal wieder Elemente die gefühlt Texturen aus 2001 haben?
Mein erstes Oberteil war komplett zerpixelt, direkt in der ersten Mission ist die Karte in der Zwischensequenz so verpixelt das man nicht mal erkennen kann was einem da erzählt wird drauf.
Aber finde die Grafik trotzdem okay, hier wird deutlich übertrieben.
Das liegt eben an den HD Texturen, wenn du zu wenig VRAM hast.
Schalte die HD Texturen aus und du wirst auch schärfere Texturen sehen.
Andere Spiele machen das schon seit Jahren komplett dynamisch (z.B. ID Tech Engine oder Battlefield)
Da sieht man zumindest in der Nähe immer die besten Texturen, die menge des VRAM bestimmt dann nur bis in welche Entfernung die besseren MIP Stufen sichtbar sind.
Dass Far Cry das nicht kann zeigt wieder, wie betagt die Engine mittlerweile ist. Zumindest ist es aber schonmal löblich, dass das Spiel nicht ruckelt wenn der VRAM voll ist, sondern die Texturen wieder verwirft.