BelaC schrieb:
Heute dasselbe mit 4K. PS5 und Xbox Series X werden als 4K-Konsolen vermarktet, schaffen 4K aber häufig nur mit reduzierten Details und max. 30 FPS.
Das Argument mit reduzierten Details ist doch Käse.
Du kannst am PC immer die Settings weiter hochdrehen, weil das für den Entwickler nur ein paar Handgriffe und Änderungen in der Config Datei sind. Das Sind oft minimalste Verbesserungen für teils absurd hohe Performancekosten.
Wenn du aber ne gegebene Leistung hast und das grafisch bestmögliche herausholen willst, dann stellst du nicht deine Shadowmap Auflösung auf 16K und verbrätst damit 30% Renderzeit Budget, sondern stellst es so ein, dass es gut genug aussieht und nutzt die übrige Leistung lieber für ganz neue oder generell bessere Effekte.
Es ist daher auch ein ziemlicher Witz, wenn PC Spieler immer glauben, sie bekommen am PC die viel bessere Grafik. Abgesehen von RT ändert sich am PC fast nie die Grafik, es werden fast immer nur bestehende Effekte mit höherer Qualität berechnet, einfach weil man das als Entwickler schnell über ein paar Zeilen Code abhandeln kann und damit kein Entwicklungsaufwand verbunden ist. Dabei könnte man mit der zusätzlichen Leistung viel, viel mehr anfangen als das.
Wer also glaubt, das was aktuelle Spiele am PC abliefern, sei das was die Hardware wirklich kann, der täuscht sich. Würde ein Spiel für eine 4090 genauso wie für eine Konsole entwicklet, dann würde man da die Leistung auch nicht mit sinnlosen performancefressenden Settings vergeuden, die kaum einen Benefit bringen, sondern neue Effekte erstellen, die uns wirklich dem Fotorealismus näher bringen und die Leistung sinnvoll nutzen.
Wie gesagt, 30% Leistung für Shadowmaps in meinetwegen 16K zu verschwenden oder LoD in 200 statt 150 Metern zu wechseln bringt uns halt nicht wirklich weiter. Die Leistung könnte jeder Entwickler sehr viel sinnvoller nutzen.
Aber leider ist die Realität eben, dass wir am PC den Konsolenport bekommen, der dann eben mit besagten, teils sinnlosen oder ineffizienten „Ultra“ Settings aufgebohrt wird, die eben meist nix anderes als ein paar ini tweaks sind und selten wirklich grafische Neuerungen mitbringen.
Und daher ist es auch sinnlos, den Konsolen zu unterstellen, die könnten ja “nichtmal Ultra Settings“ darstellen, weil sie zu lahm sind. Wer solche Aussagen macht, hat meiner Meinung nach nicht im geringsten verstanden, wie es dazu kommt.
Denn das ist kein Performanceproblem, sondern liegt in der Natur der Sache.
Selbst wenn die Konsolen ein Quad SLI aus vier 4090 hätten, würde sich daran nichts ändern, denn sowas wie "maximale Details" gibt es aus Entwickler sicht einfach nicht, weil es in der Form, wie es am PC angeboten wird einfach nicht erstrebenswert ist, sowas zu nutzen. Wie gesagt - ich wiederhole mich, ich weiß - die Leistung kannst du als Entwickler mit neuen Effekten IMMER sinnvoller nutzen, als mit klassischen "PC Ultra" Settings, die nur sinnnlos Leistung verbraten für minimalsten Gewinn.
Oder ich sags mal umgekehrt: Wenn Entwickler auf Konsolen die gleichen Ultra Settings wie am PC nutzen würden, dann würden die Spiele ganz einfach schlechter aussehen, weil die gesamte Grafik downgraded werden müsste, nur um eben das 200 Meter LoD oder die 16 K Shadowmap bei gleicher Performance zu ermöglichen. Dadurch würde logischerweise auch die PC Version schlechter aussehen, weils am PC ja auch meist nur die Konsolenversion als Portierung gibt. Das Gesamtbild der Grafik würde eben leiden, da zu Gunsten sinnloser leistungs fressender Settings komplette Effekte wegfallen würden. Das wäre dann ein klassischer Fall von "schlecht optimiert". Zumindest wäre das die Wahrnehmung beim Spieler. Die Gesamte Hardware wäre ausgelastet, das Spiel sieht trotzdem schlecht aus. Genau das wäre die Konsequenz von Ultra Settings auf Konsolen. Ineffiziente Settings werfen uns Grafisch insgesamt dann auf allen Plattformen zurück. Quasi ein Schritt vor, dafür zwei zurück. Will man nicht. Ist dumm.
Sorry für das viele gelaber, aber sowas muss mal breitgetreten werden, weil es hier jedes Mal das selbe ist...