captain kirk schrieb:
Die Spieleschmieden werden ihre Grafikengines zwar noch weiter pimpen was detaillierte Texturen betrifft, das sollte aber die Performance, was die Grafikkarten abliefern müssten, nur noch marginal mehr belasten
Ich habe gerade in einem anderen Thread ausführlich was zu diesem Thema geschrieben, deshalb gebe ich dir nur einen kleinen Schubs. Pathtracing gibt es für Minecraft und Pathtracing gibt es bei Indy, was glaubst du weshalb für Indy die mehrfache Rechenleistung benötigt wird wie für Minecraft? Ein Tipp, an den Texturen liegt es nicht.
https://blog.demofox.org/2016/09/21/path-tracing-getting-started-with-diffuse-and-emissive/
Jede Fläche und jede Lichtquelle benötigt zusätzliche Strahlen, um letztlich berechnen zu können wie das tatsächliche Bild auszusehen hat. Somit sind die Texturen völlig irrelevant für die Darstellung, aber jedes in 3D erzeugte Detail braucht zusätzliche Strahlen oder das Ergebnis sieht am Ende so aus:
Man versucht die benötigte Anzahl Strahlen mit diversen Verfahren zu reduzieren, trotzdem sind wird noch meilenweit davon entfernt, echt aussehende Objekte mit echt aussehenden Lichtquellen, problemlos mit aktueller Hardware erzeugen zu können. Eine Kiste sieht bei Indy dann auch schon mal so aus, obwohl selbst eine 4090 mit DLSS und FG bei der Berechnung in die Knie geht.
Jetzt stelle dir mal vor, diese Kiste unten wäre nicht nur ein Quader mit zwei weiteren Brettern und einer Textur darüber, sondern bestünde tatsächlich aus mehreren Brettern.... Oder stelle dir mal vor, dieser Tümpel würde eher wie in der Natur aussehen und nicht möglichst verwaschen.
Was glaubst du wieviel Rechenleistung man noch zusätzlich bräuchte, um die gezeigten Bilder tatsächlich der Realität nachzubilden? Ich bin jedenfalls fest überzeugt, dass der Leistungsbedarf noch fast grenzenlos ist, und man trotzdem vielleicht nicht auf den ersten, aber schon bei dem zweiten Blick leicht erkennen wird, was real ist und was nur berechnet wurde.
Brauchen wir das alles? Natürlich nicht! Technisch gesehen könnten moderne Engines aber selbst eine 10090 in die Knie zwingen, man müsste sie nur mit entsprechend detaillierten Assets füttern. Es hat schon seinen Grund wieso bei Filmen die aus dem Computer kommen, aber möglichst echt aussehen sollen, noch immer für jedes einzelne Bild eine immense Rechenleistung benötigt wird.
Nur mal für dich als Beispiel:
"The render times for Collosus entwined with the Tilted Building were the highest in ILM’s history: 288 hours per frame! And that is just for one eye, and sometimes the computer would choke on a frame and we had to start over. That’s because both objects were reflecting the environment, and that is a complex algebraic calculation. To compare, the longest render on the last TRANSFORMER’S was
36 hours for an IMAX frame. Over 50 different specialists worked on this shot."
https://www.artofvfx.com/transformers-dark-of-the-moon-scott-farrar-superviseur-vfx-ilm/
Seit dem sind zwar ein paar Jahre vergangen, diese Rechenleistung werden wir lokal jedoch "nie" kriegen. Was wir bekommen werden sind Spiele die stellenweise wie die Realität aussehen, weil unser Auge nicht ständig jeden einzelnen Pixel analysiert. Der eigentliche Leistungsbedarf um fotorealistische Umgebungen in Echtzeit zu schaffen, ist aber schier endlos.
Weckt mich jedenfalls, wenn die Umgebungen in Spielen so aussehen, technisch wäre es längst möglich, aus Ressourcenknappheit spart man sich jedoch eine so detaillierte Darstellung.
https://forums.unrealengine.com/t/path-tracing-problem/788810
Weckt mich ebenfalls, wenn so ein Haus am Strand in irgendeinem Spiel aussieht, ebenfalls bereits in der Unreal Engine erstellt.
https://dev.epicgames.com/documenta...illumination-and-reflections-in-unreal-engine
Selbst von solchen Charakterdarstellungen sind wir in den meisten Spielen noch meilenweit entfernt.