Hab jetzt schon einige Demos im Netz gefunden und auf meiner 3060ti getestet.
Laufen bisher alle ziemlich gut. Die Performance ist noch nicht so ganz stabil und schwankt relativ stark, aber grundsätzlich sieht das schonmal sehr gut aus. Spätestens TSR oder DLSS pushen die Framerates sowieso in den Himmel. Dafür dass da Nanite und Lumen (also Raytracing GI) eingesetzt wird ist die Performance also schon wirklich einwandfrei und tendenziell sogar besser als bei aktuellen Spielen. Und der Performancehit bei gleichzeitigem massiven Zugewinn an Grafikdetails bzw. RT Beleuchtung mehr als nur vertretbar.
Bisher war auch jede Grafikdemo äußerst sparsam mit der VRAM Belegung. Oft kaum mehr als 4 GB belegt, obwohl die Demos teilweise 25 GB groß sind. Wenn man das mit aktuellen Spielen vergleicht ist das schon ein Wahnsinns Unterschied. Denn da steigt der VRAM Bedarf ja alleine durch RT schon sehr deutlich an. Und Texturen und Geometrie ebenfalls, so dass die Entwickler stark haushalten müssen. Nicht so bei der UE5.
Das Versprechen, dass man also beliebig große Assets mit scheinbar auch beliebig hochauflösenden Texturen verarbeiten kann, ohne dass es Auswirkungen auf den Speicherverbrauch hat wurde also gehalten. Der Speicherverbrauch scheint hier Primär wohl nur noch an der Auflösung zu hängen, mit der das Spiel gerendert und letztendlich Nanite die Polygone auflöst.
Direct Storage mit SFS sowie MeshShader lassen grüßen (ist das eigentlich von Epic ne eigene SW Implementierung oder greifen die auf diese DX12 Ultimate bzw. Hardware Features zurück?)
Na ja, lange Rede kurzer Sinn. Das was ich bisher gesehen habe ist schon echt beeindruckend. Ich hoffe nur, dass die Engine nicht wie viele UE4 Spiele (und auch viele andere DX12 Spiele) von Shader Kompilation Rucklern geplagt wird und dass sie Wege finden, das zu umgehen.
Laufen bisher alle ziemlich gut. Die Performance ist noch nicht so ganz stabil und schwankt relativ stark, aber grundsätzlich sieht das schonmal sehr gut aus. Spätestens TSR oder DLSS pushen die Framerates sowieso in den Himmel. Dafür dass da Nanite und Lumen (also Raytracing GI) eingesetzt wird ist die Performance also schon wirklich einwandfrei und tendenziell sogar besser als bei aktuellen Spielen. Und der Performancehit bei gleichzeitigem massiven Zugewinn an Grafikdetails bzw. RT Beleuchtung mehr als nur vertretbar.
Bisher war auch jede Grafikdemo äußerst sparsam mit der VRAM Belegung. Oft kaum mehr als 4 GB belegt, obwohl die Demos teilweise 25 GB groß sind. Wenn man das mit aktuellen Spielen vergleicht ist das schon ein Wahnsinns Unterschied. Denn da steigt der VRAM Bedarf ja alleine durch RT schon sehr deutlich an. Und Texturen und Geometrie ebenfalls, so dass die Entwickler stark haushalten müssen. Nicht so bei der UE5.
Das Versprechen, dass man also beliebig große Assets mit scheinbar auch beliebig hochauflösenden Texturen verarbeiten kann, ohne dass es Auswirkungen auf den Speicherverbrauch hat wurde also gehalten. Der Speicherverbrauch scheint hier Primär wohl nur noch an der Auflösung zu hängen, mit der das Spiel gerendert und letztendlich Nanite die Polygone auflöst.
Direct Storage mit SFS sowie MeshShader lassen grüßen (ist das eigentlich von Epic ne eigene SW Implementierung oder greifen die auf diese DX12 Ultimate bzw. Hardware Features zurück?)
Na ja, lange Rede kurzer Sinn. Das was ich bisher gesehen habe ist schon echt beeindruckend. Ich hoffe nur, dass die Engine nicht wie viele UE4 Spiele (und auch viele andere DX12 Spiele) von Shader Kompilation Rucklern geplagt wird und dass sie Wege finden, das zu umgehen.