iGameKudan schrieb:
Was dann am Ende vom Feature Level über blieb sei mal dahingestellt… Aber funktioniert haben DX12-Spiele dann eigentlich fast immer, nur konnten die Leistung durchaus niedriger ausfallen
Und wie viele Entwickler haben bei Release von DirectX 12 die neuen Features wirklich vorausgesetzt und genutzt?
Und dass nur die Leistung niedriger ausfiel, lag auch daran, dass Nvidia Teile von DirectX 12 in Software implementiert hat, die eigentlich in Hardware gehören. Die Hardware der GTX 900er Serie konnte das nicht, die Karte abschneiden wollte Nvidia nicht, also kam eine langsame Software-Lösung her:
https://en.wikipedia.org/wiki/GeForce_900_series#Async_compute_support
Wenn Nvidia das selbe für Mesh Shader tuen würde, dann würde das auch zu weniger Problemen führen. Für den Entwickler bedeutet es so halt:
- einmal große Teile des Spiels mit Mesh-Shadern programmieren (genauer: der Teil der das Bild berechnet)
- einmal das selbe ohne Mesh-Shader programmieren für die alten GPUs
Der Entwickler hätte sich aber die Frage stellen können, wenn noch so viele GPUs im Umlauf sind, die keine Mesh-Shader beherrschen, ob man dann nicht das neue Feature, welches neuere Hardware besser nutzt, nicht erst in 5 Jahren mit dem nächsten Titel nutzt.
aufkrawall schrieb:
Mal abgesehen davon, dass Nanite selbst auf Vega noch performant läuft. Die AW2-Engine ist einfach eine Fehlentwicklung.
Ich kann gerade nicht die Performance von UE5 zu AW2-Engine vergleichen, aber na ja, hängt immer vom Anwendungszweck und den Resourcen ab. Unreal hat einfach viel mehr Leute und Geld um ne Engine auf die Beine zu stellen. Stutter-freies Streaming von großen Open Worlds hab ich trotzdem bei der Unreal Engine bisher nicht gesehen.
Jeder hat seine Prioritäten im gegebenen Budget und ich würde mal vermuten, dass die AW2-Engine auch ihre Stärken hat, sonst hätte man bestimmt keine Eigenentwicklung betrieben sondern die Unreal Engine genutzt.