Finde die Begründung einfach unlogisch.
Wenn die CPU die KI berechnen muss, so bleibt die Last doch gleich, ob in 1080p oder 720p oder ganz ohne Rendering. Die KI wird doch nicht rechenintensiver weil die GPU mehr Pixel berechnen muss.
Fakt ist doch einfach, dass der Code generell die Hardware stark auslastet, sei es aus mangelnder Optimierung oder tatsächlich aufwändiger Algorithmen. Aber mit so fadenscheinigen Begründungen die jeglicher Logik entbehren zeigen die Entwickler schlicht fehlende Ehrlichkeit.
Wenn die CPU die KI berechnen muss, so bleibt die Last doch gleich, ob in 1080p oder 720p oder ganz ohne Rendering. Die KI wird doch nicht rechenintensiver weil die GPU mehr Pixel berechnen muss.
Fakt ist doch einfach, dass der Code generell die Hardware stark auslastet, sei es aus mangelnder Optimierung oder tatsächlich aufwändiger Algorithmen. Aber mit so fadenscheinigen Begründungen die jeglicher Logik entbehren zeigen die Entwickler schlicht fehlende Ehrlichkeit.