Draco Nobilis schrieb:
Sowas passiert bei hochoptimierten Simulationsspielen eben. Die nutzen den Cache massiv.
Der Cache wird nicht „ausgenutzt“, sondern gebraucht.
Alles was nicht in den L1 passt, verlangsamt die rechenoperation, weil auf den L2 zugegriffen werden muss. Alles was nicht in den L2 passt, wird aus dem L3 geholt, alles was nicht in den L3 passt, muss aus den RAM geholt werden.
Wenn ein Spiel also sehr stark von einem größeren L3 Cache profitiert, dann heißt das, dass das Spiel auf CPUs mit weniger Cache sehr häufig auf den RAM zugreifen muss. Das ist langsam und grundsätzlich eher schlecht. Idealerweise sollten RAM Zugriffe minimiert werden, damit dieser nicht zum Bottleneck wird und die ALUs immer voll ausgelastet werden können.
Eigentlich sind also die Spiele, die am wenigsten von größerem Cache profitieren, die Spiele die am besten optimiert sind und am wenigsten von RAM Zugriffen ausgebremst werden.
Allerdings ist natürlich auch zu erwarten, dass der Bedarf von immer komplexeren Anwendungen immer weiter steigt. Deswegen muss das nicht unbedingt auf schlechte Optimierung zurückzuführen sein. Aber man muss sich eben auch im klaren sein, dass ein Spiel das nicht vom größeren Cache profitiert eigentlich das best Case Szenario aus programmiertechnischer Sicht ist. Mit je weniger L3Cache und RAM Zugriffen eine Anwendung auskommt, desto besser.
Sich zu wünschen, dass Spiele besonders Stark vom 3D Cache profitieren ist also eigentlich genau das was man sich NICHT wünschen sollte, weil es eben keinen Sinn ergibt.
Das wäre so, als würde man sich wünschen, dass Spiele für die gleiche Optik mehr VRAM brauchen. Dann würden sie auf Karten mit genug VRAM genauso gut wie vorher laufen, nur auf Karten mit weniger Speicher umso schlechter. Man würde nichts gewinnen sondern nur verlieren.
Mit dem Cache verhält es sich genauso.