ZeroStrat schrieb:
Nope. Das gilt nur, wenn sich die Workloads grundsätzlich Richtung CPU verschieben, aber das sieht nicht danach aus.
Ich weiß ja nicht, wie lange du aktiv dich mit IT beschäftigst und dem Coden, aber der CPU workload wird immer größer. Und dafür kann man sich gerne Mal die Multiplattform engines Anschauen, wobei Unity schon eher Ausnahme ist. Aber selbst die Frostbite engine Verhält sich so.
Manchmal Frage ich mich bei dir, wie du so selbstsicher solche Falschen Thesen niederschreibst. Du darfst das aber gerne mal mit einer Messereihe widerlegen.
In meiner Welt der IT, brauchen wir immer leistungsfähigere Tasks um den workload abzuarbeiten. Und das gilt gerade für Spiele.
Da sind bis zu 20% schon nicht schlecht, und es ist gut, dass BAR endlich Einzug findet.
Aber ich glaube du weißt dass schon, und verrennst dich Mal wieder. Wäre dem nicht so, würde man auch nicht immer weiter die Single Core Leistung sowohl bei ARM als auch in x86 Hochschrauben. Im HPC Bereich wäre deine Aussage übrigens richtig, da da die CPU unterstützend zum GPU Cluster arbeitet. Aber das ist auch angepasster Code, für den Workload.
Und engine und im allgemeinen Spiele Code, ist Sau mäßig geschrieben und optimiert. Da Lobe ich mir in der Tat OSX, weil es bei Apple wesentlich bessere Optimierungen gibt.
Aber egal ob zB ein Anno und selbst ein Stellaris / CiV, allesamt miserabel optimiert. Und stark von der CPU Power abhängig.
Shooter mögen da weniger anspruchsvoll sein, aber kein Wunder bei der Nutzung der Ressourcen. Dennoch unterliegen auch die Shooter engines der Prämisse immer stärkere Workload zu erzeugen. Vllt in 5-10 Jahren durch der Gang in die Breite vllt anders, aber das glaube ich nicht.
Hier wäre so ein Beispiel aus dem Bereich AI:
https://searchenterpriseai.techtarget.com/feature/CPUs-vs-GPUs-for-AI-workloads und gerade bei Themen wie Algorithmen, werden GPU noch lange die zweite Geige spielen was Effizienz und Ergebnis betrifft.