Drewkev schrieb:
Aber wieso profitiert die GraKa von steigender CPU-Leistung, wenn Sie wenig ausgelastet ist?
Ich versuchs auch nochmal mit einer Erklärung:
Dein Spiel rendert einen Frame in 1080p.
CPU: braucht ~20ms, um die Befehle für die Grafikkarte vorzubereiten
GPU: braucht ~15ms, um das ganze zu rendern
=> Gesamtdauer: 20ms (
50 FPS)
=> GPU-Last:
75%
Nun das ganze in 4k:
CPU: Braucht immer noch 20ms, um den Frame vorzubereiten
GPU: Braucht nun 30ms, um das ganze zu rendern
=> Gesamtdauer: 30ms (~33 FPS)
=> GPU-Last: 100%
Nun das ganze mit einer doppelt so schnellen CPU in 1080p:
CPU: braucht ~10ms, um die Befehle für die Grafikkarte vorzubereiten
GPU: braucht immer noch ~15ms zum rendern
=> Gesamtdauer: 15ms (
~66 FPS)
=> GPU-Last:
100%
Und mit der schnellen CPU in 4k:
CPU: Braucht dieselben 10ms wie oben
GPU: Braucht nach wie vor 30ms zum Rendern
=> Gesamtdauer: 30ms (~33 FPS)
=> GPU-Last: 100%
Wie man sieht, liefert die doppelt so schnelle CPU in 1080p geringfügig höhere Bildraten, weil sie vorher die GPU nicht ausgelastet hat. In 4k hat sich mit derselben Grafikkarte nichts verändert.
An alle Klugscheißer: Ja, die Beispiele sind vereinfachend und setzen voraus, dass das Rendering komplett asynchron läuft. Ich weiß selber, dass das in der Realität nicht immer der Fall ist, auch wenn das natürlich der Optimalzustand ist.