instinkt schrieb:
taxxor> ich glaube das geht in die richtige Richtung, aber verstanden habe ich es immer noch nicht
Mal als praktisches Beispiel
CPU A und CPU B werden mit der schnellsten verfügbaren GPU in 720p getestet um genau das zu erhalten, was die CPUs leisten können.
A erreicht in einem Spiel 120fps, B erreicht 160fps, ist also 33% schneller.
Du besitzt einen 60Hz 1440p Monitor und eine RTX2080 und kannst das Spiel mit dieser GPU sowieso nur mit ~80FPS spielen. Die Werte aus dem CPU Test sind für dich also auf den ersten Blick komplett irrelevant, weil du mit beiden CPUs trotzdem nur 80FPS haben wirst.
Außerdem ergab das Review in höheren Auflösungen auch nur Unterschiede von unter 5% zwischen den beiden.
Also kaufst du die günstigere CPU, in dem Beispiel ist das die die 120FPS erreicht hat.
Nun möchtest du im Herbst auch endlich mal 144Hz High-End Gaming erleben und kaufst dir einen 144Hz Monitor samt einer RTX4080.
Du freust dich, dein Spiel mit dieser starken GPU endlich auch in 144FPS spielen zu können, aber merkst dann, dass deine GPU nicht ausgelastet wird und du bei 120FPS kleben bleibst.
Du willst aber unbedingt 144FPS haben, also drehst du ein paar Einstellungen runter, bringt aber nichts, du bleibst bei 120FPS, weil die CPU limitiert.
Hättest du dich für die CPU entschieden, die in 720p 33% schneller war, hättest du nun komfortabel mit 144FPS Limit spielen können.