stefan92x schrieb:
Ist es nicht eher umgekehrt? Wenn ich auf das Frametimes-Leistungsrating schaue (was für mich persönlich immer die wichtigste Metrik ist), dann verliert AMD 7% vom 14900K zum 12100F, Nvidia 10% und Intel 17%. Demnach steht AMD doch hier am besten da?
Lol also nix für ungut, die Sichtweise ist ja mal richtig daneben.
Das würde ja heißen, selbst wenn bei AMD die Performance im CPU Limit nur halb so hoch wäre, wie bei Nvidia, solange der Leistungsunterschied zwischen 14900K und 12100F bei AMD relativ zu einander geringer ist, ist AMD besser? So kann man sich auch wirklich alles zurechtbiegen oder?
Wir sehen doch, dass der 12100F die GPUs allesamt gegenüber dem 14900K einbremst. Es herrscht also eindeutig ein CPU Limit.
Und hier ist Nvidia bei gleicher CPU schneller. Sowohl AVG als auch bei den Frametimes.
Wie kann man das als Vorteil für AMD sehen?
Der Relative Verlust von einer CPU zur anderen spielt doch überhaupt keine Rolle.
Wenn man diese Sichtweise konsequent anwenden würde, dann würde man AMD selbst dann bevorteilen, wenn die performance auf dem 14900K genauso langsam wie auf dem 12100F wäre, weil du nur den Unterschied zwischen den CPUs betrachtest und der wäre dann besonders gering. Heißt Nvidia könnte mit dem 14900K 10, 50 oder auch 100% schneller sein als AMD und es würde mit deiner Sichtweise niemals dazu führen, dass du sagst, Nvidia performt besser, weil die Leistungsdifferenz zwischen schnellster und langsamster CPU größer wird und dabei völlig ignoriert wird, wie hoch die performance auf der jeweiligen CPU tatsächlich ist.
Letzten Endes sind die Unterschiede marginal. Aber das ändert nichts daran, dass deine Interpretation überhaupt nicht funktioniert.