Danke HisN, dass mal jemand versucht, das Problem allgemein und trotzdem detailliert zu analysieren.
Ist auf jeden Fall die Nr.1 Adresse, zu der man jmd. verlinken kann, wenn er gar keine Ahnung vom Thema hat.
Da Du die Leute hier (und auch sonst wo) zu mündigen "Experimentatoren" erziehen möchtest, was ich auch super finde, hier noch ein paar Anmerkungen bzw. Erweiterungen zu den vorgeschlagenen Tests:
1. An der Anti Aliasing Stufe (1x/2x/4x/8x/... MSAA/SSAA) drehen, um ein GPU-Limit nachzuweisen. Soweit so gut.
2. Die Auflösung reduzieren/erhöhen würde ich erst viel später bzw. nur dann machen, wenn es nicht anders geht, weil man hier nicht sicher sein kann, ob die Engine nicht doch andere Details berechnet, sich quasi "intelligent" an die Auflösung anpasst.
3. Die CPU untertakten. Das sollten die Meisten hinbekommen und das bietet sich auch sehr gut zum Testen eines Limits an. Das Gute am UNTERtakten ist, dass man genau das Gleiche testen kann wie beim Übertakten, aber nicht die OC-typischen Probleme hat.
Ich habe mit einer 5870@1920x1080 und einem Core i7 zwischen 2GHz und 4GHz bei Crysis fast keinen Unterschied feststellen können, weil das Spiel durch die GPU zu stark limitiert ist. Ausgenommen Extremsituationen/Einbrüche. Womit wir beim nächsten Punkt sind.
4. Minimum FPS (min fps) sind das eigentlich wichtige beim Spielen. Die besten Durchschnitts FPS (avg fps) bringen wenig, wenn das Spiel stellenweise extrem einbricht. Dann lieber etwas geringere avg fps und bessere min fps.
Nun kann man nicht sagen, dass die min fps nur CPU abhängig sind, aber es zeigt sich immer wieder, dass durch eine bessere CPU die min fps höher sind, selbst wenn die avg fps schon am GPU-Limit sind (d.h. die avg fps sich NICHT bessern durch eine bessere CPU).
Da die meisten "Benchmark-Seiten" sich zu sehr auf avg fps konzentrieren, fallen die sehr wichtigen min fps leicht mal unter den Tisch. Das wiederum trägt dazu bei, dass "Unwissende" gerne die avg fps als wichtigste Kennzahl ansehen.
5. CPU-Last bzw. GPU-Last interpretieren
Durch die vielen Cores ist die CPU-Last-Anzeige des Taskmanagers immer undurchsichtiger. Man kann daher nur noch relativ schwer überhaupt ein CPU-Limit erkennen bzw. muss ausprobieren, inwiefern ein Spiel eine CPU überhaupt auslasten kann. Dabei kann das in 3 beschriebene Untertakten in Kombination mit minimaler AA-Stufe (1xAA) helfen, die CPU mehr ans (für das Spiel spezifische) Limit zu bringen.
Durch Hyperthreading wird das Auslesen des Taskmanagers noch "perverser", da es nun noch davon abhängt, ob das Spiel überhaupt Hyperthreading nutzen kann. Andernfalls ist man selbst bei Nutzung aller Cores schon bei einer Anzeige von 50% am CPU-Limit.
Darüberhinaus ist die %-Angabe jetzt nicht mehr linear, weil man bei 50% evtl. schon kurz vor der "realen 100%-Grenze" ist, da ein "HT-Core" eben nicht ansatzweise die Leistung eines richtigen Cores liefert.
Inwiefern die Angabe der GPU-Last in Tools wie GPU-Z sinnvoll sind bzw. was die genau aussagen, kann ich leider gar nicht sagen. Wenn man Glück hat, sind sie maximal sinnvoll (wie eine Taskmanager-Anzeige für einen Single-Core-Prozessor). Wenn man Pech hat, sind sie weniger sinnvoll.