Warum der Test das Thema verfehlt hat und das Fazit wertlos ist
Es wurde ja schon mehrfach angesprochen, allerdings scheint bei einigen ein Verständnissproblem vorzuherrschen. Mit diesem Test wollte Computerbase feststellen, wie gut oder schlecht aktuelle Spiele mit Multi-Core-CPUs skalieren.
Die Frage ist, wie die Praxis aussieht. Das wollen wir in diesem Artikel herausfinden, indem wir mit einigen beliebten Spieletiteln – und nur um diese geht es, andere Software wollen wir nicht behandeln – untersuchen, inwieweit Spiele mit einem zweiten, dritten und gar vierten CPU-Kern schneller laufen.
Leider wurden grundlegende Fehler im Testsetup gemacht, die gerade die Beantwortung dieser Frage nicht zulassen.
1) Die gewählte Auflösung
Zunächst einmal muss man sich folgendes vor Augen führen, auch wenn in Foren immer wieder gegenteiliges zu lesen ist, so steigt die CPU-Last mit zunehmender Grafikauflösung nicht. Vielmehr existieren zwei unabhängige Limites, zum einen das GPU-Limit und zum anderen das CPU-Limit. Welche Framerate man als Spieler zu gesicht bekommt, bestimmt stets der niedrigere der beiden Werte. Liegt die Obergrenze der CPU-Leistungsfähigkeit in einem Spiel also beispielsweise bei 100fps und das GPU-Limit bei 50fps, dann wird man nur 50fps erhalten, auch wenn die CPU doppelt soviel liefern könnte. Umgekehrt verhält es sich analog.
Um also eine Aussage über den Einfluss der CPU und die Skalierung auf mehrere Kerne treffen zu können, so muss man zunächst sicherstellen, dass die Grafikkarte nicht zum limitierenden Faktor wird, denn mit Erreichen des GPU-Limits bleibt der gemessene Wert stets gleich, ganz unabhängig von steigender Leistungsfähigkeit der CPU.
Die hier gewählten Auflösungen eignen sich in den verwendeten Spielen leider nicht, um zuverlässig ein GPU-Limit auszuschließen und somit hat man nicht die Skalierung ausgemessen, sondern schlicht nur das GPU-Limit ermittelt. Geeignete Auflösungen wären 640x480 oder 800x600 gewesen und das Ganze dann ohne Antialiasing oder Anisotrope Filterung.
Noch einmal zur Erinnerung, im Gegensatz zur hartnäckigen Urban Legend belasten die Qualitätseinstellungen AA und AF ausschließlich die Grafikkarte. Natürlich ist die Auflösung nicht praxisnah und niemand spielt in solchen Einstellungen, dafür erlaubt sie Aussagen über die CPU-Skalierung und das war ja der Anspruch des Artikels.
2) Die gewählte Taktfrequenz
Wenn man die Skalierung über mehrere Kerne betrachten möchte, ist eine Tatfrequenz von 4Ghz wenig sinnvoll. Bereits eine Single-Core-CPU mit 4Ghz dürfte in den meisten Fällen bereits ausreichen, um die Spiele nahe ans GPU-Limit zu treiben und gerade das will man ja vermeiden (s.o.), mit steigender Kernanzahl wird die Taktrate von 4Ghz zunehmend zum Problem. Für den Anspruch des Artikels wäre also ein möglichst konservativ getakteter Quadcore vorteilhaft gewesen.
3) Timedemos
Timedemos eignen sich leider auch sehr schlecht, um den Einfluss der CPU zu messen. Im Spiel selbst gibt es immer wieder Szenen, wo durch umfangreiche K.I.-Berechnungen die CPU deutlich stärker belastet wird, als in Timedemos. Natürlich ist es nicht immer zu machen, aber wo möglich sind Messungen mit Savegames aussagekräftiger.
4) Praxisrelevanz
Teilweise wurde ja argumentiert, dass theoretische Benchmarks zur Skalierung auch nicht sinnvoller seien und der Artikel in seiner jetztigen Form wenigstens aufzeigt, welchen Einfluss die CPU in realen Spieleinstellungen hat. Dem ist jedoch nicht so, während Messungen die ein GPU-Limit ausschließen übertragbare Ergebnisse liefern (auch Grafikkarten der kommenden Generation werden am CPU-Limit nichts ändern), sind die hier ermittelten Werte lediglich für die exakt hier vorgegebene Konfiguration aussagekräftig und mal ehrlich, wie nützlich ist es denn, das GPU-Limit einer 9800GX2 bei 1280x1024 1xAA/1xAF oder 4xAA/16AF zu kennen?
Für eine Anekdote aus einem Spieleralltag gibt es
einen erhellenden Beitrag von BlackBirdSR im 3DCenter-Forum. Diese Alltagserfahrung verdeutlicht eindrucksvoll, warum theoretische Messungen des CPU-Limits in praxisfernen 800x600 zur Einschätzung des realen Spielempfindens relevant sind.
Leider ist anzunehmen, dass nun einige diesen Artikel fleißig als Quelle für die Behauptung angeben werden, die im Fazit aufgestellt wurde. Ich hoffe, ComputerBase nimmt diesen Artikel vom Netz und führt erneut Messungen durch, diesmal aussagekräftig. Ansonsten würde nur eine breite Öffentlichkeit in die Irre geführt und Unwissenheit und Voodoo-Glauben gibt es im PC-Bereich ja wahrlich genug. Fehler passieren überall, lasst das so nicht stehen.
Ich würde mir ferner wünschen, dass man die Erkenntnisse in Sachen CPU-Limit auch in kommenden Artikeln berücksichtigt. Benchmarks in einem Grafikkartenreview stünde es jederzeit gut an, wenn zunächst einmal das CPU-Limit der Testplattform im jeweiligen Spiel ermittelt und angegeben würde.
Gruß
smith