Zum Thema Spielebenchmarks mal ein Standpunkt:
Sehr viele Leute hier verstehen nicht, wie diese Ergebnisse zustande kommen und das es um mehr geht als nur die fps zu vergleichen. Ich zitiere dafür gerne aus der Signatur von Unyu:
Unyu schrieb:
Aber worauf es doch ankommt ist die Sichtweise auf den Test der gerade gemacht wird oder eben hier dargestellt ist. Es ist ja schön und gut, dass CB einen "realitätsfernen" und einen "realitätsnahen" Spielebenchmark eingeführt hat. Es folgen aber haarstreubene Diskussionen, was nun "richtig" ist.
Fakt ist: möchte man ein System testen, also eine Platlform wie zum Beispiel "Dragon" oder ein möglichst durchschnittliches INTEL-System (also mit Mittelklasse Komponenten wie die 9800 GTX) dann sind die "realitätsnahen" Benchmarks korrekt gewählt und beschreiben die zu erwartene Leistung bei dieser Konfiguration. Damit kann der geneigte Leser auch sehr gut abschätzen, wie sein System in etwa performen wird.
ABER: hier geht es um die reine Bewertung der CPU (oder es sollte so sein). Daher finde ich die "realitätsnahen" Speielbenchmarks sinnlos. Auch zum Teil würde ich soweit gehen, dass der Gesamtsystemverbrauch an Strom irreführend ist sowie wie die ganzen Anwendersoftware-Benchmarks.
Die aktuellen Prozessoren lassen sich eben
nicht mehr auf die Art und Weise vergleichen und benchmarken wie es zu Zeiten der Single-Core-Chips der Fall war. Moderne CPUs sind supersklar, haben Energiesparmodie und "Turbo-Boost-Funktionen", Unterstützung Multithreading und weitere Dinge. Zum Teil ist dafür aber die Software noch gar nicht ausgelegt bzw. andere Komponenten, wie eine Mittelklasse-Grafikkarte verfälschen die Ergebnisse.
Daher würde ich mir wünschen, dass zukünftig unterschieden wird bei dem Testen von neuer CPU-Hardware nach reinen CPU-Tests und
getrennt davon Systemperformance-Tests (die dann nachgelagert veröffentlicht werden können).
Der Aufwand mag dann etwas höher sein, aber es würde sich lohnen und man würde mit der Zeit gehen.
Reine CPU-Tests müssten dann nicht nach bestimmer Software gerichtet ausgelegt werden (welcher Compiler bevorteilt nun einen Hersteller?) sondern man nimmt einfach theoretische Benchmarks die nüchtern die reiche Rechenleistung der CPU und damit der Architektur bewerten (spec_int oder Drystone/Whetstone sind gute Kandidaten). Dann noch ein paar Speicherbandbreitentests, Spieletests wenn nötig aber ohne Grafikkartenlimitierung und die Leistungsaufnahme wird bei verschiedenen Auslastungsszenarien direkt an der CPU gemessen. Die Auswertung ergibt dann Performance, Leistung/Watt, Leistung/Euro. Fertig ist der CPU-Benchmark.
Der Systemtest kann dann wieder wie hier geschehen durchgeführt werden, wobei man auch theoretische Tests und "pseudo" CPU-Tests ganz verzichtet aber dafür eine möglichst breitbandige, "realitätsnahe" Auswahl von Anwender-Benchmarks aufnimmt.
Mit dieser Lösung wäre endlich Schluss mit der ganzen Diskussion über die Abhängigkeiten im System und der reinen CPU-Leistung. Gerade die modernen Prozessoren, die nun aktuellen alle Server-Kern-Derivate sind, benötigen eine entsprechend differenzierte Betrachtung. Es macht kein Sinn klugscheißend grafikkartenlimierte Benchmarks für die Bewertung einer CPU-Archirtektur in den Raum zu werfen und zu behaupten, Chip A ist ja gleich schnell wie Chip B obwohl Chip A doppelt so viele Kerne hat wie Chip B.
"Food for thoughts".