Für diejenigen, die immernoch nicht verstanden haben, wann und warum CPU- Tests mit niedrigen Auflösungen gefahren werden:
Wenn man ein Objekt auf den Bildschirm zeichnen will, so sieht die Instruktionskette für die CPU immer gleich aus.
z.B. zeichne Kreis auf Koordinate X,Y,Z mit einem Radius von Y.
In der Grafikkarte wird die Instruktion dann angenommen und in eine "Projektionsmatrix" übersetzt, die die Werte dann in Relation zur Auflösung an entsprechende Stelle und mit entsprechender Größe positioniert. Die CPU ist ab diesem Zeitpunkt schon raus.
Der Irrtum, den hier einige unterliegen ist, dass viele die Vorstellung im Kopf haben, dass bei niedrigerer Auflösung zeitgleich weniger Details von der CPU berechnet werden müssen, da ja z.B. kleinere Objekte mit sinkender Auflösung am Horizont "unsichtbar" werden.
Diese Objekte werden aber vom Prozessor weiterhin voll berechnet!
Unabhängig der Auflösung wird also der immergleiche Datensatz an die Grafikkarte geschickt.
Nur in der Bildausgabe verschmilzt der Farbwert der Pixel eines kleinen oder weit entfernten Objektes mangels Auflösungsvermögen, nach Gewichtung, irgendwann mit dem Farbwert der umliegenden Pixel und das Objekt wird somit nicht mehr erkennbar.
Es geht im "Pixelbrei" unter, wird aber technisch gesehen noch voll berechnet.
Also können wir festhalten, dass das, was ein Prozessor bei der Spieleberechnung zu tun hat, unabhängig der Auflösung passiert.
Was passiert nun, wenn ich wissen will für wieviele FPS eine CPU bei Spiel XY maximal gut ist?
->Ich muss dafür sorgen der CPU alle Flaschenhälse aus dem Weg zu räumen, die diese "bremsen" bzw. in den Wartemodus versetzen könnten.
Womit wir bei den Grafikkarten/der Auflösung wären.
Wie oben bereits beschrieben, werden Grafikkarten im Gegensatz zur CPU mit steigender Auflösung und Pixelzahl immer mehr belastet.
Das geht so lange, bis diese nicht mehr hinterherkommen, die Instruktionen der CPU schnell genug in entsprechender Auflösung in ein Bild umzuwandeln. (Das nennt man GPU Limit).
Der Prozessor legt dann Wartezyklen ein, bis er seine Daten an die Grafikkarte loswerden kann.
Dass es nicht sinnvoll ist, die Maximalleistung eines Prozessors bei Spiel XY messen zu wollen, wenn dieser ständig auf die Bereitschaft der Grafikkarte warten muss, sollte jedem einleuchten.
Nun- Warum macht man nun das Ganze?
Angenommen die Grafikkarte ist nicht der beschneidende Faktor und es stellt sich heraus, dass die CPU bei Titel XY minimal für 50 und maximal für 100 FPS Instruktionen an die Grafikkarte schicken kann, so kann er dies über alle Auflösungen hinweg so lange tun, bis die Grafikkarte in die Knie geht.
Liefert bei mir das Spiel, das lt. CPU- Test 50 und max. 100FPS liefern soll, bei meinem System nur 50 FPS, so weiss ich dann folglich, dass diese CPU zwar mehr liefern könnte, aber meine Grafikkarte dahinter zu schwach ist, um die Instruktionen der CPU schnell genug abzuarbeiten.
Ich weiss aber auch, dass ich mir mit dieser CPU keine Grafikkarte reinsetzen brauche, die bei der von mir gewünschten Auflösung mehr als doppelt so stark ist, weil dann wiederum die CPU zu schwach wäre.
Ergo- Die Messung einer CPU bei einem Spiel XY gibt einem wertvolle Informationen über das Potenzial, welches diese besitzt, die künftig kommenden, schnelleren Grafikkarten bedienen zu können.
Zudem lässt sich bei einer umfangreicheren Messung mit mehreren Titeln tatsächlich eine Tendenz ableiten, ob eine CPU generell für Spiele gut geeignet ist oder eher weniger.
Das ist schon die ganze Magie, die dahintersteckt.
Für weitere Fragen, bitte an mich wenden.
LG
Zero