Sinatra81 schrieb:
Ich bleibe dabei, für ein gescheites Fazit/Einordnung/Kaufempfehlung(gerade wegen des hohen Preises) hätten praxisnahe Tests dazugehört!
Wenn bei 720p die Render-Auflösung zusätzlich auf 25-50% gesetzt oder mit FSR/DLSS Performance Mode getestet wurde, war es dann nicht nur 360p?
intereddy schrieb:
Warum wird in 720p und nicht in 4K getestet?
IBISXI schrieb:
Du kannst von keiner CPU die Performance über 720p Grafiktests abschätzen.
Du kannst damit nur den Einfluss der Grafikkarte minimieren.
Aber die Hardware ist um ein vielfaches komplexer geworden.
Badly schrieb:
Vorab ich will nicht schimpfen...
Aber wer will den in Gottes Namen 2023 noch nen fucking Bottle Neck Benchmark in 720p sehen.
domian schrieb:
So schön die Tests in 720p auch sind, damit nichts ins CPU limit läuft, ist es für mich nicht praxisrelevant. Kein Besitzer einer 4090 wird jemals diese Auflösung nutzen.
fox40phil schrieb:
und was genau hat man davon, wenn man gar nicht in 720p zockt? Dann nützen einem die Zahlen auch nichts.
Miuwa schrieb:
Sorry, falls das inzwischen schon zu Tode diskutiert wurde, aber: Ist ja schön, wenn das die Unterschiede besser darstellt, aber was hilft mir das, wenn die Ergebnisse für mich in der Praxis nicht relevant sind.
usw. usf.
Es wird zwar hier oft an den Symptomen erklärt, warum man in 720p misst, nicht jedoch der technische Hintergrund, womit es bei einigen sicher noch zu Verständnisschwierigkeiten kommt.
Auch fällt immer wieder der Ausdruck "Praxisrelevanz" in diesem Zusammenhang.
Dabei wird die "Praxisrelevanz" umschrieben als ein Zusammenspiel aller sich im PC befindlichen Komponenten inkl. des neu zu testenden Prozessors.
Holen wir also mal ein wenig aus, damit das alles verständlicher wird (hoffentlich):
Schauen wir uns zuallererst an, welche Arbeiten ein Prozessor in Sachen Game- Engine zu erledigen hat:
-Verarbeitung von Szenendaten
-Verarbeitung von Physik
-Verarbeitung der Usereingaben
.... viele, viele andere Kleinigkeiten...
und dann:
-Synchronisation aller Daten mit anschließender Weitergabe der Szenendaten an den Grafikkartentreiber.
Und nun kommen wir auch schon zu einem der am häufigst auftretenden Missverständnisse.
Viele assoziieren mit der Ausgabeauflösung eine erhöhte Detaildichte in Sachen Geometrie, Texturen und Co., die dann wiederum mehr Last auf die CPU legen müsste.
In Wirklichkeit ist es aber so, dass ein Prozessor seine Instruktionen, die von der Game- Engine kommen, komplett auflösungsunabhängig rechnet.
Die Szenendaten liegen nicht Pixelbasiert, sondern Vektorbasiert vor, also quasi in unendlicher Auflösung und Objektdichte.
Die CPU schickt anhand der vorliegenden Daten dann z.B. den Befehl: Zeichne einen Kreis an dieser oder jener Stelle mit Durchmesser XY. Oder - Zeichne dort ein Viereck. Diese Befehle sind die berühmt- berüchtigten Draw Calls.
Das geht dann in Richtung Treiber, der die Zeichenbefehle entgegennimmt, anschließend prüft, welche Auflösung ausgegeben werden soll und die Szenendaten/Koordinaten anschließend ins Verhältnis zur Auflösung setzt, an die Grafikkarte zur Verarbeitung schickt und in die vorgegebene Auflösungsmatrix (Auflösung des Anzeigegeräts) presst.
Diesen Vorgang nennt man Rastern.
Die CPU hat also keinen Berührungspunkt, wenn es um Dinge wie Auflösung geht.
Das Verarbeiten einer Auflösung findet nämlich im Zusammenspiel des Grafikkartentreibers (CPU spielt ab da nur mehr eine untergeordnete Rolle) mit der GPU statt.
Will ich jetzt also wissen, wie oft wie schnell die CPU ihre Daten maximal an den Treiber schicken kann, muss ich möglichst alles ab Treiber, was die Verarbeitung behindern könnte ausblenden.
Eine überlastete Grafikkarte verhindert eine ungestörte Verarbeitung, die zur Ermittlung der Verarbeitungsleistung der CPU notwendig ist.
Der Treiber schickt in diesem Fall ein Signal an den Prozessor, dass dieser mit der Verarbeitung und dem Schicken weiterer Daten warten soll, weil das Bild durch die Grafikkarte noch nicht fertig gerastert ist.
Spätestens ab da ist die Leistungsmessung der CPU durch die langsame Verarbeitung der Grafikkarte für den Mülleimer.
Die ermittelten Werte, wenn man von einer CPU Leistungsmessung spricht, sind also idealer Weise die, die man mit dieser CPU bei der getesteten Software mit einer unendlich schnellen Grafikkarte erreichen könnte.
Dazu auch eine Messreihe, die das Verhalten nachweist:
https://www.computerbase.de/forum/t...t-eine-frage-des-limits.1946885/post-24153414
Wir sehen anhand der Messung - Solange man die CPU ungebremst die Szenendaten verarbeiten lässt, ist völlig egal welche Auflösung gewählt wird. Sie bleibt immer gleich schnell.
Das was die CPU in 300x200 an FPS und min. FPS maximal auf in Richtung Grafikkartentreiber schaufelt, unterscheidet sich nicht von den Werten, die diese CPU auch in UHD erreichen könnte, wäre die Grafikkarte dahinter unendlich schnell.
Somit steht dieser Wert ganz praxisrelevant für sich selbst.
Erreicht die zu messende CPU in Titel XY in niedriger Auflösung nicht mehr als min. 50 FPS, kann ich davon ausgehen, dass dies auch in allen höheren Auflösungen der Fall sein muss. Egal wie schnell die Grafikkarte dahinter ist.
Will ich in entsprechendem Titel also mindestens 60FPS erreichen, käme dieser Prozessor grunsätzlich nicht in Frage- Nebst dem, dass natürlich auch die Grafikkarte mitspielen muss.
Zeigt der CPU- Test, dass Du mit einem Prozessor mindestens 80FPS erreichen müsstest, Du erreichst aber nur 50FPS, dann weisst Du, dass nicht der Prozessor als schuldige Komponente auszumachen ist, sondern dass die Grafikkarte schwächelt.
Somit erhält man mit einem Test in niedrigen und niedrigsten Auflösungen die einzig praxisrelevanten Werte, die man zur Beurteilung der Leistungsfähigkeit einer CPU mit Spiel und Engine XY erhalten kann.
Nebst dem, dass man natürlich eine Aussicht auch für die Leistung bei zukünftigen Spieletitel erhält, da sich die Workload bei Spielen im Normalfall nicht fundamental unterscheidet.
Bei Rückfragen bitte gerne einfach melden.