Limitiert CPU XYZ die Graka ABC?

Sorry, hab' eine Weile nicht hier reingeguckt.

typhson schrieb:
Bei deinem Hitman Bench hast du ja die Karte voll ausgelastet und 35fps im Schnitt gehabt. Ist das für dich spielbar, bzw flüssig?
Weiß nicht, hab's bisher nur kurz angespielt; Hitman hängt bei mir noch in der Warteschleife. Wenn's ein Shooter wäre, würde ich sicher Qualität reduzieren, um mehr FPS zu erhalten. So muss ich mal sehen. 35 ist aber schon sehr knapp.

Könntest du andersherum die Grafikqualität immer weiter herunterdrehen, bis die CPU limitiert?
Könnte ich wahrscheinlich schon. So ein Test wäre aber akademisch, weil ich - wie jedermann - meine Spiele in Einstellungen spiele, bei denen die Grafikkarte das Limit vorgibt. Für mich also irrelevant, weshalb ich ihn nicht durchzuführen brauche.

Ich würde nähmlich auch sagen, die CPU ist ausreichend, wenn sie einen bestimmte Anzahl fps liefern kann (wenn das bei dir wirklich 35 sind reicht der i5 eben noch (= ).
Es war die Grafikkarte, die 35 FPS geliefert hat, nicht die CPU. Die könnte natürlich mehr, das ist doch der Punkt! :)
 
Hi,

ermutigt durch die Resonanz auf diesen kleinen Test habe ich beschlossen, ihn im Rahmen meiner Möglichkeiten zu vervollständigen. Ich habe also meinen Lynnfield i5-750 erneut daraufhin überprüft, ob er mit meiner aktuellen Grafikkarte mithalten kann.

Die Ausgangsbasis ist dabei unverändert: Ich teste mein System unter meinen Bedingungen ohne Anspruch auf Allgemeingültigkeit. Wenn außer mir jemand aus den Ergebnissen einen Nutzen ziehen kann, freue ich mich.

Diesmal habe ich alle derzeit bei mir installierten Spiele getestet, die über einen standardisierten Benchmark-Test verfügen, entweder ingame oder extern wie im Falle von Crysis und seinem Nachfolger. Damit möchte ich der Kritik einer zu geringen Spieleauswahl im ersten Test begegnen. Die Reproduzierbarkeit der Ergebnisse ist mir dabei so wichtig, dass FarCry 3 wegen des nicht vorhandenen Benchmarks leider außen vor bleiben muss. Mit einem Strategietitel kann ich weiterhin nicht dienen.

Desweiteren habe ich diesmal gezielt nach dem CPU-Limit gesucht, weil es für einige wichtig zu sein scheint, dazu eine konkrete FPS-Zahl in Händen zu halten. Mit einiger Böswilligkeit bei der Auswahl der Einstellungen ist mir das auch gelungen. ;)

Um die Spiele untereinander vergleichbar zu machen, habe ich Hitman Absolution und Sleeping Dogs wieder mitgebencht. Im Unterschied zum ersten Test wurde nun aber der von AMD weiter geschärfte CCC 12.11 Beta 11 (anstatt des Beta 8) eingesetzt. Außerdem lief Fraps nicht mehr mit und ich habe den Echtzeitschutz des Virenscanners abgeschaltet, um externe Einflüsse zu minimieren. Im Ergebnis liegen Hitmans FPS deutlich höher als im ersten Test. Möglicherweise ist das dem neuen Treiber zu verdanken, denn Fraps und Virenscanner scheinen weniger als 1 FPS Unterschied auszumachen. Ein Spiele-Update von Steam gab es inzwischen auch.

Die Hardware blieb unverändert: Mein i5-750 ist auf 3,4 GHz übertaktet; für die Tests habe ich den Takt erst auf @stock reduziert und dann auf 3,8 GHz erhöht. Die Gigabyte HD 7950 Windforce 3 läuft mit 1200/1550 MHz, sofern nicht anders angegeben. Damit sollte sie es auch mit den derzeit stärksten HD 7970 und GTX 680 @stock aufnehmen können. Die Auflösung ist 1.920*1.080 px, der Catalyst Treiber steht auf "Standard".

Die Testkandidaten heißen diesmal

  • Sleeping Dogs
  • Hitman Absolution
  • Dirt 3
  • Batman Arkham City
  • Metro 2033
  • Crysis
  • Crysis 2

1. Lauf: Die Grafikkarte macht das Spiel. These: In Spieleeinstellung (hohe Auflösung, bestes Bild) ist der CPU-Takt nicht wichtig.

Auflösung 1.920*1.080. Alle Ingame-Grafikeinstellungen sind auf Maximum, vSync ist ausgeschaltet, vorhandene Framebegrenzer ebenso. PhysX bei Batman und Metro ist deaktiviert. Alle Benchmarks laufen je drei Mal, mit Ausnahme der beiden Crysis: ihnen gönne ich je sechs Durchläufe. Die Ergebnisse werden gemittelt und auf ganze Frames gerundet.

Code:
CPU-Takt GPU-/RAM-Takt  Dogs    Hitman  Dirt3    Batman  Metro   Crysis  Crysis2
2,8 GHz  1200/1550 MHz  49 FPS  39 FPS  113 FPS  76 FPS  52 FPS  49 FPS  69 FPS
3,4 GHz  1200/1550 MHz  51 FPS  40 FPS  116 FPS  82 FPS  54 FPS  56 FPS  70 FPS
3,8 GHz  1200/1550 MHz  51 FPS  40 FPS  117 FPS  88 FPS  55 FPS  59 FPS  71 FPS

Das Ergebnis bestätigt die kürzliche erste Messung: 1 GHz Mehrtakt der CPU bringen der Mehrzahl der Spiele nur 2-4% Mehr-FPS. Zwei Ausreißer gibt es allerdings: Batman Arkham City und Crysis. Beiden profitieren überproportional von der schneller taktenden CPU, mit 16 bzw. 20% Mehr-FPS. Im Falle Batmans ist das zwar interessant, in Anbetracht der hohen Frameraten für den Spielbetrieb aber nicht wichtig. Auf Crysis komme ich noch zurück.

Wieder zurückgetaktet auf 3,4 GHz, reduziere ich den GPU-Takt auf die Werkseinstellung und messe noch mal:

Code:
CPU-Takt GPU-/RAM-Takt  Dogs    Hitman   Dirt3  Batman  Metro   Crysis  Crysis2
3,4 GHz  900/1250 MHz   40 FPS  32 FPS   92 FPS 73 FPS  46 FPS  50 FPS  58 FPS

Das Ergebnis ist wie erwartet: Die FPS brechen durchgehend ein. Im Schnitt haben die sieben Spiele die Hochtaktung der Grafikkarte mit 20% höheren Frameraten belohnt. Mit 28% ist der Effekt bei Sleeping Dogs dabei am deutlichsten, auch der Hitman und Dirt 3 legen stark zu. Am wenigsten am GPU-Mehrtakt interessiert sind Batman und Crysis mit je 12%. Das sind genau die beiden Spiele, die vorher so intensiv auf den CPU-Takt reagiert haben. So weit schlüssig.

Nun folgt also die Suche nach der CPU-Limitierung. Crysis ist eindeutig ein Kandidat dafür. Batman zwar auch, aber ich entscheide mich dafür, nur diejenigen Spiele auf ein konkretes CPU-Limit hin zu messen, die bereits in meinem "Normalbetrieb" (höchstmögliche Bildqualität bei 1080p) unterhalb der vSync-Rate von 60 FPS bleiben. Diese Grenze ist eine zwar willkürliche, aber auch logische Folge meiner Gewohnheit, in Spielen vSync zu aktivieren, um Tearing zu vermeiden.

Alles über 60 FPS ist also "aus dem Schneider", alles darunter einen näheren Blick wert: Sleeping Dogs, Hitman Absolution, Metro 2033 und Crysis.

Sleeping Dogs fällt als Kandidat gleich aus: Ein Spiel, das so stark auf GPU-Taktratenänderungen reagiert, ist nicht in erster Linie von der CPU-Leistung abhängig. Tests unter niedriger Auflösung bestätigen das. Auch Metro 2033 teste ich probeweise. Ergebnis: Das Spiel scheint immer am Tropf der Grafikkarte zu hängen. Auch unter 1.280*720 differieren die FPS noch um 9 (88 zu 79), wenn ich den GPU-Takt von 1200 auf 900 MHz reduziere, und die GPU-Last liegt dann immer noch bei 70-90%. Selbst unter 1.024*768 messe ich noch unterschiedliche Frameraten bei verschiedenen GPU-Takten. Ob's daran liegt, dass sich AA und AF im Metro-Benchmark zwar reduzieren, aber nicht ganz abschalten lassen? Wer weiß.

Wie auch immer: Für die CPU meines Rechners ist weder Sleeping Dogs noch Metro 2033 in irgendeiner Konfiguration ein Problem. "80 FPS plus" in niedriger Auflösung und hohen Details erzielen beide eigentlich immer. Damit scheiden sie für die Suche nach einem spielepraxisrelevanten CPU-Limit aus.

Bleiben der Hitman und Crysis. Es wird sich zeigen: Unter den getesteten Spielen sind sie die einzigen, deren durchschnittliche FPS sich auch unter niedrigsten Auflösungen bei höchsten Details unterhalb von 60 einpendeln - wenn auch knapp und nur unter Werkstakt der CPU.

Wobei sich mir die Frage stellt, welche Einstellungen wirklich CPU-relevant sind. Denn stelle ich Crysis unter 1.280*720 ohne Bildverbesserer auf "Quality low", erhalte ich Bildwiederholraten pro Sekunde größer 120. Beide, GPU und CPU, pfeifen dann gelangweilt ein Liedchen und fragen, was es wohl sonst noch zu tun gäbe. Zugegeben, das ist die Extremvariante.

Es gilt den schmalen Grat der Einstellungen zu finden, unter denen die CPU ihre volle Leistung abgibt, die GPU aber noch halbwegs ruhig atmet, ohne schon zu schnarchen. Leider ist es nicht damit getan, die Auflösung zu reduzieren und AA/AF auszuschalten. Denn beinahe jedes Spiel hat seine eigene Nomenklatur, hinter der sich die erzielbaren Bildeffekte verbergen. Was ist "3D-Konvergenz"? Ist "Post FX" dasselbe wie "Postprocessing"? Wie bestimmt "Blooming" die Beleuchtung, und was ist der Unterschied zu "Globale Illumination"? Wie wichtig ist die Qualität von Schatten und Spiegelungen, Feldtiefe und Wasser?

Und was von dem ganzen Zeug muss die CPU (vor-)berechnen? Ich kann diese Fragen nur zum Teil beantworten und stelle deshalb einiges nach Gefühl und Halbwissen ein; Profi-Ergebnisse mögen genauer sein. (Aber die testen ja mein System nicht. ^^)

Ob Profi oder nicht, der Trend ist eindeutig: Sobald die Auflösung gering genug ist, um die GPU-Last trotz höchster Details deutlich unter 80% sinken zu lassen, gibt die CPU bei Hitman und Crysis die erzielbaren FPS vor (in der Regel allerdings ohne dass die Kerne auf 100% Last gehen, wie ich lernen musste.) Das entscheidende Indiz für ein annähernd erreichtes CPU-Limit ist: Es spielt keine Rolle mehr, ob die GPU mit 900 oder 1200 MHz taktet. Bei den Tests unter 1080p war dies noch das FPS-Kriterium gewesen.


===============================================
Änderungen/Ergänzungen v. 23.12.12, siehe Post #507 und #509
===============================================


2. Lauf: Die Suche nach dem CPU-Limit. These: Die CPU liefert in jeder Situation genug FPS.

vSync ist ausgeschaltet, vorhandene Framebegrenzer ebenso. Der Hitman-Bench läuft je drei Mal, Crysis erhält je sechs Loops. Die Ergebnisse werden gemittelt und auf ganze Frames gerundet.

  • Crysis Benchmark Tool 1.05, Overall Quality "very high", AntiAliasing "No AA", 64 bit, DX 10
  • Hitman Absolution, interner Benchmark, MSAA aus, Qualitätsstufe "Ultra" ohne FXAA, SSAO, Globale Illumination und Tessellierung, Anisotrop 2x
Code:
CPU-Takt GPU-/RAM-Takt  Auflösung  Hitman  Crysis
2,8 GHz  1200/1550 MHz  1.280*720  49 FPS  53 FPS
3,4 GHz  1200/1550 MHz  1.280*720  55 FPS  61 FPS
3,8 GHz  1200/1550 MHz  1.280*720  60 FPS  67 FPS

Code:
CPU-Takt GPU-/RAM-Takt  Auflösung  Hitman  Crysis 
2,8 GHz  1200/1550 MHz  1.024*768  49 FPS  59 FPS
3,4 GHz  1200/1550 MHz  1.024*768  55 FPS  69 FPS	   
3,8 GHz  1200/1550 MHz  1.024*768  60 FPS  74 FPS

Jetzt wird höherer CPU-Takt satt in FPS-Steigerung umgesetzt, auch beim Hitman. Ich mache die Probe, indem ich prüfe, ob ein reduzierter GPU-Takt wieder geringere FPS zur Folge hat. Das ist nicht der Fall. Der Grafikkartentakt gibt das Tempo nicht mehr vor.

Code:
CPU-Takt GPU-/RAM-Takt  Auflösung  Hitman  Crysis 
3,4 GHz  900/1250 MHz   1.280*720  55 FPS  62 FPS

Code:
CPU-Takt GPU-/RAM-Takt  Auflösung  Hitman  Crysis 
3,4 GHz  900/1250 MHz   1.024*768  55 FPS  69 FPS

Hitman hat sein Limit gefunden; bei Crysis arbeitet unter 1.280*720 die Grafikkarte anscheinend noch mit. Ich reduziere die Auflösung ein weiteres Mal, um sicher zu gehen.

Code:
CPU-Takt GPU-/RAM-Takt  Auflösung  Hitman  Crysis 
3,4 GHz  900/1250 MHz   800*600    55 FPS  69 FPS

Nun gibt es auch bei Crysis keine Änderung mehr. Da ist es also, das viel beschworene CPU-Limit.

Prozessor ist übrigens immer noch der fast vier Jahre alte Intel Lynnfield i5-750, der bei seinem Erscheinen keineswegs als High-End-, sondern als Mittelklasse-CPU gehandelt wurde. Ihm gegenüber steht eine Oberklasse-Grafikkarte aktueller Generation, auf Single-GPU-Luxus hochgetaktet. Von zunächst sieben Spielen blieben die zwei genannten als einzige aussichtsreiche Kandidaten übrig, die CPU in Bedrängnis zu bringen.

Crysis hat sich dann doch beherrschbar gezeigt. 69 FPS @3,4 GHz von der CPU sind ein Wort und viel mehr, als die HD 7950 unter Spielbedingungen liefern kann. Bei Hitman ist das Verhältnis ähnlich. Bereits der i5-750 auf Standardtakt schlägt die übertaktete HD 7950 mit 49 zu 39 FPS deutlich.

Für beide Spiele gilt: Nur eine stark übertaktete 7970 oder 680 wird näher an die CPU-Leistung herankommen, und erst kräftige CF- oder SLI-Kombos werden deutlich mehr Bilder produzieren können als der angejahrte i5 zu berechnen in der Lage ist. Unter den Bedingungen, die ich vorgebe, um das noch mal zu wiederholen.

Trotzdem sind es bei Hitman "nur" 55 FPS, die der Prozessor @3,4 GHz liefern kann. Selbstverständlich ist das einwandfrei spielbar. Es bleibt aber unter der Grenze von 60 FPS, die ich als "sorgenfrei" festgelegt habe. Um die gleichen FPS zu stemmen, müsste meine nächste Grafikkarte Ende 2013 allerdings erst mal um 30% Leistung zulegen. Machbar, aber nicht billig. Zum Glück brauche ich dann nicht auch noch eine neue CPU. ;)

Was mich betrifft, sind die Thesen bestätigt: Die Grafikkarte macht das Spiel, und der Prozessor liefert genug FPS, nämlich immer mehr als die HD 7950. Wenn auch in Hitmans Fall nicht im Überfluss.

Danke für's Lesen

nilssohn
 

Anhänge

  • Sleeping_Dogs.jpg
    Sleeping_Dogs.jpg
    282,6 KB · Aufrufe: 513
  • Batman_Arkham_City.jpg
    Batman_Arkham_City.jpg
    210,2 KB · Aufrufe: 499
  • Crysis.jpg
    Crysis.jpg
    308,8 KB · Aufrufe: 497
  • Crysis2.jpg
    Crysis2.jpg
    315 KB · Aufrufe: 518
  • Dirt3.jpg
    Dirt3.jpg
    277,6 KB · Aufrufe: 505
  • Hitman_Absolution.jpg
    Hitman_Absolution.jpg
    298,6 KB · Aufrufe: 507
  • Metro_2033.jpg
    Metro_2033.jpg
    113 KB · Aufrufe: 485
Zuletzt bearbeitet: (Ablesefehler korrigiert, Schlussfolgerungen leicht modifiziert, Font-Tags entfernt)
Könnte ich wahrscheinlich schon. So ein Test wäre aber akademisch, weil ich - wie jedermann - meine Spiele in Einstellungen spiele, bei denen die Grafikkarte das Limit vorgibt. Für mich also irrelevant, weshalb ich ihn nicht durchzuführen brauche.

Das ist so eine Einstellung, die ich nicht verstehe. Alle Leute denken immer, es ist schlecht, wenn die Grafikkarte nicht maximal ausgelastet ist. Das ist meiner Ansicht nach völliger Unsinn. Es mag in der Regel zwar tatsächlich so sein, aber darum geht es nicht, sondern darum, die Komponenten vernünftig auszulasten und dabei aber noch angenehm spielbare fps zu haben.

Beispiel 1:
Wenn meine GPU 80fps schafft, meine CPU nur 50 und ich aber mindestens diese 50 brauche, dann drücke ich nicht das GPU-Limit unter das CPU-Limit, z.B. dann auf 35fps, nur um 99% GPU-Last zu haben. Dann hätte ich zwar maximale GPU-Auslastung, aber auch weniger fps als gewünscht. Was im Endeffekt limitiert, ist egal, solange die fps stimmen.

Beispiel 2:
Ich brauche wieder 60fps. In 50% des Spiels schafft die GPU das locker, in 10% grad so, in 40% nicht. Ich habe prinzipiell zwei Möglichkeiten:
a) Die Einstellungen soweit erhöhen, bis ich überall 99% GPU-Last habe. Folge: Deutlich niedrigere fps, schlechter als vorher
b) Die Einstellungen soweit senken, bis ich überall 60fps habe. Folge: GPU-Last stellenweise klar geringer, aber flüssiges Spielvergnügen

Wie kommen die Leute immer auf die Idee, die GPU müsste maximal ausgelast, bei der CPU ist es ihnen dann aber egal? Haben sie für die CPU nicht genauso Geld bezahlt? Die Komponenten sind doch völlig gleichberechtigt und tragen beide zum Erreichen der Wunschperformance bei. Da Grafikkarten üblicherweise mehr Strom verbrauchen als CPUs, finde ich es im Gegenteil sogar positiv, wenn das Ding nicht permanent am Anschlag läuft, weniger säuft und leiser ist.

Denkt mal drüber nach :)
 
Zuletzt bearbeitet:
Wieder mal: Respekt! Toll gemacht! :)

Mit der Auflösung gab es schon vor, na?, 10 Jahren oder so. Kann mich nur düster erinnern, aber ich glaube es hieß, dass die neuen Grakas optimiert auf dise (höheren) Auflösungen waren.... Letzlich musst Du halt Details verringern um Vergleichbarkeit (naja) zu erzeugen, und nicht die Auflösung (aus diesem Grund...) also postprocessing, ambient occ, wasser/schattenquali weiß nicht, das sind auf jeden Fall so sachen die normalerweise ordentlich Leistung ziehen, nur grad mal so ausm Kopf ohne große Gedanken/Recherche...
 
@boxleitnerb: Niemand nimmt Spieleeinstellungen anhand der GPU-Auslastung vor. Auch in meinem Bericht ist nur deshalb davon die Rede, weil eine geringe GPU-Auslastung ein Indiz dafür sein kann, sich an das CPU-Limit heranzutasten. Manchmal treibt diese Debatte schon seltsame Blüten. :rolleyes:

Zu deinem Beispiel 1: Betrifft das dein System? 80 GPU- zu 50 CPU-FPS? Dann leg' bitte noch ein paar Fakten auf den Tisch. Oder ist das, wie so oft in dieser Diskussion, eine fiktive Kombination? Dann ist es IMHO müßig, darüber zu diskutieren.

In deinem Beispiel 2 gilt das vorher Gesagte: Niemand stellt die GPU-Auslastung aktiv ein, sie ergibt sich aus den anderen Einstellungen. Wenn du 60 FPS brauchst, reduzierst du was-auch-immer, das dir am leichtesten verschmerzbar erscheint. Du wirst dann in der Regel feststellen, dass die GPU immer noch mit 99% arbeitet. Nicht weil du das willst, sondern weil das in 3D-Spielen der Normalfall ist.

Im Übrigen stimme ich dir natürlich zu:
boxleitnerb;13200273E schrieb:
[...] darum geht es nicht, sondern darum, die Komponenten vernünftig auszulasten und dabei aber noch angenehm spielbare fps zu haben.

@angHell: Danke für die Anerkennung. :)

Wenn ich dein Posting richtig verstehe, schlägst du vor, zum Testen der CPU nicht die Auflösung zu verringern, sondern die Details, um der CPU auf den Zahn zu fühlen? Ich glaube nicht, dass das der richtige Weg ist. Auch PCGH testet die Spiele-CPU-Performance (Beispiel FarCry 3, Quelle) unter niedrigen Auflösungen bei hohen Details, und die Jungs wissen im Allgemeinen, was sie tun. Außerdem glaube ich mich zu erinnern, dass die CPU die Polygone berechnen muss, und davon gibt es bei hohen Details eben mehr als bei niedrigen.
 
Zuletzt bearbeitet:
Sicher, aber es gibt eben Verfäschungen, die nicht sein müssen, allerdings mag das bei Effekten auch passieren, deswegen immer posteffekte (Na? Wie heißen sie?) die von der Graka berechnet werden abgeschaltet werden, Die Verfälschungen hinsichtlich der Auflösungen hast Du ja selbst! Das was ich im Kopf hatte war aber zu Zeiten von 16 pixelpipelines (oder so) und da waren oft 1024 oder 1280 schneller als 800x600 oder so ähnlich. :D
Jedenfalls kannst Du Dir halt sicher sein das alle deise posteffekte wie postfx oder AA nur die Graka beeinflussen, wenn du so ans CPU Limit kommst wäre das für den Test super, wenn nicht musst du halt noch ein paar andere runtersetzen, die sehr grakalastig sind, wissen andere ja sicher auch mehr...

Aber wie gesagt, du hast ja selbst Szenarien wo du sinnlose fps-Werte hast, also bei niedrigerer Auflösung niedrigere fps, daran siehst Du ja dass da was nicht stimmen kann, und Dich interesssiert ja gerade das Spannugnsfeld zwischen gpu und cpu, während pcgh einfach nur sicher im CPU-Bereich testet, relativ unabhängig von der sinnhaftigkeit oder praxisrelevanz! ;)

N8...
 
Entschuldigung, ich glaube, ich habe dich (und mich selbst auch) auf eine falsche Fährte geführt. Es gibt keine "Verfälschungen" bei den Crysis-Messungen. Offenbar bin ich beim Ablesen meiner eigenen Tabellen in der Spalte verrutscht und habe Crysis 2 anstatt Crysis unter FullHD mit Crysis bei den geringeren Auflösungen verglichen. Tatsächlich skaliert Crysis genau wie die anderen Spiele gleichmäßig; es gibt keine Ausreißer. Alle Ergebnisse sind damit schlüssig.

Ich habe außerdem noch eine weitere Messung durchgeführt, weil es mich irritierte, dass zwischen 1.024 und 1.280 so ein deutlicher Unterschied vorlag. Das Crysis Benchmark Tool bietet die Möglichkeit, unter 800*600 zu testen, und das habe ich nun getan, unter 3,4 GHz CPU-Takt bei 900 und 1200 MHz GPU-Takt. Ergebnis: immer 69 FPS, identisch wie bei 1024*768 und höher als bei 1.280*720 (62 FPS), wo meine Grafikkarte anscheinend doch noch kräftiger als erwartet mitarbeiten muss. 69 FPS scheint also definitiv das zu sein, was die CPU @3,4 GHz bei Crysis liefern kann. Ich bin froh, dass sich das nun doch so eindeutig herausarbeiten ließ.

Das Ursprungspost werde ich morgen entsprechend anpassen. Nochmals sorry für die Verwirrung.
 
Zuletzt bearbeitet:
Klar, ist ja kein Ding, ist ja interessant! Sollte man dennoch mal drüber nachdenken, sich nciht erstmal auf postprocessing - effekte zu stützen statt auf Auflösung, aber however. Verdammt, jetzt bin ich doch noch wach... :n8:
 
nilssohn schrieb:
Das Ursprungspost werde ich morgen entsprechend anpassen.
Done. Ich habe die Hitman-Ergebnisse auch noch mal angepasst, außerdem angHells Anregung aufgegriffen, neben der Auflösung noch Qualitätsfaktoren zu prüfen. Hier sind die Ergebnisse (Hitman-Absolution-Benchmark):

Auflösung 1.280*720, 1.024*768, 800*600
Detailstufe: immer ultra; MSAA, FXAA, Globale Illumination, Tessellierung, SSAO: immer aus;

Variante 1:
  • Qualität der Schatten: Ultra
  • Texturqualität: hoch
  • Texturfilter: Anisotrop 2x
  • Spiegelungen: hoch
  • Feldtiefe: hoch
  • Bloomingeffekt: normal
Variante 2:
  • Qualität der Schatten: Minimal
  • Texturqualität: normal
  • Texturfilter: Trilinear
  • Spiegelungen: sehr niedrig
  • Feldtiefe: aus
  • Bloomingeffekt: aus

Ergebnis: In allen drei Auflösungen erhalte ich bei beiden Varianten weniger als 1 FPS Unterschied, nämlich die genannten 55 FPS. Die Schlüsse daraus möchte bitte jemand anders ziehen, ich bin gespannt!
 
Zuletzt bearbeitet:
nilssohn schrieb:
Was mich betrifft, sind die Thesen bestätigt: Die Grafikkarte macht das Spiel, und der Prozessor liefert genug FPS, nämlich immer mehr als die HD 7950. Wenn auch in Hitmans Fall nicht im Überfluss.
Schöner Test, so sucht man CPU-Limits (maximale Details ohne AA/AF in niedriger Auflösung). Einzig sind Crysis und Hitman, vor allem die internen Tests, nicht CPU-lastig oder limitiert. Probiere bei Crysis zB mal den CPU-Test #1 oder eine ingame Szene mit viel AI ;-)

nilssohn schrieb:
Wenn ich dein Posting richtig verstehe, schlägst du vor, zum Testen der CPU nicht die Auflösung zu verringern, sondern die Details, um der CPU auf den Zahn zu fühlen? Ich glaube nicht, dass das der richtige Weg ist. Auch PCGH testet die Spiele-CPU-Performance (Beispiel FarCry 3, Quelle) unter niedrigen Auflösungen bei hohen Details, und die Jungs wissen im Allgemeinen, was sie tun. Außerdem glaube ich mich zu erinnern, dass die CPU die Polygone berechnen muss, und davon gibt es bei hohen Details eben mehr als bei niedrigen.
Siehe oben, maximale Details ohne AA/AF in niedriger Auflösung. Geringere Details entlasten teils auch die CPU und ja, Polygone sind Sache der CPU (außer bei Tessellation).
 
Zuletzt bearbeitet:
@nilssohn:

Das waren beides fiktive Beispiele, ich habe ja keine konkreten Spiele oder Settings genannt. Ich hab mich eben an deiner pauschalen Aussage gestört und die Gelegenheit aufgegriffen, mal ein paar klärende Worte loszuwerden. Der Thread hier ist sicher eine gute Idee, aber man darf dabei eben nicht aus den Augen verlieren, dass es nicht zwingend schlecht sein muss, wenn die CPU die Grafikkarte limitiert.

Es gibt übrigens ziemlich viele Spiele, in denen eine durchschnittliche CPU keine 60fps schafft. Nicht jeder hat einen übertakteten i5/i7.
 
@boxleitnerb: Ich kann dir nicht folgen und muss erneut widersprechen.

boxleitnerb schrieb:
Das waren beides fiktive Beispiele, ich habe ja keine konkreten Spiele oder Settings genannt.
Das ist es ja. Es werden fiktive Probleme konstruiert, wo in Wirklichkeit wohl keine sind. Über deine CPU/GPU-Kombi lese ich hier immer noch nichts.

Ich hab mich eben an deiner pauschalen Aussage gestört und die Gelegenheit aufgegriffen, mal ein paar klärende Worte loszuwerden.
Du wirst hier eher selten eine pauschale Aussage von mir finden. Die getroffenen Feststellungen sind konkrete Beispiele für mein System, die sich reproduzieren lassen. Sogar in den Sätzen, auf die du dich beziehst - sie zumindest zitierst - heißt es:

Könnte ich wahrscheinlich schon. So ein Test wäre aber akademisch, weil ich - wie jedermann - meine Spiele in Einstellungen spiele, bei denen die Grafikkarte das Limit vorgibt. Für mich also irrelevant, weshalb ich ihn nicht durchzuführen brauche.
Wie viele "ich" und "mein" braucht es noch, damit es für dich nicht "pauschal" ist?

Das Lustigste ist, dass ich im Anschluss genau das gemacht habe, wonach @typhson gefragt hat: Hitman um des Tests willen ins CPU-Limit getrieben, obwohl es für mich ohne Bedeutung ist. Worüber beschwerst du dich denn eigentlich noch? :)

Der Thread hier ist sicher eine gute Idee, aber man darf dabei eben nicht aus den Augen verlieren, dass es nicht zwingend schlecht sein muss, wenn die CPU die Grafikkarte limitiert.
Ich verstehe die Erkenntnisse dieses Threads anders: Sie werten nicht nach gut oder schlecht, sondern zeigen auf, dass ein CPU-Limit seltener vorkommt als viele befürchten. Und mir wird immer weniger klar, was dein Problem damit ist.

Es gibt übrigens ziemlich viele Spiele, in denen eine durchschnittliche CPU keine 60fps schafft. Nicht jeder hat einen übertakteten i5/i7.
Und wie viele dieser schwächeren CPUs haben dann bitte die fette High-End-Karte oder eine CF-/SLI-Kombi als Partner, die sie unentwegt an ihre Grenzen bringt? :rolleyes:
 
Zuletzt bearbeitet: (inhaltliche Korrektur)
Das "jedermann" hast du wohl vergessen. Limitieren ohne Einschränkung ist auch durchgehend, was nicht zwangsläufig der Fall ist, siehe unten. ;)

Fiktive Beispiele müssen nicht irrelevant sein. Wenn du es konkret willst:
Es meckern immer wieder Leute mit SLI/CF, dass ihre GPU-Auslastung in BF3 MP keine 99% beträgt. Wie oft hab ich das schon gelesen...Das wird dann auf Profile und weiß der Geier was geschoben, dabei ist es die CPU. Gerade BF3 ist aber ein Spiel, wo man zumindest im MP viele fps gebrauchen kann. Würde man auf Biegen und Brechen ein möglichst durchgehendes GPU-Limit provozieren, würden die fps natürlich sinken und man hätte Performance verloren.

Oder nimm Shogun 2, das spiele ich gerne. Das frisst CPU-Leistung zum Frühstück, und 20-30fps im Getümmel sind selbst mit einem übertakteten i7 keine Seltenheit. Da verzichte ich lieber auf etwas SGSSAA, akzeptiere das streckenweise CPU-Limit und hab dafür aber in weiter herausgezoomten Passagen beim Überblick über meine Truppen genug fps.

Der zentrale Punkt:
In Spielen wechseln sich CPU- und GPU-Limits meist ab. Ein durchgehendes "Ausfahren" der GPU ist außer in Extremsettings nicht immer möglich. Viele erwarten aber genau das und stellen die GPU-Auslastung auf einen Sockel, vergessen dabei aber, auf die fps zu achten.

Ich hab kein Problem mit dem Thread, das interpretierst du falsch. Ich habe bloß eine frische Perspektive geliefert. Der Threadtitel heißt ja auch nicht "limitiert Komponente A Komponente B", sondern er bezieht sich explizit auf die CPU als Grund. Du wirst auch nie bei Anfragen hier oder woanders lesen "limitiert meine Grafikkarte meine CPU?", sondern immer andersherum.

Und wie viele dieser schwächeren CPUs haben dann bitte die fette High-End-Karte oder eine CF-/SLI-Kombi als Partner, die sie unentwegt an ihre Grenzen bringt?

Warum so übertreiben? Ein i5-760 oder ein X4 955BE sind auch durchschnittliche CPUs z.B. und denen geht ohne OC in so einigen Spielen früher die Luft aus als einer aktuellen Mittelklasse-GPU. Abgesehen davon ist es nicht verboten, Settings zurückzudrehen, so dass auch diese Mittelklasse-GPU ihre 60fps erreicht. Die GPU kann man durch Spiel- und Treibereinstellungen viel einfacher entlasten als die CPU. Dreifache fps durch GPU-Tuning sind oft möglich, bei der CPU siehts im Vergleich ziemlich düster aus.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Einzig sind Crysis und Hitman, vor allem die internen Tests, nicht CPU-lastig oder limitiert.
Diese beiden Spiele waren eben die einzigen in meiner Auswahl, bei denen die Suche nach dem CPU-Limit lohnend schien - nach meinen Kriterien. Die anderen Kandidaten boten entweder bereits "von Haus aus" so hohe Frameraten, dass mich nicht interessierte, ob da nun GPU oder CPU die Grenze setzen (z.B. Dirt 3, Batman AC). Oder sie hingen so deutlich an der GPU-Leistung, dass bereits nach flüchtiger Prüfung klar war, dass die CPU auch hier hohe zweistelligen Frameraten liefern würde (z.B. Sleeping Dogs, Metro 2033).

Probiere bei Crysis zB mal den CPU-Test #1 oder eine ingame Szene mit viel AI ;-)
Ingame werde ich nicht testen - zu viele Variable und mit vertretbarem Aufwand keine Chance auf Überprüf- und Reproduzierbarkeit.

Wo ist "CPU-Test #1"? Ich habe was anderes gemacht: Unter "Timedemo" statt wie bisher immer "benchmark_gpu" ausgewählt zu lassen, diesmal "benchmark_cpu" gewählt. Ergebnis (VeryHigh, 800x600, No AA, 64 bit, DX10): 75 FPS anstatt 69 wie vorher, also keine Verschlechterung. "Assault_Harbor", die dritte Szene, reduzierte die Avg. Frames allerdings auf 57. Zur Kontrolle habe ich das ursprüngliche "benchmark_gpu" (diesmal als Nachtszene, ohne dass ich das beinflussen könnte) noch mal durchlaufen lassen: Diesmal 66 FPS anstatt der erwarteten 69. Ganz trennscharf kriegt man das mit Hausmitteln offenbar nicht hin.

Der Trend bleibt aber klar: Lasse ich bei der Szene "Assault_Harbor" nicht die CPU, sondern die GPU schnaufen, lande ich bei 47 FPS, nicht mehr bei 57. Beim ursprünglichen GPU-Test hatte ich noch 56 FPS gemessen. Die Assault_Harbor-Szene scheint also beide Komponenten oder die Hardware insgesamt mehr zu fordern, ohne dass ein CPU-Limit in den Vordergrund träte. Die Messungen wurden wie zuvor @3400/1200/1550 MHz durchgeführt.

Siehe oben, maximale Details ohne AA/AF in niedriger Auflösung. Geringere Details entlasten teils auch die CPU und ja, Polygone sind Sache der CPU (außer bei Tessellation).
Ja, so hatte ich mir das auch gedacht bzw. angelesen.
Ergänzung ()

boxleitnerb schrieb:
Warum so übertreiben? Ein i5-760 oder ein X4 955BE sind auch durchschnittliche CPUs z.B. und denen geht ohne OC in so einigen Spielen früher die Luft aus als einer aktuellen Mittelklasse-GPU.

Das ist keine Übertreibung, darum geht es ja! Messergebnisse zu ignorieren widerlegt sie nicht. Eine "Mittelklasse-GPU" (ich frage jetzt nicht, welche, ist ja wieder mal fiktiv) bringt die von dir genannten CPUs in einer fairen Spieleauswahl nicht in FPS-Nöte, davon bin ich überzeugt. Es ist ja kein Zufall, dass du in deinem BF3-Multiplayer-Beispiel Spieler mit SLI/CF-Kombinationen nennst. Ja, die laufen in ein CPU-Limit, ganz genau! Auf welchem FPS-Niveau sich das dann oft abspielt, ist wieder eine andere Frage, siehe z.B. hier.

Ich weiß nicht, wie du deine Spiele einstellst, aber es liest sich streckenweise, als ob du es aktiv anhand der beiden genannten Limits tun würdest. Auf diese Idee käme ich gar nicht. Wenn ich ein neues Spiel einstelle, maximiere ich ingame erst mal die Qualität und schaue, welche Framerate ich damit erhalte. Ist diese dann nach meiner Erfahrung zu niedrig oder stellt sich nach dem Anspielen als zu niedrig heraus, reduziere ich Grafik-Qualitätseinstellungen so lange, bis ich eine Framerate erhalte, die ich als gut spielbar empfinde. Wer von euch handhabt das denn grundsätzlich anders?

Während dieser Prozedur, und im Normalfall während des gesamten folgenden Spiels, interessiert mich die Auslastung der Hardware nicht die Bohne (sofern ich nicht gerade den Statistikfreak gebe wie derzeit hier). Erst wenn ich wegen zu wenig FPS die Grafikqualität reduziere und weiter reduziere und die Framerate erhöht sich immer noch nicht, muss ich hellhörig werden. Denn dann könnte ein CPU-Limit anliegen. Nur: Das habe ich bisher noch nicht erlebt! Meine Messergebnisse zeigen, warum: Weil der i5-750 sogar @stock einer stark übertakteten HD 7950 jederzeit gewachsen ist.

Dass die Testauswahl eingeschränkt ist und die Tests idealisiert sind, dass ingame phasenweise bestimmt stärkere CPU-Anforderungen vorkommen, dass es CPU-lastigere Spiele gibt: alles richtig, geschenkt! Der Trend aber zählt, und den halte ich für eindeutig.

Deinem "zentralen Punkt" im letzten Beitrag (habe übrigens den Eindruck, dass die zentralen Punkte von Post zu Post ein wenig variieren, nichts für ungut) "In Spielen wechseln sich CPU- und GPU-Limits meist ab" würde ich nur bei einer zur GPU unüblich schwach dimensionierten CPU zustimmen. Richtig ist sicher, dass die Anforderungen mal stärker an die eine und mal stärker an die andere Komponente gerichtet sind. In einer halbwegs ausgewogenen Kombination wird das CPU-Limit aber viel seltener auftreten als das GPU-Limit und sich damit nicht "abwechseln". Zugegeben: Ein Beweis oder Gegenbeweis lässt sich hier schwerer führen als in meinen Beispielmessungen. Aber immerhin habe ich gemessen und muss deshalb nicht mehr so viel behaupten. ;)
 
Zuletzt bearbeitet:
bringt die von dir genannten CPUs in einer fairen Spieleauswahl nicht in FPS-Nöte, davon bin ich überzeugt

Erstmal hab ich nichts von "fairer Spieleauswahl" (was immer das auch sein soll. Ich wähle meine Spiele nicht nach Fairness, sondern nach meinem persönlichen Geschmack) geschrieben. Ich schrieb

Es gibt übrigens ziemlich viele Spiele, in denen eine durchschnittliche CPU keine 60fps schafft.

Zweitens ist das unabhängig von der Grafiklösung! Egal ob da eine HD9970 aus der Zukunft drinsteckt, wenn die CPU am Limit ist, ist sie am Limit. Und die erwähnten 60fps sind zu allem Überfluss nur der Durchschnitt, Drops bedingt durch die CPU sind da nichtmal inbegriffen.

Nimm Serious Sam 3. Da hatte ich mit einem i7-2600K@4,2 GHz stellenweise unter 60fps bedingt durch ein CPU-Limit, und das war direkt am Anfang mit fast keinen Gegnern, also noch ein harmloser Fall. In einem Shooter brauche ich durchgehend 60fps, da bringt mir kein SLI oder kein CF was, wenn die CPU vorher dicht macht.
Die Liste setzt sich lange fort, seien es Strategiespiele die die Total War Serie, Sins of a Solar Empire oder aktuelle Shooter wie FC3 oder Hitman Absolution oder Rennspiele wie NFS Most Wanted (das neue). Setzt man in sehr schnellen kompetitiv gespielten Titeln wie BF3 die Marke noch höher in Richtung 100fps, wird es noch ernster.

Und zuletzt drittens definiert jeder "FPS-Nöte" anders. Wo für dich 30fps reichen, reichen für jemand anderen vielleicht erst 50 oder 60fps. Das lässt sich nicht pauschalisieren.

Weil der i5-750 sogar @stock einer stark übertakteten HD 7950 jederzeit gewachsen ist.

Schon an dieser Formulierung merkt man, dass du mein zentrales Argument nicht verstanden hast. Es ist irrelevant, wer wem gewachsen ist, denn das zielt wieder auf eine Betrachtung der Auslastung ab, aber darum geht es nicht primär. Wichtig ist viel mehr, ob beide Komponenten getrennt die gewünschten fps liefern können, je nach Situation eben. Wenn eine Komponente am Limit ist, kann die andere ihr nicht helfen.

Das mit dem Abwechseln von CPU- und GPU-Limit habe ich bewusst vage formuliert, weil ich da nicht pauschalisieren will. Die Aufteilung und Wechselhäufigkeit variieren natürlich von Spiel zu Spiel, von Setting zu Setting. Du kannst nicht einfach pauschal behaupten, was wie oft auftritt. Du kannst natürlich Spiele sozusagen absichtlich ins GPU-Limit treiben, dann wechselt natürlich kaum was, du hättest dann fast immer ein GPU-Limit. Aber gerade das ist in meinen Augen nicht sinnvoll. Es geht um die fps, nicht um die Auslastung oder Limits.

Zudem ist deine These
Die CPU liefert in jeder Situation genug FPS
wohl kaum allgemeingültig. Hast du alle Spiele im Ganzen untersucht? Kannst du mitbestimmen, was für jede Person "genug FPS" ist? Lassen sich die Ergebnisse auch auf alle anderen Spiele übertragen? Dreimal Nein.

Ich fasse meine Kernaussage nochmal ganz deutlich am Schluss zusammen, damit es nicht untergeht:

Die sinnvolle Paarung von CPU und GPU anhand ihrer Leistungsfähigkeit ist zwar grundlegend sinnvoll, aber man darf dabei nicht aus dem Auge verlieren, dass die Kompomenten jede für sich auch genug Leistung bieten, um den eigenen Ansprüchen gerecht zu werden, insbesondere CPUs. Denn hier sind die Einflussmöglichkeiten durch Grafikeinstellungen doch eher mager. Die Frage, ob die CPU die Grafikkarte oder die Grafikkarte die CPU limitiert, ist nicht so relevant, wie es auf den ersten Blick scheint.
 
Zuletzt bearbeitet:
Es entwickelt sich ja doch noch eine interessante Diskussion aus diesem Thread. Danke euch beiden hier mal dafür :-)
Ansätze zum Überdenken. Zu blöd das ich keine Mittelklasse-CPU habe um gegenzutesten, und mich im Moment auch die Familienplanung etwas von der ganze Sache fernhält, sonst wären bestimmt ein paar Ansätze aus genau dieser Diskussion im Startposting gelandet.
 
@boxleitnerb: Ich kann in deinem letzten Posting keine neuen Aspekte erkennen. Der Versuch, die CPU- und GPU-Leistung strikt getrennt voneinander zu bewerten, ist praxisfern. Meine These "Die CPU liefert in jeder Situation genug FPS" aus dem Zusammenhang zu nehmen und mir damit Verallgemeinerungen zu unterstellen, ist kein guter Stil. Deiner "Kernaussage" stimme ich gern zu. Sie ist nur, Entschuldigung, ein wenig banal.

@HisN: Gern geschehen, danke dir für den Thread.
 
Zuletzt bearbeitet:
Der Versuch, die CPU- und GPU-Leistung strikt getrennt voneinander zu bewerten, ist praxisfern.

Das sehe ich anders. Es ist für mich als Spieler in jeder Situation wichtig, genug fps zu haben, egal was limitiert. Das kann ich nicht beurteilen, wenn die andere Komponente vorher limitiert und das Bild verfälscht.

Deine Vorbemerkung zu deinem Test bzgl. Allgemeingültigkeit hab ich überlesen, dafür entschuldige ich mich.
 
nilssohn schrieb:
Der Versuch, die CPU- und GPU-Leistung strikt getrennt voneinander zu bewerten, ist praxisfern.
Aus diesen beiden Messreihen lässt sich perfekt die jeweilige Grafikkarte und die jeweilige CPU für ein bestimmtes Spiel herausfinden, nimmt man ein zwei Handvoll Titel, so ist ein klarer Trend erkennbar - besser kann man es kaum darstellen.

Einzig Grafikkarten-CPU-Skalierungen mit unterschiedlichen Settings zeigen es noch klarer, im GPU- oder CPU-Limit aber sind die Werte identisch zu den beiden Messreihen, in denen man isoliert. In der Praxis ist es genauso, je nach Spiel und Setting.
 
Zurück
Oben