Bericht Bericht: 1, 2, 3 oder 4 CPU-Kerne?

abulafia schrieb:

OK, das hatte ich übersehen: Unter der Annahme eines linearen (Funktions-)Verlaufs zwischen zwei Stützstellen ist: mittlere Änderungsrate = Momentante Änderungsrate. Die Framerate, die man dann als Kehrwert der Differenz zweier Frametimes berechnet, ist somit eine momentane Framerate. Würde man die Annahme eines linearen Verlaufs fallen lassen, hätte man immer noch eine mittlere Änderungsrate - gemessen auf dem kleinstmöglichen Zeitintervall.

Am Rande - Index einfach mit i = 0 (für das nullte Bild) anfangen :) dann siehts netter aus:
avgfpsqxi.jpg


smith0815 schrieb:

Geht man von Performance = min {CPU-Performance, GPU-Performance} aus
  • dann gilt in der 640er oder 800er Auflösung und Low-Quality näherungsweise: Performance = CPU-Performance. Diese Settings belasten die Grafikkarte so wenig, dass die Performance (Framerate) überwiegend durch die CPU bestimmt bzw. limitiert wird.
  • dann gilt in Auflösungen ab 1280 in Verbindung mit High-Quality näherungsweise (schnelle CPU vorausgesetzt): Performance = GPU-Performance. Diese Settings belasten die GPU dermaßen, dass die Performance (Framerate) überwiegend durch die GPU bestimmt bzw. limitiert wird.

Einsichtig: will man die Leistungsfähigkeit einer CPU betrachten ("CPU-Test": wie Skaliert die Performance (Framerate) mit steigender Kernanzahl, oder Taktfrequenz, oder wie performt eine neue CPU-Architektur) macht das wenig Sinn unter Bedingungen, in denen überwiegend die GPU die Performance bestimmt/limitiert - sonst schlagen sich Änderungen der CPU-Parameter (zum Beispiel Kernanzahl) erst gar nicht in der Performance (Framerate) nieder ... bleiben also "unentdeckt". 640er Auflösung und Low-Settings sind angesagt.

smith0815 schrieb:
Für eine Anekdote aus einem Spieleralltag nochmals den Link zum erhellenden Beitrag von BlackBirdSR im 3DCenter-Forum. Diese Alltagserfahrung verdeutlicht eindrucksvoll, warum theoretische Messungen des CPU-Limits in praxisfernen 800x600 zur Einschätzung des realen Spielempfindens relevant sind.

Den verlinkten Post verstehe ich dann so - Wenn CPU- und GPU-Limit unabhängig voneinander sind, macht auch ein Test auf 640 Low Sinn als Ergänzung zu Tests in tendenziell GPU-limitierten Situationen (ab 1280er Auflösung und höher mit Quali-Settings), nämlich das Aufdecken von CPU/GPU-limitierten Szenen in einem Spiel/Savegame/Benchmark:
  • Zuerst lasse ich ein Spiel/Savegame/Benchmark in 640 low laufen und zeichne den Verlauf der Framerate auf.
  • Dann lasse ich das gleiche Spiel/Savegame/Benchmark in 1600 high (bzw. in der typischen Spielauflösung) laufen und zeichne ebenfalls den Verlauf der Framerate auf.
  • Die Sequenzen, bei denen der Framerate-Verlauf sich durch Hochsetzen der Auflösung nicht verändert sind CPU-limitiert ... die Sequenzen, bei denen die Framerate sinkt durch Raufsetzen der Auflösung, sind GPU limitiert. Sicherlich eine Hilfe, wenn man Aufrüsten will.
  • Dass man hier mit AvgFPS nicht mehr weiter kommt, eigentlich klar.

Alles weitere ist wohl von der verwendeten Hardware (die hier eh strittig ist bzw. war) und dem Ziel/der Problemstellung des Tests (die hier eh strittig ist bzw. war) abhängig.
 
HomerJSi schrieb:
Geht man von Performance = min {CPU-Performance, GPU-Performance} aus
  • dann gilt in der 640er oder 800er Auflösung und Low-Quality näherungsweise: Performance = CPU-Performance. Diese Settings belasten die Grafikkarte so wenig, dass die Performance (Framerate) überwiegend durch die CPU bestimmt bzw. limitiert wird.
  • dann gilt in Auflösungen ab 1280 in Verbindung mit High-Quality näherungsweise (schnelle CPU vorausgesetzt): Performance = GPU-Performance. Diese Settings belasten die GPU dermaßen, dass die Performance (Framerate) überwiegend durch die GPU bestimmt bzw. limitiert wird.
Dem ist nichts hinzuzufügen, naja... eins noch.

Ich habe schlampig formuliert und mit Low Settings irreführender Weise die Qualitätseinstellungen auf Grafikkartenseite gemeint. In-Game sollte man neben der geringstmöglichen Auflösung und Grafikeinstellungen (AA, AF, Texturqualität) die sonstigen Effekte auf maximale Qualität stellen, da einige auch die CPU-Last erhöhen können (man denke an Wechselspiel zwischen Optik und Physikberechnungen, detailiertere Hit-Zones mit aufwändigerer Kollisionskontrolle, whatever...).

Ideal wäre wie du gesagt hast, stets einen Verlauf für beide Komponenten (CPU und GPU) zu ermitteln und diesen dann auszuwerten. Erfahrungsgemäß wird man in realistischen Grafikeinstellungen während eines Benchmarks die allermeiste Zeit GPU-limitiert sein, was aber nichts daran ändert, dass gelegentlich mal die CPU einen Strich durch die Rechnung machen kann. Außerdem müsste man Worst-Case Szenarien für CPU und GPU gezielt aussuchen, diese können innerhalb desselben Spiels durchaus an unterschiedlichen Stellen auftreten.

Aus praktischen Erwägungen wird man das einem Autor kaum zumuten können, der Aufwand ist einfach zu hoch. Deshalb ist der Ansatz, Grafikkartenreviews von CPU-Artikeln unabhängig zu gestalten ja durchaus nachvollziehbar und aus Gründen des Aufwands wären sogar die Ermittlung von MinFPS an Stelle aufwändiger Auswertungen eines Frameverlaufs akzeptabel.

Recht gut gelöst hat das IMHO 3DCenter in den (leider eingeschlafenen) Performancereports, dort wird das CPU-Limit in den Diagrammen angegeben und somit die Aussagekraft der GPU-Messungen unterstrichen: Performancereport BioShock.

Allerdings kam es auch dort in den Kommentaren zu den Performancereports immer wieder zu Kritik an den Messungen in 640x480. "Niemand spielt in solchen Auflösungen" und "Völlig praxisfremd" waren immer wieder zu lesen, der Sinn und die Notwendigkeit solcher Messungen ist offensichtlich nicht leicht zu vermitteln.

Ganz aktuell ein weiterer Versuch einer Klarstellung:
Viele machen den Fehler, Ergebnisse auf 8x6 auch wenn sie aus WorstCase-Savegames gewonnen wurden, gleich von vorne herein als "praxisfremd" und deswegen nicht aussagekräftig abzutun.

Daweil kommt es sehr auf den Wert an, der bei 8x6 ermittelt wird. Ist der bei allen Szenen im flüssigen Bereiche, kann man sehr wohl sagen: Wayne? Obwohl man selbst dann immer noch sehen kann, wieviel Luft man hat, bzw wie es etwa mit schwächeren CPUs aussieht.
Wenn dieser CPU-limitierte Wert aber nichtmehr im (einwandfrei) flüssigen Bereich ist, weiß man aber verdammt genau, daß dieser Wert durch keine GraKa erhöht werden kann, und diese Szenen nicht (einwandfrei) spielbar sind.
Und genau dann werden diese Werte richtig und wichtig. Für diese Erkenntniss sollte man offen sein.
Madkiller im 3DCenter-Forum
 
Zuletzt bearbeitet:
smith0815 schrieb:
..., der Sinn und die Notwendigkeit solcher Messungen ist offensichtlich nicht leicht zu vermitteln.

Da gibt es ja auch nichts zu vermitteln. Es gibt keine Notewendigkeit in diesem Test hier für 640-er Auflösungstests. Ich will NICHT wissen, ob ich in 640-er Auflösung mit einer 4-Kern-CPU mehr FPS kriege oder nicht, weil die Graka limmitiert. Nein. ich nehme die schnellste Grafikkarte, die es gibt und wenn die immer noch unter relativ kleinen, spielbaren Einstellungen limmitiert, dann heißt das für mich einfach nur, dass ich für das Spiel keine bessere CPU brauche, da die Grafikkarte bereits limmitiert und kann mich auf andere Spiele konzentrieren. Ist den das so schwer zu verstehen?

Scheinbar schwer zu vermitteln, dass du hier am Test vorbeiredest. Es will in diesem Test keiner das wissen, wass du mit dem Test unter 640-er Auflösungen herausfinden willst. Es war doch schon von Anfang an klar, warum du in 640-er Auflösung testen willst. Aber das interessiert in diesem Test nicht. Deswegen kannst du noch so oft erklären, warum du das wissen willst, nur bitte nicht hier, sondern bei irgend einem reinen CPU-Test oder sonnst wo...
 
Zuletzt bearbeitet: (+ in diesem Test)
smith0815 schrieb:
Recht gut gelöst hat das IMHO 3DCenter in den (leider eingeschlafenen) Performancereports, dort wird das CPU-Limit in den Diagrammen angegeben und somit die Aussagekraft der GPU-Messungen unterstrichen: Performancereport BioShock.

Scheinen einige Szenen dabei zu sein, die ziemlich CPU-limitiert sind, beispielsweise bei Neptuns Bounty geht die 2900 XT allein aufgrund des erhöhten Takts (3,2 GHz anstatt 2,67 Ghz) noch bei der 1280er Auflösung über den CPU-Balken (der ja bei der 640er gemacht wurde) raus.

Von der Idee her gut gelöst. Allerdings geht durch die Angabe von AvgFPS einiges an Informationen verloren, hätte man hier noch Verlaufsdiagramme:
  • Die Frameratenkurve des CPU-Stress-Test (640er Auflösung und niedrige Grafikdetails) würde vermutlich die meiste Zeit oberhalb der Frameratenkurve vom GPU-Stress-Test (hohe Auflösung und hohe Grafikdetails) verlaufen.
  • An den Stellen, wo die Frameratenkurve des CPU-Stress-Tests dann die Frameratenkurve des GPU-Stress-Tests berührt (bzw. sogar unterhalb verläuft, das ist möglich, wenn der GPU-Stress-Test mit einer höheren CPU-Taktfrequenz ausgeführt wird), sieht man dann die CPU-limitierten Szenen (und kann diese noch genauer analysieren: sind CPU-limitierte Szenen einmalig und lang, oder häufiger und dafür kürzer u.s.w.)
Bleibt natürlich immer eine Frage des Aufwands.

edit
xp_home schrieb:
Es will keiner das wissen, wass du mit dem Test unter 640-er Auflösungen herausfinden willst. Es war doch schon von Anfang an klar, warum du in 640-er Auflösung testen willst.

Doch ich wollte es wissen und weiss es jetzt und finde es auch sinnvoll :)
 
Zuletzt bearbeitet:
HomerJSi schrieb:
Doch ich wollte es wissen und weiss es jetzt und finde es auch sinnvoll :)

Ich meinte, es will in diesem Test keiner wissen.... Das du und smith0815 das wissen wollt, habe ich ja geschrieben. Nur tangiert das diesen Test nicht. In diesem Test will es keiner wissen, weil das hier kein CPU-Test ist und weil die stärkste Grafikkarte verwendet wurde und so weiter und so fort, siehe mein Beitrag oben.
 
xp_home schrieb:
Scheinbar schwer zu vermitteln, dass du hier am Test vorbeiredest. Es will keiner das wissen, wass du mit dem Test unter 640-er Auflösungen herausfinden willst. Es war doch schon von Anfang an klar, warum du in 640-er Auflösung testen willst. Aber das interessiert in diesem Test nicht. Deswegen kannst du noch so oft erklären, warum du das wissen willst, nur bitte nicht hier, sondern bei irgend einem reinen CPU-Test oder sonnst wo...

Du scheinst es nicht zu verstehen.
So wie der Test Jetzt ist hast du nur eine Aussagekraft über genau die Test Konditionen.
Nämlich das das Spiel mit einer 9800GX2 und einer 4GHZ in 1280x1024 eine gewisse Performance hat.
Diese Ergebnisse Lassen sich auf keine andere CPU übertragen.

Das hat nichts mit Praxisnähe oder sonnst was zu Tuen. Da man für Jede Hardwarekombination extra testen müsste. Was aber nicht geht da es Unendlich Kombinationen gibt.

Wenn man nun aber das Spiel mit einer CPU am limit Testet dann bekommt ein einen Wert:
z.b. einmal 20 FPS und einmal 50FPS.
Diese CPU werte Zählen nun für alle Auflösungen.
hat das Spiel also 50FPS dann kann man sagen die CPU ist schnell genug um das Spiel Flüssig darzustellen.
Dazu schaut man sich noch den Test seiner Grafikkarte an und weiß wie es Spielbar ist.


Es ist mathematisch einfach unmöglich anhand eines Messwertes 2 Voneinander unabhängige Komponenten miteinander zu vergleichen.
Sollte das Doch gehen dann beweis es!
 
Zuletzt bearbeitet:
sagt mal, lest ihr eigentlich auch die Beiträge des Autors?

Wolfgang schrieb:
Genau darum geht es in meinen Augen ja nicht! Was bringt mir theoretisch die beste Multi-Core-unterstützung der Welt, wenn schon in 1280x1024 eine GeForce 9800 GX2 (!) am GPU-Limit klebt? Es spielt bestimmt keiner freiwillig in 800x600 mit null Details, nur damit seine CPU ausgelastet ist.

Bitte die Frage beantworten. Wenn ihr das nicht könnt, dann lasst es einfach. Wenn die Schnellste Graka limmitiert, dann ist es völlig wurst, dass die 4-Kern-CPU in anderer Auflösung hätte mehr gebracht.

florian. schrieb:
hat das Spiel also 50FPS dann kann man sagen die CPU ist schnell genug um das Spiel Flüssig darzustellen.
Dazu schaut man sich noch den Test seiner Grafikkarte an und weiß wie es Spielbar ist.

Es wird aber die schnellste Grafikkarte verwendet. In den Spielen, in dennen die schnellste Grafikkarte limmitiert, bringt es dir einfach nichts zu wissen, dass das Spiel in einer Auflösung in der man nicht spielt mehr FPS gebracht hätte, da es eben keine noch schnellere Grafikkarte gibt...
 
Zuletzt bearbeitet:
HomerJSi schrieb:
Von der Idee her gut gelöst. Allerdings geht durch die Angabe von AvgFPS einiges an Informationen verloren, hätte man hier noch Verlaufsdiagramme:

[...]

Bleibt natürlich immer eine Frage des Aufwands.
Ja, erstens ist der Aufwand sehr hoch und zweitens sind solche Diagramme schwer zu interpretieren, die gewählte Darstellung sollte dagegen für geneigte Leser etwas leichter zugänglich sein. Natürlich gehen durch die ausschließliche Angabe von AvgFPS für gewöhnlich wichtige Informationen verloren, dem wird allerdings durch die gezielte Auswahl der Testszenen entgegengewirkt:

Anstatt Messungen des eher durchschnittlichen Gameflusses mittels Timedemos stellen unsere Messungen ausgewählter kurzer Szenen über den Weg der Savegames somit eher Worstcase-Benchmarks dar: Wir messen dann, wenn die Hardware wirklich unter Stress gerät - und eben auch nur die jeweilige Stress-Szene und nicht noch jede Menge Leerlauf oder gleich eine andere Szene mit hinzu. Die von uns benutzten Savegames stellen dann verschiedene Anorderungsvarianten dar - von geringen Anforderungen bis zu extrem fordernden.

Damit hast du CPU-lastige Szenen und GPU-lastige Szenen und wo möglich eine Szene, in der "beide Komponenten schwitzen", CPU- und GPU-Limit sich also maximal annähern. Genau das ist ja auch, was du als relevante Stellen in einem Verlaufsdiagramm näher betrachten würdest. Das übliche Lulu-Geplänkel, also wo man sowohl GPU-seitig als auch CPU-seitig locker im flüssigen Bereich ist, schenkt man sich dann.

Wie gesagt, sowas kann man in einem Performancereport zu einem einzelnen Spiel machen, bei einem Grafikkartereview oder CPU-Review wäre der Aufwand wohl zu groß, für jedes gemessene Spiel mehrere ausgewählte Szenen zu untersuchen. Allerdings würde ich mir aus Gründen der Aussagekraft für das Spielerlebnis schon die Verwendung einer jeweils sehr fordernden Szene wünschen. Unsere Wahrnehmung hebt nun einmal den Ausnahmezustand "jetzt ruckelt es aber gerade derbe" hervor, während wir die Sekunden oder Minuten ohne Widrigkeiten eher nicht als Quell extatischer Freude wahrnehmen. Dann bei GPU-Reviews noch die schlichte Angabe des CPU-Limits in den vermessenen Szenen und bei CPU-Artikeln das GPU-Limit - das wäre Understatement und würde IMHO die Glaubwürdigkeit der Artikel deutlich erhöhen.
 
xp_home schrieb:
Da gibt es ja auch nichts zu vermitteln. Es gibt keine Notewendigkeit in diesem Test hier für 640-er Auflösungstests. Ich will NICHT wissen, ob ich in 640-er Auflösung mit einer 4-Kern-CPU mehr FPS kriege oder nicht, weil die Graka limmitiert.

Das ist ja die Frage, ob es in diesem Test hier eine Notwendigkeit für die 640er Auflösung gibt. Um diese Frage zu beantworten sollte man zuerst mal schauen, was der Test zeigen will. Ich verwende mal ein Zitat von Wolfang aus dem Fred hier, das es imo auf den Punkt bringt:

Wolfgang schrieb:
Da die Kritik öfters aufkam: Wie gesagt, das ist kein CPU-Test, vielmehr ein "Spieletests mit Fokus auf Multi-Core" [...]

Der Test hier ist also ein Spieletest. Spieleperformance wird entweder durch die GPU oder die CPU limitiert. Natürlich sind Spiele in typisch gespielten Auflösungen ab 1280 mit Qualitätssettings tendenziell GPU-limitert ... aber eben nur tendenziell, nicht ausschließlich. Und wenn ich schon ein Spiel spiele, das immer mal wieder Framerateneinbrüche hat, würde ich eben gerne wissen, worauf diese Einbrüche zurückzuführen sind ... auf ein GPU-Limit oder ein CPU-Limit. Und warum man das nur mit 640er Auflösungstests rausfinden kann, erzählt die ganze Zeit smith0815 (für mich überzeugend).

Oder mit Worten von florian:

florian. schrieb:
Es ist mathematisch einfach unmöglich anhand eines Messwertes 2 Voneinander unabhängige Komponenten miteinander zu vergleichen.
Sollte das Doch gehen dann beweis es!
 
HomerJSi schrieb:
Der Test hier ist also ein Spieletest. Spieleperformance wird entweder durch die GPU oder die CPU limitiert. Natürlich sind Spiele in typisch gespielten Auflösungen ab 1280 mit Qualitätssettings tendenziell GPU-limitert ... aber eben nur tendenziell, nicht ausschließlich. Und wenn ich schon ein Spiel spiele, das immer mal wieder Framerateneinbrüche hat, würde ich eben gerne wissen, worauf diese Einbrüche zurückzuführen sind ... auf ein GPU-Limit oder ein CPU-Limit. Und warum man das nur mit 640er Auflösungstests rausfinden kann, erzählt die ganze Zeit smith0815 (für mich überzeugend).

Im Test werden 1, 2, 3 oder 4 Kerne verwendet. Wenn ein Spiel bei jeder beliebigen Kernanzahl die gleiche FPS anzeigt, dann siehst du erst mal daran, dass entweder die Grafikkarte limmitiert oder das Spiel einfach kein Multicore-Unterstützung hat.

Wenn es die Grafikkarte ist, dann sagt dir das Ergebnis, dass du beruhigt zur Single oder Dual-Core-CPU greifen kannst, da eine Quad-Core-CPU nichts bringt, da eben bereits die schnellste Grafikkarte limmitierrt. Ist das Spiel aber nicht Grafikkartenlimmiert, sagt dir der Test wieder das selbe, nämlich, dass du wieder getrost zu einer Single oder Dual-Core-CPU greifen kannst und die Quad oder Tricore-CPU getrost bei Seite liegen lassen kannst. Wie du siehst, kommt man immer zum gleichen Ergebniss. Jetzt klar?
 
Zuletzt bearbeitet:
xp_home schrieb:
Es wird aber die schnellste Grafikkarte verwendet. In den Spielen, in dennen die schnellste Grafikkarte limmitiert, bringt es dir einfach nichts zu wissen, dass das Spiel in einer Auflösung in der man nicht spielt mehr FPS gebracht hätte, da es eben keine noch schnellere Grafikkarte gibt...
Wenn du etwas zur Leistungsfähigkeit der 9800GX2 wissen willst, gibt es bereits ein ausführliches Review: Test: Nvidia GeForce 9800 GX2
Was dieser neue Artikel hier macht, ist im Grunde nur die Erkenntnis nachzuliefern, dass auf der verwendeten Testplattform die Werte des 9800GX2-Reviews aussagekräftig sind, weil dank 4Ghz-Quadcore kein CPU-limit vorgeherrscht hat. Dies hätte eigentlich bereits in den ursprünglichen Artikel gehört und hätte dort kurz und knapp abgehandelt werden können.

Dieser neue Artikel heißt aber: Bericht: 1, 2, 3 oder 4 CPU-Kerne?

Der geneigte Leser nimmt zur Kenntnis:
Ein wenig schwerer tun sich die Spielehersteller bei der Optimierung auf verschiedene Prozessorkerne. Nachdem zu Beginn der Multi-Core-Ära fast kein Spiel von einem zweiten CPU-Kern profitieren konnte, sind die Spieleschmieden mit der Zeit einige Schritte vorangekommen und manche Titel werden gar schon mit einer Quad-Core-Optimierung beworben.

Doch bewerben kann man viel. Die Frage ist, wie die Praxis aussieht. Das wollen wir in diesem Artikel herausfinden, indem wir mit einigen beliebten Spieletiteln – und nur um diese geht es, andere Software wollen wir nicht behandeln – untersuchen, inwieweit Spiele mit einem zweiten, dritten und gar vierten CPU-Kern schneller laufen.

Dann wird nochmal ausführlich die Leistungsfähigkeit der 9800GX2 fern jeder Aussagekraft zu CPU-Taktrate und Kernanzahl durchgenudelt und wir bekommen dennoch ein überraschendes Fazit:
Unterm Strich spricht auch aus Sicht der Spieler allerdings nichts mehr gegen einen Zweikern-Prozessor. In vielen Spielen reicht zwar immer noch ein guter Single-Core-Prozessor aus, doch erscheinen immer mehr Titel auf dem Markt, die nicht nur schneller mit zwei Rechenkernen laufen, sondern regelrecht Einbrüche in der Geschwindigkeit bei nur einem Prozessorkern aufweisen. Mehr als zwei Kerne können vorteilhaft sein, doch profitieren zurzeit nur sehr wenige Spiele von zwei weiteren Recheneinheiten.

Das stimmt zwar im Wesentlichen bezüglich der AvgFPS in den gemessenen Szenen, die Multi-Core-Eignung aktueller Spiele wurde bereits anderswo aussagekräftig untersucht und das Fazit deckt sich auch mit Alltagserfahrungen, der Artikel selbst gibt ein solches Fazit aber in keinster Weise her. Es ist einfach nicht seriös, sich sowas aus den Fingern zu saugen.

Aus den Messungen kann der Autor auch nicht wissen, ob nicht in Worst-Case-Szenarien der einzelnen Spiele doch CPU-bedingte Einbrüche zu verzeichnen sind, die möglicherweise bei 2 Kernen abgemildert, bei 3 Kernen erträglich und bei 4 Kernen aus der Welt geschafft werden, das Testsetup gibt solche Aussagen überwiegend nicht her.

Die Stellungnahme des Autors macht IMHO genauso wenig Sinn wie der Artikel selbst. Es macht ebenso keinen Sinn sich daran festzuklammern, dass eine 9800GX2 in den gewählten Settings meist limitiert, wenn man einen Faktor betrachtet und den unabhängigen zweiten Faktor außer Acht lässt, dann kann man böse Überraschungen erleben. Vermutlich nicht mit der 4Ghz-CPU und sicher nicht in den hier gewählten Spielszenen, genau erfahren werden wir es aber bei ComputerBase nie. Wenn wir schon von Praxisnähe reden, Lulu-Szenen mit >60FPS sind aus Spielersicht weniger relevant als die Stellen, wo es für die Hardware zum Schwur kommt. Genau dann will er auch sicher wissen, was ihn da gerade limitiert und wird sich wohl anderswo umsehen müssen oder selbst nachmessen. :mad:

So, nochmal drehe ich mich jetzt nicht im Kreis :)

Edit: Hätte ich mir spraen können, HomerJSi hat es in #389 ja bereits noch einmal sehr schön auf den Punkt gebracht...
 
Zuletzt bearbeitet:
Was ist daran so schwer zu verstehen, das die avgFPS Werte in diesem Test wertlos sind?

Praxisnah:
1280x1024 bei einer 9800 GX2?

Nö, das ist Schwachsinn. Entweder konsequent sagen, das man hier nur auf avg FPS Werte am völligen GPU Limit aus ist oder zugeben, das 640x480 die einzige Möglichkeit ist, um deutlich zu sehen, ob es am Takt der CPU oder der Anzahl an Kernen klemmt.

Ist es so schwer zu verstehen?
Dieser Test sollte zeigen, ob die störenden Ruckler durch mehr Kerne oder ansonsten herkömlich durch mehr Takt beseitigt werden können.
Das hat er nicht. Was hat er dann?

Die ganze Diskussion ist ja eh müll, nur weil ein paar wenige es einfach nicht verstehen, wie man CPUs oder deren Kerne in Spielen testet.

xp_home schrieb:
getrost zu einer Single oder Dual-Core-CPU greifen kannst
Das ist schlicht falsch, auch wenn es bei diesem Test den Anschein hat.
 
Zuletzt bearbeitet:
xp_home schrieb:
Im Test werden 1, 2, 3 oder 4 Kerne verwendet. Wenn ein Spiel bei jeder beliebigen Kernanzahl die gleiche FPS anzeigt, dann siehst du erst mal daran, dass entweder die Grafikkarte limmitiert oder das Spiel einfach kein Multicore-Unterstützung hat.

Die fett markierte Stelle gibt genau das Problem an.

Hier bei Crysis, nehme beispielsweise die Qualitätssettings ist so ein Fall.

Das Problem ist ja, dass man beim Spielen nicht durchgängig 26,9 FPS angezeigt kriegt, sondern im Spielablauf die Framerates schwanken. 26,9 FPS ist nur ein Durchschnittswert aller Frameraten. In einem Durchschnittswert von 26,9 FPS (die im Diagramm bei 2 Kernen angezeigt werden (Crysis Qualitätssettings) stekcen also Framerates, die teilweise im Bereich unter 25 FPS liegen, was man als Framerateneinbruch oder Ruckeln als störend empfindet. Die Angabe der 26,9 FPS schlägt mit ihrer Durchschnittsbildung die Ruckler tot.

In einem Verlaufsdiagramm
sieht man Ruckler. Natürlich treten die Ruckler bei der 1280er Auflösung am häufigsten bzw. tendenziell wegen GPU-Limits auf, aber nicht nur. Für einen bestimmten Punkt auf einer Verlaufskurve, also eine Framerate, kann man also nicht sagen, ob diese GPU- oder CPU limitiert ist. Machst du aber den Test auf der 640er Auflösung (löst also die GPU Bremse) kannst du die Ruckler sehen, die durch die CPU verursacht werden. Natürlich kann man sagen "mir reichen die drei Verlaufskurven für unterschiedliche Kernanzahl" (die bei UT schonmal einige Unterschiede zeigen ... von gleichen FPS also kann schonmal nicht die Rede sein).

Aber - Ein Test auf der 640er Auflösung würde auf der anderen Seite auch zeigen, welches Potential die CPUs haben, und wie weit es durch die Grafikkarten ausgeschöpft wird. Hier würde ja ein Test mit AvgFPS reichen - schließlich bremsen ja bei der 1280er Auflösungen überwiegend die GPUs. Und zumindest mich würde interessieren, wie sehr die GPUs bremsen. Von einem Spieletest mit Fokus auf Multicore-CPUs erwarte ich das zumindest.
 
Unyu schrieb:
Was ist daran so schwer zu verstehen, das die avgFPS Werte in diesem Test wertlos sind?

Praxisnah:
1280x1024 bei einer 9800 GX2?


Die Auflösung 1280x1024 ist praxisnah, da das eben die kleinste Auflösung ist, in der gewöhnlich gespielt wird. Die Schnellste graka deswegen, weil man bei einem Grakalimmit dann sagen kann, dass es eben egal ist welche CPU, da eh grafikkartenlimmitiert. Würde man nicht die stärkste nehmen würde wieder welche kommen und sagen, wenn ich aber eine stärkere Graka nehme, hab ich doch was von der CPU. So können sie das aber eben nicht sagen, weil es keine stärkere Grafikkarte gibt.


Unyu schrieb:
xp_home schrieb:
getrost zu einer Single oder Dual-Core-CPU greifen kannst
Das ist schlicht falsch, auch wenn es bei diesem Test den Anschein hat.
Vielleicht, aber nicht durch die gewählte Auflösung, sondern dadurch, dass auf 4 Ghz übertaktet wurde und nicht durchgängig Save Games mit Ki und allem drum und dran verwendet worden sind. Mit der Auflösung hat das nichts zu tun.

@HomerJSi
Was willst du den mit Crysis? Der Test von Crysis zeigt nur, dass die Grafikkarte limmitiert. Da hilft dir auch kein Verlaufsdiagramm....

HomerJSi schrieb:
Aber - Ein Test auf der 640er Auflösung würde auf der anderen Seite auch zeigen, welches Potential die CPUs haben, und wie weit es durch die Grafikkarten ausgeschöpft wird. Hier würde ja ein Test mit AvgFPS reichen - schließlich bremsen ja bei der 1280er Auflösungen überwiegend die GPUs. Und zumindest mich würde interessieren, wie sehr die GPUs bremsen. Von einem Spieletest mit Fokus auf Multicore-CPUs erwarte ich das zumindest.

Es soll aber nicht das Potential der CPU gezeigt werden. Den es ist KEIN CPU-TEST. CPU-Test gibt es bei CB auch, du bist hier falsch, wenn du das Potential der CPU sehen willst, dass nicht ausgeschöpft werden kann. Es ist ein Spieletest und Spiele spielt man eben in vernünftigen Auflösungen und wenn beim 1280 bereits die schnellste Grafikkarte limmitiert, dann ist das Potential völlig wurscht, da es nicht ausgeschöpft werden kann.
 
Zuletzt bearbeitet:
Warum limitiert die 9800 GX2 in so eine kleinen Auflösung wenn diese die schnelllste Karte zurzeit ist.?
Kann mir jemand das beantworten?
 
@xsund
Weil:
Die CPU weitaus schneller als die schnellste CPU ist, die Grafikkarte dagegen nicht eindeutig die Schnellste ist, wenig VRAM sei dank.
Die avgFPS so wenig über die Spielbarkeit aussagen, wie nur möglich.
Die getesteten Situationen und Spiele nicht die maximalste CPU Last darstellen.
 
@Unyu
Ah komm. "Nicht eindeutig die schnellste Graka..." Wir können auch Korinthenkaken, wenn wir nichts mehr zu diskutieren haben? Schau dir mal die Auflösung an, da ist VRAM und Bandbreite weniger wichtig, als in höheren Auflösungen wo die GX2 anfängt schwächer zu werden.... Das erklärt auch seine Frage nicht. Wenn es eine zweite Grafikkarte gibt, die genau so schnell ist, ändert das nichts an seiner Frage.

Unyu schrieb:
Die getesteten Situationen und Spiele nicht die maximalste CPU Last darstellen.
Das ist richtig, man muss aber ein "nicht immer" in den Satz hineinfügen. Weil eben nicht überall Save Games verwendet wurden, sondern oft Time-Demos, die ohne KI natürlich weniger Last für die CPU darstellen, als im im Save Game, die reale Spielbedienungen zeigen.

Aber auch die richtigkeit dieser Aussage ändert nichts daran, dass es dennoch Spiele wie Crysis gibt, die trotz voller Last auf die CPU in realen Bedienungen Grafikkarten limmitiert sind, weil eben die Grafik immer weiter verbessert wird.
 
Zuletzt bearbeitet:
xp_home schrieb:
@HomerJSi
Was willst du den mit Crysis? Der Test von Crysis zeigt nur, dass die Grafikkarte limmitiert. Da hilft dir auch kein Verlaufsdiagramm...

Also, jetzt zum letzten Mal :D

Der Test von Crysis zeigt lediglich, dass die Grafikkarte bei diesen Settings (1280er Auflösung etc) durchschnittlich limitiert (weil man AvgFPS, also die durchschnittliche Framerate) betrachtet. Wenn man sich damit zufrieden gibt ... ok.

Allerdings sind in der durchschnittlichen Framerate Spielszenen mit hohen und niedrigen Frameraten ("Ruckler") vermischt ... zumindest mich stören Ruckler ungemein (zum Beispiel bei hohem Gegneraufkommen, shader/effektlastigen Szenen, ...).

Ob und in welchem Ausmaß aber im Spiel/Benchmark auftretende Ruckler oder Framerateneinbrüche durch CPU-Limits oder GPU-Limits verursacht werden, zeigt dieser Test von Crysis mit seinen AvgFPS in den gewählten Settings (1280er Auflösung etc) nicht.
  • Um Ruckler zu identifizieren, braucht man Verlaufsdiagramme (schade, dass gerade für Crysis das Verlaufsdiagramm fehlt).
  • Um zu identifizieren, ob Ruckler durch CPU-Limit oder GPU-Limit verursacht werden, braucht man Tests auf der 640er Auflösung in Verbindung mit Verlaufsdiagrammen (oder das Testszenario, das smith0815 geschildert hat: worst-case-Spielsequenzen für GPU und CPU, die jeweils eine der beiden Komponenten voll auslasten und keinen Leerlauf enthalten).

xp_home schrieb:
Es soll aber nicht das Potential der CPU gezeigt werden. Den es ist KEIN CPU-TEST. CPU-Test gibt es bei CB auch, du bist hier falsch, wenn du das Potential der CPU sehen willst, dass nicht ausgeschöpft werden kann. Es ist ein Spieletest und Spiele spielt man eben in vernünftigen Auflösungen und wenn beim 1280 bereits die schnellste Grafikkarte limmitiert, dann ist das Potential völlig wurscht, da es nicht ausgeschöpft werden kann.

Wolfgang schrieb:
[...] Da die Kritik öfters aufkam: Wie gesagt, das ist kein CPU-Test, vielmehr ein "Spieletests mit Fokus auf Multi-Core". [...]

Schön. Darunter kann man zunächst mal ne Menge verstehen. Ob man nun bei einem Spieletest mit Fokus auf MultiCore das Potential von Multicores zeigen will oder nicht, mag strittig sein ... wenn du denkst dass das nicht gezeigt werden soll - ich denke eben dass es gezeigt werden soll. Jedem das seine :D
 
Zurück
Oben