Bericht Bericht: 1, 2, 3 oder 4 CPU-Kerne?

Was soll diese komische Diskussion über die Frameratenmessung, wenn offensichtlich jedem von euch die Grundlagen dafür fehlen. :evillol:
Ohne Differentialrechnung und etwas mehr Physikgrundlagen seh ich da bei euch nur einen schwarzen Bildschirm :n8:
 
Zuletzt bearbeitet von einem Moderator:
Ich finde vieles in diesem Test nicht so gut und aussagekräftig.

In Crysis sollte man doch z.b. eine CPU-lastige Szene testen, mit vielen Gegner und AI-Berechnungen, wo's nur so drunter und drüber geht (wie z.b. in dem einen Dorf da).
In vielen Games sieht man ja keinen/minimalen Unterschied zwischen 1/2/3/4 Cores.
Aber es wäre doch viel gescheiter auch gewesen, nicht mit einer CPU zu testen, die eh keiner hat. Wer hat schon eine 4 GHz Singlecore CPU. Wer hat schon eine 4 GHz Dualcore CPU. Wer hat schon einen QX... ;)
Okay, es ist interessant zu sehen, wie sich _ein und dieselbe CPU_ mit 1/2/3/4 Cores schlägt. Aber dann nehmt doch einen Q9450.
Viel interessanter wäre das doch noch mit z.b.: E7200/E8400/8500: Wie schlägt sich dieser mit 2 Core's gegen die Q9300/Q9450? Was kostet preislich das selbe? 2x3GHz CPU vs 4x2.5GHz CPU?
Zudem redet ihr in eurem Artikel davon, als gäbe es noch Singlecore CPU's. Wer kauft sich sowas schon noch, also bitte. Selbst wenn ein Singlecore und ein Dualcore in jedem Spiel exakt gleich schnell wären, sollte man zum Dualcore raten. Es ist einfach ein viel flüssigeres Arbeiten möglich - switcht mal aufn Desktop, hört Musik nebebei, etc. Selbst wenn die Zukunft vllt wieder bei eher wenigen Kernen liegt, da Multithreading einfach nicht optimal für Spiele ist, und diese wirklich am optimalsten auf einem einzigen Kern laufen - ein zweiter Kern für flüssiges Arbeiten kann ich mir nicht mehr wegdenken.
Es wäre z.b. auch noch interessant, wenn ihr etwas über Hyperthreading gesagt hättet. Dieses ist ja mit den Core Duo damals wieder spurlos verschwunden. (und soll wieder kommen in der neuen Generation, oder?) Würde das noch was bringen?

Also tut mir leid, aber irgendwie bin ich nicht so ganz von dem Artikel begeistert, war bestimmt eine riesen Arbeit, aber ich bin nicht so ganz überzeugt von der Darstellung. Das Testen von ein und derselben CPU mit 1/2/3/4 Kernen hat auf jeden Fall Berechtigung und ist Interessant aber muss dann anders dargestellt und erläutert werden, siehe die Kritikpunkte oben. :-)

Edit: Achja, zu sehen, ob da native AMD Quad's irgendwas bringen, wäre mal was. Ich nehms aber mal nicht an.
Und die Frame-Diagramme und auch das mit den MinFPS finde ich super. Und Danke für die Arbeit :)
 
Zuletzt bearbeitet:
Ich halte diesen Test für wenig Sinnvoll, da zum Beispiel der getestete "Single Core" unrealistisch ist.
Es gibt keinen Core 2 Quad mit "nur" einem Kern zu kaufen. An dieser stelle sollte man einen Pentium 4 mit einem Kern zum Test nehmen.

Bei einem Quad, drei Kerne vom Betriebssystem deaktivieren zu lassen zeigt zwar wie sich Spiele unter solchen Umständen verhalten, dennoch ist diese Gegebenheit nur auf den Quad beschränkt.

Die einzige CPU die mit "ähnlicher" Technologie aufweisen kann UND nur einen Kern hat, ist ein Core Solo, welchen es meines Wissens nach nicht mehr, und ohnehin kaum, einzeln zu kaufen gab.

Ein CPU-Vorschlag von mir für einen "realistischeren Test" wäre:
AMD Phenom X4
AMD Phenom X3
AMD Athlon X2
AMD Athlon 64

Von jedem Ableger die (vielleicht?) jeweils schnellste Version, oder Taktfrequenz vergleichbare Versionen, da hier realistische Verhältnisse dargestellt würden.

Ich habe AMD Prozessoren als Vorschlag genommen da sie die einzigen mit einem Triple-Core sind ;-).

Wie gesagt, ein Test mit einem Quad Core auf welchem einzelne Kerne deaktiviert werden. zeigt zwar wie sich Spiele bei entsprechend vielen Kernen verhalten aber nicht wie es mit den aktuell erwerbbaren Single, Duo, Triple und Quads ausschaut.
 
Während andere Testseiten Spielen wie z. B. Bioshock und Crysis bessere Performance mit Mehrkern-CPU´s attestieren sagt Euer Test ganz was anderes...

Was soll man als Anwender davon halten?

smith0815 schrieb:


Zunächst einmal muss man sich folgendes vor Augen führen, auch wenn in Foren immer wieder gegenteiliges zu lesen ist, so steigt die CPU-Last mit zunehmender Grafikauflösung nicht.

Schon richtig, nur wo willst du Performancevorteil bei der FPS sehen, wenn du die Grafikkarte von hausaus am Limit betreibst? Es wird ja nicht die CPU-Last gemessen, sondern die FPS :P

smith0815 schrieb:
Um also eine Aussage über den Einfluss der CPU und die Skalierung auf mehrere Kerne treffen zu können, so muss man zunächst sicherstellen, dass die Grafikkarte nicht zum limitierenden Faktor wird,
Aja hier schreibst du es ja selbst... also hat die Auflösung sehr wohl was damit zu tun, auch nur aus dem Grund der Limitierung der Karte.

smith0815 schrieb:
Die hier gewählten Auflösungen eignen sich in den verwendeten Spielen leider nicht, um zuverlässig ein GPU-Limit auszuschließen und somit hat man nicht die Skalierung ausgemessen, sondern schlicht nur das GPU-Limit ermittelt. Geeignete Auflösungen wären 640x480 oder 800x600 gewesen und das Ganze dann ohne Antialiasing oder Anisotrope Filterung.

Natürlich ist die Auflösung nicht praxisnah und niemand spielt in solchen Einstellungen, dafür erlaubt sie Aussagen über die CPU-Skalierung und das war ja der Anspruch des Artikels.

Tests mit so niedrigen Auflösungen interessieren deshalb überhaupt nicht, weil sie nichts aussagen über die Auflösung, in welcher ich spiele ;-) Ich spiel in 1920 x 1200. Was interessiert mich, ob CPU´s gut in niedrigen Auflösungen skalieren, wenn das bei mir keinen Einfluss hat? Genausoviel wie mich die 1280er Auflösung interessiert, nämlich garnicht.

smith0815 schrieb:
Leider ist anzunehmen, dass nun einige diesen Artikel fleißig als Quelle für die Behauptung angeben werden, die im Fazit aufgestellt wurde.
Das find ich auch traurig.
 
Zuletzt bearbeitet:
Also was mich mal intresieren würde, es gibt massig Spiele wo ich auf meiner G15 immer so 50 - 57% CPU Auslastung habe bei meinem Dual Core, beim SingleCore lief ALLES immer bei 100%.
Der DualCore wird also faktisch garnicht genutzt und das Spiel geht einfach von einem Core aus, Windows verteilt die Last halt selber auf beide Cores wodurch sich die CPU am Ende aber nur langweilt.

Bei den optimierten spielen sieht man auch mal 75% CPU last, wirklich wenige zeigen mir 100% an (z.B. CMR Dirt)

Wie schaut das bei solchen spielen jetzt mit Quad Core aus? Läuft die CPU dann mit 25% Auslastung pro Core ???

Könnte man diesen Spielen nicht irgendwie vormogeln das jetzt anstadt 2GHz pro Core z.B. 4 oder 8 GHz zur verfügung stehen, damit die das mal ausnutzen?
Ich hab echt das Gefühl die Spiele kucken wieviel GHz da sind bei einem Core und so viele Berechnungen werden dann halt von der CPU angefordert!?
Anders kann ich mir das mit den 50% echt nicht erklären.

Ich find es nur grausam das hier die Spiele nach lust und laune mit 30-40fps rumruckeln und meine CPU erzählt mir das sie mit 55% Last läuft... wobei die Last SEHR gleichmäßig auf beide Cores verteilt ist.
 
abulafia schrieb:
Was soll diese komische Diskussion über die Frameratenmessung, wenn offensichtlich jedem von euch die Grundlagen dafür fehlen. :evillol:
Ohne Differentialrechnung und etwas mehr Physikgrundlagen seh ich da bei euch nur einen schwarzen Bildschirm :n8:

Was soll dieses komische Lehrer-Getue? :D
Vor allem: Mit Differentialrechnung kommt man hier nich weiter, ne Framerate als Grenzrate zu betrachten macht am wenigsten Sinn. Guten Morgen :D
 
LazyGarfield schrieb:
smith0815 schrieb:
Zunächst einmal muss man sich folgendes vor Augen führen, auch wenn in Foren immer wieder gegenteiliges zu lesen ist, so steigt die CPU-Last mit zunehmender Grafikauflösung nicht.
Schon richtig, nur wo willst du Performancevorteil bei der FPS sehen, wenn du die Grafikkarte von hausaus am Limit betreibst? Es wird ja nicht die CPU-Last gemessen, sondern die FPS :P]
Du machst den selben weitverbreiteten Denkfehler, mit dem ich aufräumen wollte. Leider zitierst du nur einen Satz, lies dir einfach den ganzen Beitrag nochmal durch:
Warum der Test das Thema verfehlt hat und das Fazit wertlos ist

Es geht eben darum in jeder Sitauation auszuschließen, dass die Grafikkarte während der Messung zum limitierenden Faktor wird. Nur dadurch erhälst du Ergebnisse, die etwas über die Leistungsfähigkeit der verwendeten CPU in den getesteten Spielen aussagen. Als FPS bekommst du immer den kleineren Grenzwert zu sehen, also entweder das CPU-Limit, oder das GPU-Limit, ein Zusammenhang besteht nicht.

Tests mit so niedrigen Auflösungen interessieren deshalb überhaupt nicht, weil sie nichts aussagen über die Auflösung, in welcher ich spiele ;-) Ich spiel in 1920 x 1200. Was interessiert mich, ob CPU´s gut in niedrigen Auflösungen skalieren, wenn das bei mir keinen Einfluss hat? Genausoviel wie mich die 1280er Auflösung interessiert, nämlich garnicht.
Ich vermute die Tests in niedrigen Auflösungen zur Ermittlung des CPU-Limits interessien dich nicht, weil du von falschen Annahmen ausgehst (ausgegangen bist?). Siehe oben, wenn die CPU in 800x600 nur maximal 25fps liefern kann, dann bekommst du auch in deiner gewünschten Auflösung nicht mehr, ganz egal welche Grafikkarte und Qualitätssettings du einsetzt. Umgekehrt, wenn die CPU in 800x600 stets ausreichende Frameraten liefert, dann wird sie das auch in 1920x1200 tun. Für die CPU bleibt der Rechenaufwand gleich und deine Grafikkarte kann ihre Leistungsfähigkeit ausspielen.

Bei den meisten Grafikkartenreviews wird das Problem des CPU-Limits nicht (oder nur in den kleineren Auflösungen ohne AA/AF) auftreten und sie dürften aussagekräftig sein, weil hochgezüchtete CPUs und hohe Qualitätssettings der Spiele meist das Grafikkartenlimit aufzeigen, das es ja in solchen Berichten zu messen gilt und für das sich der Leser interessiert. Schade ist trotzdem, dass dies mehr oder weniger zufällig geschieht, Understatement wäre jedes Mal zunächst das CPU-Limit der Testplattform in den gemessenen Szenen zu ermitteln und auch anzugeben.

Für eine Anekdote aus einem Spieleralltag nochmals den Link zum erhellenden Beitrag von BlackBirdSR im 3DCenter-Forum. Diese Alltagserfahrung verdeutlicht eindrucksvoll, warum theoretische Messungen des CPU-Limits in praxisfernen 800x600 zur Einschätzung des realen Spielempfindens relevant sind.

Du bist also darauf angewiesen, dass die Testseite deines Vertrauens sicherstellt, dass die ermittelten Werte aussagekräftig sind. Bei Grafikkartentests darf man auf keinen Fall ins CPU-Limit rennen, da sonst die Grafikkarte ihre Leistung nicht ausspielen kann. Bei CPU-Tests darf man dagegen auf keinen Fall ins Grafikkartenlimit rennen, weil es ab dort keinen Unterschied mehr macht, ob 1 oder 2 Kerne, X oder Y Ghz CPU-Power zur Verfügung stehen, die Prozessoren idlen dann nur noch. Ferner sollten für die Beurteilung der CPU möglichst CPU-lastige Szenen ausgesucht werden, die das CPU-Limit in den Keller treiben und unter Umständen schnell den spielgenuß trüben können, währen im Großteil der Spielszenen ein schwächerer Prozessor keinen Unterschied zu einem hochgezüchteten 4-Kerner zeigt (-> GPU-Limit).

Wolfgang schrieb:
Der Artikel ist, wie leider nur die wenigen verstanden haben, KEIN CPU-Test. Der Artikel soll zeigen, wass einem Multi-Core-CPUs in aktuellen (und nicht in Zukünftigen) Spielen bringen und nicht, was sie eventuell in unrealistischen Situationen bringen. Aus diesem Grund haben wir uns für die Auflösung 1280x1024 entschieden, die für eine GeForce 9800 GX2 schon sehr klein ist. AA/AF haben wir noch Hinzugeschaltet, da die meisten so wohl Spielen werden.
Es tut mir leid, aber aufgrund der angesprochenen Fehler sagt der Artikel nichts dergleichen aus. Er zeigt ledigleich, dass eine 9800GX2 in den getesteten Spielen von einer 4Ghz-CPU in den gewählten Szenen nicht limitiert wird und listet das GPU-Limit auf.

Wolfgang schrieb:
Ich gebe zu, dass es in der Einleitung vielleicht nicht richtig rüber kommt, was dieser Artikel bringen soll. Wie gesagt, es handelt sich nicht um einen CPU-Test. Deswegen machen auch Sachen wie 800x600 mit Low-Details keinen Sinn. Und wenn man schon mit der schnellsten zur Zeit verfügbaren Grafikkarte in 1280x1024 ohne AA/AF keinen oder nur einen geringen (manchmal auch einen großen) Gewinn von Multi-Core hat, dann hat man es mit einer anderen genausowenig.
Bei 4Ghz Taktung eines einzelnen Cores, aber dazu hast du ja schon was gesagt. Trotzdem lege ich auch dir noch einmal den obigen Link zur Praxisrelevanz ans Herz.

Ich finde wirklich toll, dass ihr euch die Mühe macht und solch aufwendige Testreihen durchführt. Ich würde mir halt nur wünschen, dass dabei dann auch etwas verwertbares rüberkommt. Warum der CPU-Skalierungsartikel nun auf einmal kein CPU-Test sein soll, erschließt sich mir nicht. Wie auch immer, IMHO sollte er ein CPU-Test sein, denn Grafikkarte und CPU agieren nunmal weitestgehen unabhängig voneinander und für Leistungsmessungen der Grafikkarten habt ihr ja die ausführlichen Grafikkartenreviews (wo die 4Ghz-CPU wieder Sinn machen würde, um ein CPU-Limit zuverlässig auszuschließen).

Dass ihr bereits in den meisten Fällen Savegames für eure Benchmarks heranzieht, ehrt euch und ich habe es nur noch einmal der Vollständigkeit halber angeführt. allerdings bin ich nicht sicher, ob ihr für diesen Test möglichst CPU-lastige Szenen ausgesucht habt. Vermutlich nicht, es sollte ja kein CPU-Test sein.

Gruß und nichts für Ungut
smith
 
Zuletzt bearbeitet:
Sennox schrieb:
Wie gesagt, ein Test mit einem Quad Core auf welchem einzelne Kerne deaktiviert werden. zeigt zwar wie sich Spiele bei entsprechend vielen Kernen verhalten aber nicht wie es mit den aktuell erwerbbaren Single, Duo, Triple und Quads ausschaut.

Das sollte der Test ja auch nicht zeigen. Denn bei einem Test von nur verfügbaren CPUs würde der Test stark davon abhängen, was der Hersteller einem an CPUs liefert. Damit würde der Hersteller mit seiner Modellpolitik den Ausgang des Tests maßgeblich beeinflussen. Da würde in deinem Testzenarium der X2 nicht so gut abschneiden, wie wenn AMD einen X2 mit K10-Architekur gebracht hätte. Der Test wäre also kein Vergleich zwischen den Kernen, sondern ein Vergleich zwischen Kernen UND verschiedenen Architekturen. Der Test sollte aber kein CPU-Test sein, sondern nur zeigen wie sich die Spiele bei unterschiedlicher Kernanzahl verhällt und eben nicht, was ich mit einem K8 als X2-Version spielen kann und wie gut der K10 als Quad und Triple-Core abschneidet...
 
smith0815 schrieb:
Für eine Anekdote aus einem Spieleralltag nochmals den Link zum erhellenden Beitrag von BlackBirdSR im 3DCenter-Forum. Diese Alltagserfahrung verdeutlicht eindrucksvoll, warum theoretische Messungen des CPU-Limits in praxisfernen 800x600 zur Einschätzung des realen Spielempfindens relevant sind.

Das Performance Gesamtbild ist: Performance = min {GPU-Performance, CPU-Performance} ... und der limitierende Faktor ändert sich mit Auflösung und/oder Qualitätssettings.

Ich spiele in 1280*1024 und 1600*1200. Bei jedem Test, in dem Spiele involviert sind, interessiert mich die Performance in diesen Auflösungen, auch bei CPU-Tests (falls dieser CB-Test ein CPU-Test sein sollte) - i.A. bei jedem Hardwaretest, der bzgl. Spielen durgeführt wird.

Der gefühlte Unterschied zwischen 2,4 und 3,0 GHz müsste sich ja auch bei Auflösungen, die höher als 800*600 sind bemerkbar machen, und wenn man die Ergebnisse nicht totplättet - beispielsweise Verlaufsdiagramme (hier wäre eine höhere Zeitliche Auflösung besser gewesen) oder Frameverteilungen (beispielsweise hier) nimmt - sieht man genau diese 5% bis 10% der Spielzeit, wo man mit low FPS rumdümpelt. Dementsprechend müsste man bei der höheren Taktfrequenz von 3,0 GHz in genau diesen 5% bis 10% der Spielzeit Verbesserungen sehen - auch in einer hohen Auflösungen von 1280 oder höher. Mich haben in Crysis auch zum Beispiel die ungefähr 16% der Spielzeit gestört, die unterhalb von 25 FPS abgelaufen ist.

Ein Test auf 800*600 mag vielleicht Sinn machen für einen Prozessor-Hersteller, der seine CPU-Entwicklung unabhängig von der aktuellen GPU-Performance vorantreiben will (800*600: GPU-Limit weg) ... ich als normaler Spieler sehe mich aber in einem Spiel CPU- und GPU-Limit gegenüber und interessiere mich für die CPU-Skalierung nur so weit, wie sie durch das GPU-Limit (ab 1280 und höher) zugelassen wird.

Das reale Spielempfinden finde ich somit am besten durch 1280er-Auflösung und höher, verbunden mit einer präzisen Ergebnisdarstellung (Verlaufsdiagramm oder Frameverteilung in Ergänzung zu AvgFPS bzw. MinFPS) abgebildet ... und natürlich durch einigermaßen reale Hardware (4 GHz Singlecore mit massig Cache und Core 2 Architektur ist das natürlich nicht).
 
HomerJSi schrieb:
Das Performance Gesamtbild ist: Performance = min {GPU-Performance, CPU-Performance}
Ja!

... und der limitierende Faktor ändert sich mit Auflösung und/oder Qualitätssettings.
Möglicherweise, ist die CPU bereits in geringen Auflösungen limitierender Faktor, dann ändert sich auch bei höheren Auflösungen/Qualitätssettings nichts mehr. Reicht die Performance der CPU dagegen für eine bestimmte Framerate in der höchsten Auflösung/Settings, dann bekommst du bei reduzierung der Auflösung/Settings auch nicht mehr FPS. Ändern wird sich der limitierende Faktor nur, wenn das System ausgewogen ist und mal die Grafikkarte, mal der Prozessor limitieren.

Der gefühlte Unterschied zwischen 2,4 und 3,0 GHz müsste sich ja auch bei Auflösungen, die höher als 800*600 sind bemerkbar machen, (...)
Solange die CPU nicht limitiert, wirst du zwischen 2,4 und 3,0 und 4,0 ... keinen Unterschied merken, weder meßbar noch fühlbar. Der schnellere Prozessor idlet dann eben etwas mehr, die Auflösung ist ihm egal, da schwitzt nur die Grafikkarte.

Ein Test auf 800*600 mag vielleicht Sinn machen für einen Prozessor-Hersteller, der seine CPU-Entwicklung unabhängig von der aktuellen GPU-Performance vorantreiben will (800*600: GPU-Limit weg) ... ich als normaler Spieler sehe mich aber in einem Spiel CPU- und GPU-Limit gegenüber und interessiere mich für die CPU-Skalierung nur so weit, wie sie durch das GPU-Limit (ab 1280 und höher) zugelassen wird.
Du siehst dich immer nur einem der Limites gegenüber, der jeweils andere Part langweilt sich dann. Was die Grafikkarten ohne CPU-Limit leisten können, siehst du ja in den Grafikkartenreviews, dort limitiert die CPU dank hochgezüchteter Testplattform in den Testsettings nur sehr selten oder nie. Dieser Test hier macht einfach keinen Sinn, weil über die Multi-Core-Fähigkeit der getesteten Spiele fast keine Aussagen ermöglicht werden, denn die meisten laufen bereits auf einem Kern bei 4Ghz ins GPU-Limit. Um nichts anderes geht es mir.

Das reale Spielempfinden finde ich somit am besten durch 1280er-Auflösung und höher, verbunden mit einer präzisen Ergebnisdarstellung (Verlaufsdiagramm oder Frameverteilung in Ergänzung zu AvgFPS bzw. MinFPS) abgebildet ... und natürlich durch einigermaßen reale Hardware (4 GHz Singlecore mit massig Cache und Core 2 Architektur ist das natürlich nicht).
Das wäre dann eine Art Performancereport, also wie performt Spiel XY auf gängigen Plattformen. Aus Gründen des Aufwands (jedes Spiel auf zig Plattformen (Kombination CPU, GPU, RAM testen) wird sowas selten gemacht. Stattdessen geht man den umgekehrten Weg und testet neue Hardware im Zusammenspiel mit verschiedenen Games.

Von einem Grafikkartenreview darfst du keine Alltagsergebnisse erwarten, hier sollte im Idealfall niemals das CPU-Limit zuschlagen und wer hat schon eine 4Ghz-CPU. Umgekehrt sollte bei einer CPU-Bewertung niemals das GPU-Limit greifen. Aus den MinFPS beider Testreihen (einmal diverse CPUs mit verschiedenen Taktfrequenzen und Kernen, einmal die Reviews verscheidener Grafikkarten) ließen sich dann aber prima Rückschlüsse auf das eigene System ziehen.

Leider gibt es bei CB nur Grafikkartenreviews (die glücklicherweise nicht ins CPU-Limit laufen), aber nichts zu CPUs in Spielen (dies hier sollte ja kein CPU-Test sein und bringt ja auch keine Übersicht zu verschiedenen weitverbreiteten CPUs und dem resultierenden CPU-Limit in den Games des Testparcours).

Ich würde mir ja auch wünschen, dass GPU-Limit und CPU-Limit zusammenhingen, dann könnte man jeweils einen Teil aufrüsten und hätte bessere Frameraten. Leider agieren sie unabhängig voneinander (weitestgehend, lassen wir Haarspaltereien) und somit muss ich mir als Gamer natürlich überlegen, was in meinem System der Schwachpunkt ist und was eine sinnvolle Aufrüstoption darstellt. ComputerBase ist da wenig hilfreich, denn zur Spieleeignung diverser CPUs gibts hier wie gesagt leider keine nützlichen Reviews.

- Rüste ich bei vorhandenem CPU-Limit die Grafikkarte auf, ändert sich an den FPS nichts (okay, ich kann dann Qualitätssettings "kostenlos" reinknallen).

- Rüste ich bei vorhandenem GPU-Limit den Prozessor auf,ändert sich an den FPS nichts.

Aus diesen beiden Fakten ergibt sich die Notwendigkeit, beides separat in Hinblick auf Spiele zu betrachten. Ferner sind für solche Betrachtungen die MinFPS essentiell (von mir aus auch ein Frameverlauf, dieser beinhaltet ja die MinFPS). Das Spielerlebnis wird von MinFPS getrübt, mir nützen 60 AvgFPS nichts, wenn ich in kritischen Szenen auf 20FPS einbreche und ich möchte natürlich wissen, welcher Part gerade für den Einbruch verantwortlich ist, also CPU oder GPU.

:)
 
Zuletzt bearbeitet:
smith0815 schrieb:
Du machst den selben weitverbreiteten Denkfehler, mit dem ich aufräumen wollte. Leider zitierst du nur einen Satz,
Ich hab garnichts zitiert ;-)
Mein "denkfehler" wie du es so lieb nennst, begründet sich auf der Art, wie Spiele heutzutage gebencht werden. 4 Kerne können nicht für Beschleunigung sorgen, wenn die Grafikkarte am Limit läuft und je höher die Auflösung, desto früher ist das Limit erreicht.

smith0815 schrieb:
Ich vermute die Tests in niedrigen Auflösungen zur Ermittlung des CPU-Limits interessien dich nicht, weil du von falschen Annahmen ausgehst
Falsch..., sie interessieren mich nicht, weil es bei 1920 x 1200 keinen Performanceunterschied von 2 zu 4-Kernern gibt. Was hab ich von einem Unterschied bei kleinen Auflösungen, wenn bei Grossen die Grafikkarte der limitierende Faktor ist? Garnichts, und heutzutage ist der limitierende Faktor bei solch hohen Auflösungen nunmal die Grafikkarte und nicht die CPU.

Das würde sich nur ändern, wenn z. B. die KI die anderen Kerne der CPU beschäftigen würden, aber auch das würde an der FPS nur dann etwas ändern, wenn eine 2-Kern CPU zu sehr ausgelastet wäre und mehr Kerne für Entlastung sorgen würden, was wiederum den FPS zugute kommen würde, da die CPU dann wieder die Zeit hätte, die für die Grafikkarte notwendigen Daten rechtzeitig zu senden.

smith0815 schrieb:
Umgekehrt, wenn die CPU in 800x600 stets ausreichende Frameraten liefert, dann wird sie das auch in 1920x1200 tun. Für die CPU bleibt der Rechenaufwand gleich
Ist das so? Kommt mir nicht logisch vor, weil man sich ja vorstellt, dass auch mehr Daten verarbeitet werden bei höheren Auflösungen. Aber dazu müsste man wissen, was denn die CPU denn nun tatsächlich an die Grafikkarte schickt.

smith0815 schrieb:
Diese Alltagserfahrung verdeutlicht eindrucksvoll, warum theoretische Messungen des CPU-Limits in praxisfernen 800x600 zur Einschätzung des realen Spielempfindens relevant sind.
Das würde sie tun, wenn nicht nur einer dieses Empfinden hätte sondern Millionen. Einer kann auch ein Ausreisser sein...

Es gibt so viele die sich einbilden, dass ihr Spiel nach dem Aufrüsten flüssig ist und wenn man dahinter steht und zusieht wird einem von der Rucklerei übel :evillol:
 
Das schlicht falsch. Durch Hohe Auflösungen + AA und AF ändert sich für die CPU genau nichts. Nur werden weniger FPS durch die Grafikkarte dargestellt, was den Einfluss der CPU-Leistung im Spiel verdeckt, mehr nicht.
 
smith0815 schrieb:

Es geht also darum herauszufinden, welche (r Teil der) Framerateneinbrüche auf CPU-Limitierung zurückzuführen ist (resp. welcher Teil auf GPU-Limitierung).

Wie du selber sagst, sind CPU- und GPU-Limit weitgehend unabhängig voneinander.
  • Wären sie das tatsächlich, müsste man aber nicht zwei separate Tests (CPU-Tests bei der 640er low und GPU-Tests mit Monster-CPU, Monster-Auflösung und Monster-Quali-Settings) durchführen ... CPU-Limits würde man unter beiden Testbedingungen finden, falls sie von GPU-Limits unabhängig wären.
  • Wären CPU- und GPU-Limits tatsächlich unabhängig voneinander, bräuchte man nur auf einer Auflösung/Qualitätseinstellung testen, und könnte beispielsweise durch Veränderung der Kernanzahl und/oder Taktfrequenz und daraus resultierenden Performanceänderungen CPU-Limits ausmachen.
  • Vielmehr hängen sowohl CPU-Limit und GPU-Limit von Auflösung und Qualitätssettings ab ... allerdings umgekehrt (hohe Settings: es treten tendenziell GPU-Limits auf, niedrige Settings: es treten tendenziell CPU-Limits auf).
Optimal wäre es also, für verschiedene Auflösungen und/oder Qualitätssettings Frameraten (Verlaufsdiagramm, Frameverteilungen, ....) zu testen ... je niedriger die Auflösung/Qualisetting desto deutlicher wären Performanceänderungen aufgrund von Taktfrequenzänderungen oder Erhöhung der Kernanzahl zu sehen. Das würde aber vermutlich den Testaufwand sprengen.

Die getrennte Analyse (CPU-Test bei 800*600 low und GPU-Test bei Monstersettings) gibt halt dann zwei Extremwerte bei vertretbarem Testaufwand aus. Beispielsweise: Bewirkt eine Erhöhung der Kernanzahl bei niedrigen Settings (640er low) höhere Frames (von mir aus höhere MinFPS o.ä.), dürfte sich dieser Effekt bei einer höheren Auflösung abschwächen.
 
Also so wie ich das jetzt verstanden hab sollte der Test zeigen was für eine CPU für Aktuelle Spiele ausreicht.
Dadurch würde man sehen welche CPU leistung ausreicht um jede Grafikkarte an ihr Limit zu treiben.

Nur dann Sollte dringendst die Überschrift und die Einleitung geändert werden.
Und die CPU leistung muss so gewählt werden das man anfangs unter dem GPU Limit Arbeitet.
Somit würde man erkennen ab wann man an das GPU Limit stößt. (was bei 4GHZ immer der fall war)
Dann sollte der test z.b. so aussehen
2Ghz Test
3Ghz Test
2x2Ghz Test
2X3Ghz Test
4x2Ghz Test
4x3Ghz Test

Dadurch hätte man einen gewissen Praktischen nutzen.
 
HomerJSi schrieb:
Es geht also darum herauszufinden, welche (r Teil der) Framerateneinbrüche auf CPU-Limitierung zurückzuführen ist (resp. welcher Teil auf GPU-Limitierung).
Wenn du so willst, wodurch Einbruch nicht das richtige Wort ist. Was du an FPS in einem Spiel zu sehen bekommst, entspricht stets einem der beiden Limites, du weißt eben nur nicht auf Anhieb, ob es sich gerade um eine GPU- oder ein CPU-Limitierung handelt. Theoretisch können natürlich auch mal beide Werte gleich sein, aber theoretisch kann man auch im Lotto gewinnen.

Wie du selber sagst, sind CPU- und GPU-Limit weitgehend unabhängig voneinander.
Ja.

*Wären sie das tatsächlich, müsste man aber nicht zwei separate Tests (CPU-Tests bei der 640er low und GPU-Tests mit Monster-CPU, Monster-Auflösung und Monster-Quali-Settings) durchführen ... CPU-Limits würde man unter beiden Testbedingungen finden, falls sie von GPU-Limits unabhängig wären.
Natürlich kannst du bei wechselnden Limites (in einem angenommenen Spiel bei Settings, in denen über den Verlauf hin zeitweise die CPU limitiert, zeitweise die GPU) beide Limites finden. Der Aufwand ist nur größer, als einmal eine GPU-Limitierung auszuschließen und das CPU-Limit auszulesen und einmal den umgekehrten Weg zu gehen.

[*]Wären CPU- und GPU-Limits tatsächlich unabhängig voneinander, bräuchte man nur auf einer Auflösung/Qualitätseinstellung testen, und könnte beispielsweise durch Veränderung der Kernanzahl und/oder Taktfrequenz und daraus resultierenden Performanceänderungen CPU-Limits ausmachen.
Auf diese Weise kannst du das GPU-Limit ausmachen. Hier im Artikel ist es eben meist so, dass bereits ein einzelner Kern bei 4Ghz ausreicht, dass die GPU voll ausgereizt werden kann. Wo kein CPU-Limit besteht, bringt dann natürlich auch ein zweiter, dritter oder vierter Kern keine Zugewinne mehr. Bingo, wir haben das GPU-Limit gefunden. Blöd nur, dass dies in einem CPU-Artikel (der keiner sein will) passiert.

Umgekehrt geht es genauso. Wenn du Qualitätssettings hochschrauben kannst, ohne dass die Framerate sinkt, dann hast du ein CPU-Limit gefunden. In einer solchen Szene könnte man dann zeigen, ob und in welchem Maße eine Takterhöhung oder zusätzliche Kerne eine höhere Framerate bewirken, wie gut oder schlecht das Spiel von Mehrkernprozessoren profitiert.

[*]Vielmehr hängen sowohl CPU-Limit und GPU-Limit von Auflösung und Qualitätssettings ab
Nein, tun sie nicht. Dass dies so erscheint liegt daran, dass aktuelle Prozessoren in aller Regel schnell genug sind und du bei Benchmarks kaum mal einem CPU-Limit begegenest. Trotzdem gibt es immer mal Szenen in Spielen, die auch einen Core2 ans Limit treiben, das CPU-Limit ist aber unabhängig von der Auflösung und Qualitätssettings (AA und AF sowieso und die meisten Effekte im Gamemenü belasten die CPU ebenfalls nicht zusätzlich).

Die getrennte Analyse (CPU-Test bei 800*600 low und GPU-Test bei Monstersettings) gibt halt dann zwei Extremwerte bei vertretbarem Testaufwand aus. Beispielsweise: Bewirkt eine Erhöhung der Kernanzahl bei niedrigen Settings (640er low) höhere Frames (von mir aus höhere MinFPS o.ä.), dürfte sich dieser Effekt bei einer höheren Auflösung abschwächen.
Die Leistungsfähigkeit der CPU bleibt stets gleich. Wenn du das GPU-Limit ausschließt, dann kannst du ermitteln inwieweit eine bestimmte Engine generell von mehr Kernen oder höheren Taktraten profitiert. Ich gebe zu, dass bei aktuellen Spielen häufig extrem hohe AvgFPS herauskommen würden, die keine Grafikkarte der Welt in verbreiteten Auflösungs- und Qualitätseinstellungen liefern kann.

Insofern stimmt die Aussage des Artikels, ein Core2 4Ghz reicht für aktuelle Spiele locker aus, meist schon auf einem Kern. Interessant wird es dann in worst case Szenarien (also extrem CPU-lastigen Einzelszenen), weil dort eben doch manchmal das CPU-Limit in unangeehme Regionen sinkt und das äußert sich dann in Ruckeln.

Wie auch immer, so wie der Artikel jetzt dasteht ist er ein ergänzendes 9800GX2-Review, wobei das Original umfangreicher ist und seinem Anspruch wird er nicht gerecht. ;)
 
Zuletzt bearbeitet:
HomerJSi schrieb:
Was soll dieses komische Lehrer-Getue? :D
Vor allem: Mit Differentialrechnung kommt man hier nich weiter, ne Framerate als Grenzrate zu betrachten macht am wenigsten Sinn. Guten Morgen :D

Och Homie,
Ich kann nicht anders :p. Irgendwie ist alles dt...

Allein schon die ständige Wiederholung der total seltsame Benutzung von "skalieren". Wer hat angefangen, den Begriff so zu benutzen?:stock:
 
Zuletzt bearbeitet von einem Moderator:
Im fazit stehts natürlich nicht so genau,aber auch da erwähnt ihr dass nen singlecore noch gut mitkommt.Dazu gibts dann noch die Performanceübersicht die ja so zeigt,dass nen singlecore kaum langsamer ist.
Je nachdem ist ein Single-Core ja auch nicht so langsam. Natürlich gibt es Spiele, wo das so ist. Deswegen empfehlen wir am Ende ja auch eine DC-CPU und keine SC-CpU.
In meinen Augen sind es aber genau diese einzelnen ruckelnden Frames, die (sofern sie häufiger auftreten) störend auffallen. Wenn es ein einziger Frame ist, der auf Grund von Hintergrundaktionen anderer Software, schlecht abschneidet wäre das natürlich fatal dies als Min-FPS zu verkaufen. Wenn aber immer wieder entsprechende Min-FPS Werte gemessen werden würden, lässt das vermuten, dass hier doch Probleme auftreten, die in den average-FPS stark geglättet werden.
Das finde ich nicht. Angenommen innerhalb von fünf Minuten hast du einmal eine Sekunde lang einen FPS-Wert von 10 FPS, danach aber immer 30 FPS. Stört denn dieser einer Wert wirklich so sehr? Interessiert er dich mehr als die restlichen 4 Minuten und 59 Sekunden?
und was ist das dann für eine timedemo bei ut3?
in realität ist das mit nem E7200 @1core nicht dauerhaft flüssig spielbar
es bricht immer mal ein so das es leicht ruckelt.
das verlaufsdiagramm zeigt das man ständig über 100fps hat und so ein dualcore schon überflüssig ist
Wie in der Überschrift steht, erzeugt die Flyby-Sequenz in UT3 leider vollkommen unrealistische Ergebnisse, die so im wirklichen Spiel nicht vorkommen. Doch hast du schonmal probiert, UT3 im wirklichen Spiel zu benchen? Das geht leider gar nicht.
Ich bin leider nicht ganz sicher wie die FPS bestimmt werden. Werden (wie die Bezeichnung vermuten lässt) schlicht die Frames innerhalb einer Sekunde gezählt?
Meinst du, wie Fraps arbeitet? Ich schätze, dass es genau so sein wird.
Die Messdauer muss ja nicht auf zwei Stunden ausgedehnt werden. Ein paar Minuten (um unterschiedliche Situationen erfassen zu können) sollten aber durchaus drin sein. Haben wir in den Verlaufsdiagrammen ja teilweise auch schon.
Messe mal ein "paar Minuten" die FPS-Angaben mit Fraps. Und du wirst staunen, wie viel Zahlen du da erhälst ;)
Wurde bei diesem Test die Multithreading-Option des nvidia-Treibers deaktiviert (kann man das bei ATI eigentlich auch?)?
Die kann man gar nicht deaktiviere - zumindest bei ATi. Bei Nvidia sind sie deswegen auch drin.
Es geht eben darum in jeder Sitauation auszuschließen, dass die Grafikkarte während der Messung zum limitierenden Faktor wird. Nur dadurch erhälst du Ergebnisse, die etwas über die Leistungsfähigkeit der verwendeten CPU in den getesteten Spielen aussagen. Als FPS bekommst du immer den kleineren Grenzwert zu sehen, also entweder das CPU-Limit, oder das GPU-Limit, ein Zusammenhang besteht nicht.
Genau darum geht es in meinen Augen ja nicht! Was bringt mir theoretisch die beste Multi-Core-unterstützung der Welt, wenn schon in 1280x1024 eine GeForce 9800 GX2 (!) am GPU-Limit klebt? Es spielt bestimmt keiner freiwillig in 800x600 mit null Details, nur damit seine CPU ausgelastet ist.
 
LazyGarfield schrieb:
Ich hab garnichts zitiert ;-)
Mein "denkfehler" wie du es so lieb nennst, begründet sich auf der Art, wie Spiele heutzutage gebencht werden. 4 Kerne können nicht für Beschleunigung sorgen, wenn die Grafikkarte am Limit läuft und je höher die Auflösung, desto früher ist das Limit erreicht.
Schön und gut, aber dann braucht es auch keine Artikel zur Spieleleistung von CPUs. Andererseits wäre doch interessant, wieviel Reserven aktuelle CPUs noch haben, welche Engines schon von Mehrkernprozessoren profitieren (kaufe ich lieber einen DualCore bei 3Ghz oder bin ich mit QuadCore bei 2,1Ghz besser bedient?) und ob wirklich auch im schlimmsten Szenario die MinFPS nicht von der CPU gedrückt werden.

Die Messungen hier erlauben leider keine Aussagen zu diesen Fragen und zur 9800GX2 gibt es bereits ein umfangreiches Review.

Falsch..., sie interessieren mich nicht, weil es bei 1920 x 1200 keinen Performanceunterschied von 2 zu 4-Kernern gibt. Was hab ich von einem Unterschied bei kleinen Auflösungen, wenn bei Grossen die Grafikkarte der limitierende Faktor ist? Garnichts, und heutzutage ist der limitierende Faktor bei solch hohen Auflösungen nunmal die Grafikkarte und nicht die CPU.
Richtig, aber damit bestätigst du doch nur, dass der Artikel in seiner jetztigen Form wertlos ist. Bei 800x600 hätte man zwar ein CPU-Limit ermittlet, bei dem keine aktuelle Grafikkarte auch nur in die Nähe kommt, aber man hätte immerhin deutlich zeigen können, welche Engines schon von Mehrkernprozessoren profitieren, ab welcher Taktrate und Kernanzahl die Core2-Architektur ausreicht und wieviel Reserven bestehen, bevor das CPU-Limit das Spielerlebnis versaut (okay, zusätzlich hätte man noch von den 4Ghz wegmüssen, sonst leifert die CPU irgendwann mehr als eine 9800GX2 selbst in 800x600 ausgeben kann).
 
Wolfgang schrieb:
smith0815 schrieb:
Es geht eben darum in jeder Sitauation auszuschließen, dass die Grafikkarte während der Messung zum limitierenden Faktor wird. Nur dadurch erhälst du Ergebnisse, die etwas über die Leistungsfähigkeit der verwendeten CPU in den getesteten Spielen aussagen. Als FPS bekommst du immer den kleineren Grenzwert zu sehen, also entweder das CPU-Limit, oder das GPU-Limit, ein Zusammenhang besteht nicht.
Genau darum geht es in meinen Augen ja nicht! Was bringt mir theoretisch die beste Multi-Core-unterstützung der Welt, wenn schon in 1280x1024 eine GeForce 9800 GX2 (!) am GPU-Limit klebt?
Nichts, aber wie mehrfach beschrieben hängen die beiden Limites nicht zusammen und mein Spielerlebnis wird stets vom kleineren der beiden Werte getrübt. Ein Review zur 9800GX2 habt ihr doch schon und dort kann der Leser ablesen, was die Grafikkarte leisten kann wenn die CPU nicht limitiert.

Jetzt habt ihr einen CPU-Artikel, der keiner sein will und auch keine Aussagen zur Spieleleistung irgendeiner handelsüblichen CPU oder gar zur Mehrkernunterstützung aktueller Engines zulässt. Er sagt ja nichtmal was über die Leistungsfähigkeit des Quadcore bei 4Ghz aus, da meist schon bei einem Kern das GPU-Limit zuschlägt. Die einzige Aussage des Artikels ist, in den meisten Fällen reicht ein Quadcore mit 4Ght locker aus, wie locker können wir nicht sagen. :freak:

Folgerichtig wäre ein Artikel zur Leistungsfähigkeit und Mehrkernskalierung aktueller Prozessoren gewesen, dieser hätte schön die Grafikkartenreviews ergänzt.
 
Zurück
Oben