Bericht Bericht: 1, 2, 3 oder 4 CPU-Kerne?

Die minFPS, die immer mal für ein paar Frames im Keller sind wird man bei so einem Testszenario nie auf dem avgFPS Balken entdecken können.
-> Das ist Praxisfremd.

640x480 ist das einzige sinnvolle.
 
Wie oft den noch, will man hier Grafikkarten testen oder was?

Verlaufsdiagramme .... wo denn? 3 Diagramme, toll, wo sind die Anderen? -> wären bei kleineren Auflösung gar nicht mehr zwingend notwendig.
hätte man bei Crysis ein Diagramm, dann wären selbst die minFPS noch Grafikkartelimitiert, sehr sinnvoll für den Vergleich. :rolleyes:

Sobald man eine kleine Auflösung sieht gleich etwas von praxisfremd zu schreiben ist falsch.
 
Zuletzt bearbeitet:
Wenn es für eine Sekunde in 8000x8000 ruckelt, dank der CPU, ansonsten Spielbar ist, dann stört es die Spielbarkeit enorm.
Taucht hier aber nirgends auf, außer auf den 3 Diagrammen, der Spiele die kaum CPU Leistung benötigen, nirgends auf.

Hinter dem Link ist auch kein CPU Test, dank zu hoher Auflösung.
 
Zuletzt bearbeitet:
Wobei es aber immernoch darauf ankommt, wie diese Verlaufsiagramme ermittelt wurden. (edit: in Bezug auf Erkennbarkeit der Min-FPS)

Wenn sich in einem Rechner zwar eine gute Grafikkarte befindet, aber nur eine relativ schwache CPU, sollte sich einem Anwender die Frage stellen: Liegt die Ursache für die niedrigen Bildraten an der GPU oder an der CPU? Welche Komponente soll ich erneuern?
Wenn er einen Test bei seinen gewohnten Einstellungen laufen lässt und zum Vergleich einen Test, bei dem die Auflösung auf minimalem Niveau läuft, gibt es zwei Möglichkeiten:
1. Die Werte sind unterschiedlich. In diesem Fall herrscht bei der höheren Auflösung eine GPU-Limitierung, bei der niedrigen eine CPU-Limitierung.
2. Die Werte sind gleich. Dann limitiert in beiden Fällen die CPU.
Somit kann der Anwender ermitteln, welche Komponente sein System ausbremst und diese erneuern. Sonst kauft er sich noch die neueste, Leistungstärkste GraKa die es gibt, zahlt unmengen Geld und erreicht damit gar nichts.

Als Alternative dazu, die Grafikkarte zu entlasten kann man natürlich auch versuchen die CPU zu entlasten.
Hier wäre bei zwei gleichen Ergebnissen entsprechend die GPU die Bremse, bei unterschiedlichen Ergebnissen die CPU. Das Problem an der Sache ist, dass sich eine CPU nicht einfach so beliebig übertakten lässt...

edit: meinte natürlich CPU übertakten
 
Zuletzt bearbeitet:
@Unyu
Du kannst ja gerne kritisieren, dass zu wenige Diagramme angefertigt worden sind. Aber eine niedrige Auflösung zu fordern, ist praxisfremd und nicht im Sinne des Tests.

Wenn du wissen willst, ob eine bestimmte CPU ausreicht, solltest du in den von mir verlinkten Artikel zu dem CPU-Test klicken.....

------
@CB

Von mir gibt es übrigens auch Kritik am Artikel. Die Tests, die nicht als Save Games, sondern nur als Timedemo ohne KI und allem drum und dran durchgeführt worden sind, sollten nicht ins Rating rein und auch als reine Timedemos im Test gut verständlich gekennzeichnet werden. Wenn es nach mir ginge, würde ich die Timedemos komplett aus dem Test rausnehmen. Ein Spiel ohne KI zu testen ist bei einem Test, der nicht die Grafikkarte testet absolut nichtssagend, besonders wenn es um Muticore-Unterstützung geht, da man gerne gerade die KI in einem extra Thread laufen lässt.
 
Zuletzt bearbeitet:
Nein, an dem CPU Test sehe ich nicht, ob Quake 4 in allen Situationen absolut flüssig bleibt.
Ich sehe nicht, ob andere CPU limitierte Spiele wie Oblivion, TF2 oder Supreme Commander endlich flüssig sind.
Ich sehe nicht ob alle Spiele immer spielbar bleiben.

Für CPU Tests gibts ja zum Glück noch andere Seiten. :)
 
Auseinanderhalten:

  1. Darstellung der Ergebnisse bei Benchmarks: AvgFPS (das sind die meisten Diagramme bei CB-Tests), MinFPS, Verlaufsdiagramme, Frameverteilungen, ... Die Darstellung der Ergebnisse ist sowohl für GPU- als auch CPU-Benchmarks relevant ... im Laufe dieses Threads dürfte (hoffentlich) als Erkenntnis gelten, dass AvgFPS keine aussagekräftigen Ergebnisse ergibt (starke Frameraten-Schwankungen gehen durch die Durchschnittsbildung unter). Ich persönlich würde es begrüßen, wenn sich abulafia nochmal zu Wort meldet (gerne Bezug nehmend auf meinen Post #354).
  2. Welche Settings soll ich wählen, um CPU-Tests zu machen: hier hatte smith0815 ein fundierte Meinung am Start. Er meinte einerseits, dass CPU- und GPU-Limits unabhängig voneinander sind, andererseits befürwortet er Tests in 800*600 ... weil dann CPU-Limits besser zu erkenne sind ... für mich zumindest ein Widerspruch.

Ich halte die zwei Diskussionen für fruchtbar, auch wenn sie theoretisch erscheinen mögen
  1. Darstellung der Ergebnisse bei Benchmarks: Spätenstens seit der Mikro-Ruckler-Geschichte dürfte klar sein, dass AvgFPS nicht als Benchmark taugen
  2. Settings bei CPU-Tests: Bei CPU-Tests kollidieren typische CB-Testszenarien (1280*1024 Auflösung und höher) mit Forderungen nach Low-Res-Tests ... ein durchschlagendes Argument für Low-Res-CPU-Tests (in einem Satz) habe ich noch nicht gelesen ... schließlich spielen die meisten Gamer (tatsächlich?) ab 1280 aufwärts?
 
HomerJSi schrieb:
[*]Welche Settings soll ich wählen, um CPU-Tests zu machen: hier hatte smith0815 ein fundierte Meinung am Start. Er meinte einerseits, dass CPU- und GPU-Limits unabhängig voneinander sind, andererseits befürwortet er Tests in 800*600 ... weil dann CPU-Limits besser zu erkenne sind ... für mich zumindest ein Widerspruch.
[/LIST]

Warum ist das den so schwer zu verstehen:
Jedes Spiel ist von irgendwas limitiert, sonst hätten wir nämlich unendlich FPS.

In der Regel liegt das an:
a) CPU
b) GPU

c) restliche Komponenten

Liefert nun eine guter CPU Benchmark einen Minimum FPS wert von 60 (was folglich gut spielbar bedeutet) in 800*600 oder kleiner.

unter der Annahme das die CPU Belastung bei höherer Auflösung oder anderen Grafikoptionen nicht wesentlich zunimmt.

bedeutet dies die CPU ist in der Lage in jeder Auflösung mit ausreichend Leistung die GPU befeuern kann.

also hängt der Spielgenuss nur von der Wahl der Grafikkarte ab.

haben wir dann in 1280er Auflösung minFrames von 20-30, so liegt dies an der Grafikkarte.
eine bessere CPU bringt hier nichts (also bringen auch mehr kerne nichts, also bringt auch mehr Takt nichts)

wie will man nun eine Aussage über den Sinn oder Einfluss von mehr Kernen (=mehr Takt ~ CPU Leistung) beurteilen -> folglich handelt es sich hier um einen CPU Test bzw. es hätte sich um einen CPU Test handeln sollen, der dann auch entsprechend ausgeführt werden müsste.

Dies ist nicht der Fall da eben höhere Auflösungen genommen wurden.

Warum?
wenn wir davon ausgehen das kein Limit von Punkt c vorliegt.

muss also immer entweder ein CPU oder GPU Limit vorliegen.

wie testen wir am einfachsten ob ein CPU oder GPU limit vorliegt?
wir varieren die leistung von eins der beiden und schauen ob sich der Wert ändern, der sich ändern sollte wenn kein Limit vorläge.
----------------------------

Das ist eine möglich Sichtweise, auch die hat natürlich einige Kritikpunkte, die vor allem realer Natur sind.

gibt es überhaupt GPU's die höhere Auflösungen ausreichend befeuern können? haben wir vielleicht immer ein GPU limit?
gibt es überhaupt Software die von mehr CPU Leistung profitiert?
Brauchen heutige Spiele überhaupt diese mehr Leistung?

könnte man natürlich weiter ausführen ...

ich hab aber keine zeit mehr ;)
 
Zuletzt bearbeitet:
Die Framerate ist die Ableitung der dargestellten Bilder nach der Zeit.
Man kann einfach annehmen, dass die Berechnung eines Bildes linear erfolgt, also zwischen zwei Stützstellen eine Gerade einzeichnen, was auch intuitiv ist.
HomerJSi schrieb:
[...]Bleibt für mich noch die spannende Frage - Wenn ich ne Liste mit Frametimes habe und daraus direkt den Kehrwert nehme (mir also den Umweg über die stetige Funktion spare)[...]
Ja, die Idee ist sogar total sinnvoll und genau das wird ja praktischerweise auch gemacht.
Eine Tabelle mit den Zeiten sieht dann ungefähr so aus:

tabelleup6.jpg

(Der Index ist etwas ungeschickt, naja ..., )
B kumuliert die Bilder, t kumuliert die Zeit, Spalte 1 enthält die Zeit für die Berechnung jedes Einzelbilds, Spalte 2 den Kehrwert davon.

Man hat für jedes Bild (B_i) ja den Zeitpunkt (t_i) vorliegen, wenn es fertig berechnet wurde, und mit [t_(i-1)] den Startzeitpunkt der Berechnung. Dadurch kann man die Framerate (f) zwischen zwei Stützstellen direkt berechnen. Die Framerate würde ich auch einfach als Bildfrequenz (f) bezeichnen.

fpsuv5.jpg


Edit: Kleiner Fehler. Auf dem Pfeil muss natürlich "für dB=1" stehen. Formal ist das trotzdem noch nicht ganz korrekt, aber brauchbar.

Die minimale Framerate ist dann:

minhp4.jpg


Wenn man der Einfachheit halber annimmt, dass ein Bild linear berechnet wird, gibt es zwischen den Stützstellen eine direkt berechenbare momentane Framerate. An der Stützstelle selber ist die aber so nicht bestimmbar, man kann aber eine linke und rechte Grenze finden (...).

Die durchschnittliche Framerate für tabellierte Werte ist einfach entsprechend:
durchschnittxi3.jpg

(wie gesagt, den Index könnte man besser wählen, siehe Tabelle)


Oder wäre es dann (unter der Bedingung nur mit messbaren Einheiten zu arbeiten bzw. keine Differentialrechnung zu verwenden) sinnvoller, in fest vorgegebenen Zeitintervallen (beispielsweise 1 Sekunde) Bilder zu zählen ... wie das FRAPS tut
Das ist eher schlechter, da dann schon eine Glättung vorliegt. Wie man sieht, kann man direkt nach jedem fertigen Bild die Framerate neu berechnen. Zum direkten ablesen ist eine Glättung sinnvoll, sonst wird es mit dem Ablesen wohl schwer und man sieht nichts mehr, für eine spätere Auswertung ist das aber von Nachteil, da Informationen verloren gehen.


SirOPIUM schrieb:
[...] Wenn die MinFPS auch nur durch zählen ermittelt werden, fällt es hier auch nicht auf. Aus der Frametime dagegen ist dieses Problem genau ersichtlich - ohne jegliche Differentialrechnung und Zeitkontinuität des Bildverlaufs.
Wie oben beschrieben, gezählt wird immer. Die Frage ist nur, ob min(FPS) aus schon geglätteten Werten ermittelt wird. Das wäre dann tatsächlich nicht der reale min(FPS) Wert, sondern ein min[avg(FPS)] und ungenau bzw. statistischer Blödsinn, wie du schon bemerkt hast.

Aus den Verlaufsdiagrammen im Test lassen sich vermutlich auch nicht die min(FPS) Werte ersehen, da der Verlauf mit hoher Wahrscheinlichkeit mit einem gleitenden Durchschnitt über 5 Sekunden geglättet ist.
Hier wäre eine grafische Darstellung der Häufigkeitsverteilung wie ein Histogramm zweckmäßig, an der man dann genau sehen kann, wie oft zum Beispiel 30 FPS unterschritten wurden.
 
Zuletzt bearbeitet von einem Moderator:
HomerJSi schrieb:
[*]Welche Settings soll ich wählen, um CPU-Tests zu machen: hier hatte smith0815 ein fundierte Meinung am Start. Er meinte einerseits, dass CPU- und GPU-Limits unabhängig voneinander sind, andererseits befürwortet er Tests in 800*600 ... weil dann CPU-Limits besser zu erkenne sind ... für mich zumindest ein Widerspruch.
Kein Widerspruch, Denkfehler deinerseits. Sie sind unabhängig, aber nur zu erkennen und zu quantifizieren, wenn der jeweils andere Part gerade nicht limitiert. Ein letzter Versuch:

1) CPU-Limit und GPU-Limit sind voneinander unabhängig.

2) Du kannst keine Aussage über die Leistungsfähigkeit der CPU treffen, wo immer ein GPU-Limit auftritt. In solchen Fällen idlet die CPU einfach nur und spielt nicht ihre volle Leistungsfähigkeit aus.

3) Bei 800x600 in Low Quality (oder wo es das Spiel erlaubt 640x480, wird langsam selten) schiebst du das GPU-Limit möglichst weit nach hinten und hast gute Chancen, nun CPU-limitierte Ergebnisse zu bekommen, genau das was zur Aussage über die Leistungsfähigkeit und Mehrkernskalierung notwendig ist. Es geht nicht darum, CPU-Limits besser zu erkennen, sondern sie überhaupt messen zu können und das erlauben meist nur solche Settings.

Das Ganze gilt analog auch für Grafikkartentests, hier musst du tunlichst ein CPU-Limit vermeiden, was bei hochgezüchteten CPUs spätestens in hohen Auflösungen mit AA und AF in der Praxis kein Problem darstellt und deshalb implizit bei den meisten Reviews auch geschieht.

Trotzdem bleibt im Dunkeln, warum ein Artikel namens "1, 2, 3 oder 4 CPU-Kerne?" kein CPU-Artikel sein will, in der Einleitung diesen Anspruch aber stellt und im Fazit Aussagen über CPUs trifft, die zwar Allgemeingut sind, von den Messergebnissen aber garnicht gestützt werden.
 
Zuletzt bearbeitet:
Ja ja, schon klar.

Nur wollte man nicht testen, welche CPUs die Spiele unter heutzutage unspiel/unzumutbaren Bedienungen also bei 640x480-er Auflösung am besten beschleunigen können.

Man wollte bloß testen ob unter spielbaren Bedingungen mehr Kerne etwas bringen und wenn bei der kleinen 1280er Auflösung bereits die schnellste Graka limmitiert, dann konzentriert sich der Test eben auf die Spiele, die in der Auflösung noch etwas von der schnelleren CPU haben. Weil eben kein Mensch in 640x480 Auflösungen spielt und es damit irrelevant ist, welche CPU dann am besten abschneiden würde, wenn die Grafikkarte nicht limitieren würde....

Deswegen auch 1, 2, 3, oder 4 CPU-Kerne in Spielen unter kleiner und oft verwendeter Auflösung mit der aktuell schnellsten Grafikkarte

Roi-Danton schrieb:
In Supreme Commander sind nicht die FPS entscheidend, sondern die Spielgeschwindigkeit. Bei CPU-Limitierung nimmt vor allem die Spielgeschwindigkeit ab, insofern kann man anhand von FPS Werten bei Supreme Commander nur schwer auf die Leistung der CPU schließen bzw. auf eine "schlechte Programmierung". :rolleyes: Man müsste dazu eine Messung der Spielgeschwindigkeit durchführen (leicht möglich, da die Spielgeschwindigkeit anhand der Zeitanzeige im Spiel zu sehen ist).

Heißt das, dass ich mit einer langsameren CPU mehr Zeit habe zu überlegen, weil der KI nicht hinterherkommt? Wenn ich es dann also etwas einfacher haben will, sollte ich eine langsamere CPU nehmen?! cool.^^
 
Zuletzt bearbeitet:
es mag ja sein das man das testen Wollte.
aber dann hätte man das auch schreiben sollen :rolleyes:


Bisher sehe Ich einen Artikel wo in der Einleitung steht man wolle den Nutzen von Mehr kernen in Hinsicht auf Spiele Testen.

Im Artikel Selber wird nicht Untersucht ob Spiele mehr Kerne Nutzen.
Im Performance Rating sieht man dass 2Kerne nur 6% schneller sind als einen.

Dann Werden im Fazit Plötzlich 2 Kerne empfohlen.
Dies hat aber eindeutig nichts mit dem Test zu Tuen da 6% Mehrleistung nicht in Relation zu 70% mehr Stromverbrauch und ~50% mehr Kosten stehen.

und aus dem Artikel kann man nur herauslesen das 4GHz reichen.
ob ich nun aber mit einem 3Ghz Quadprozessor schneller bin oder ob ich damit 25% langsamer Bin kann nur geraten werden.

Folglich ist deine ach so hohe gelobte Praxisnähe nicht gegeben.


und wie nun schon sehr oft gesagt wurde steht die Auflösung nicht im Zusammenhang mit der CPU. Daraus Resultiert das man mit ihr "Spielen" kann wie man will es ändert am CPU Ergebnis nichts.
Nun kann man ein Spiel Testen mit ganz geringer Auflösung dann erhält man z.b. einmal 20FPS und bei einem anderen Spiel 50FPS.
Also Kann man sagen das die CPU für Spiel 2 ausreicht. (egal in welcher Auflösung!)
ob dann in Irgendeiner Auflösung die Grafikkarte Limitiert kann man aus den Grafikkarten Tests entnehmen.
Der kleinere Wert entscheidet dann.
Dadurch hat man dann alle Auflösungen abgedeckt.

Ein Vermischen dieser beiden Sachen wie es hier geschehen ist gibt hingegen nur Aufschluss über Eine Spezifische Situation.
 
ICh will und kann einfach nicht glauben, dass crysis mit 1,2,3 oder 4 kerne gleich schnell läuft, sry aber ich kann dem Test nicht ganz glauben (warum laufen denn dann 2kerne wenn man nur einen bräuchte)
 
Versteh die Welt nich mehr :(
 
Wer behauptet ein 1-Kern Prozessor sei besser, als ein (nativer) 4-Kern Prozessor, sollte mal sofort seinen Rechner formatieren und sein Internet kündigen, damit dessen Dummheit nicht weiter verbreitet wird.

Es ist einfach logisch, das 4 Kern Prozessoren insgesamt besser sind!! Mal abgesehen von einzelnen Aufgaben.

4 möglichst ähnliche Prozessoren mit 1,2,3,4 Kern-CPUs mit zB 3ghz wären doch etwas seriöser gewesen für diesen Test.

Somit könnte man viel deutlicher erkennen, wo die unterschiede lägen.

"..los kauft 1-Kern Prozessor Bestände auf, die sind sogar besser als 4 Kerner bei einigen Spielen.." :freak: :o

whatever, fuck you! :king:
 
Fairy Ultra schrieb:
... wir dann in 1280er Auflösung minFrames von 20-30, so liegt dies an der Grafikkarte. eine bessere CPU bringt hier nichts (also bringen auch mehr kerne nichts, also bringt auch mehr Takt nichts)...

...wie testen wir am einfachsten ob ein CPU oder GPU limit vorliegt?...
Aber es sollte doch gar nicht getestet werden, ob ein Limit auf einer der beiden Seiten vorliegt.

Es sollte doch getestet werden, ob ein Prozessor mit mehreren Kernen bei einer spieletauglichen Auflösung in der heutigen Zeit schon einen Vorteil bietet.

Das mit einem 4GHZ gg. 9800GX" getestet wurde (und nicht mit einem 2,5GHZ gg. eine 9800GTX), halte ich dabei nicht für schädlich. Da die Ergebnisse (auf höheren Niveau) zueinander passen.

Wie eine CPU irgendwann mal in der Zukunft skalieren wird, war ja nie Inhalt des Tests.
 
Eusterw schrieb:
Aber es sollte doch gar nicht getestet werden, ob ein Limit auf einer der beiden Seiten vorliegt.

Es sollte doch getestet werden, ob ein Prozessor mit mehreren Kernen [...] einen Vorteil bietet.
Damit der Prozessor mit mehr Kernen einen Vorteil bringt, muss jener mit weniger Kernen bereits ein Limit dargestellt haben. Somit wird in diesem Test ermittelt, ob in den entsprechenden Situationen (Spiel, Einstellungen, Auflösung und natürlich die verwendete Hardware) ein CPU-Limit vorliegt oder ob eine andere Komponente (in den Tests wohl meist die GPU) limitiert.
Es wird immer ermittelt, ob bei einer Komponente ein Limit vorliegt.
Wenn der Test so gestaltet ist, dass beinahe immer eine andere Komponente die Grenze setzt, kann ich daraus keinen Schluss ziehen welchen Einfluss die CPUs haben.
Lediglich die Aussage: "Reicht" oder "reicht nicht" (in Bezug auf die CPU) macht keinen Sinn. Gerade wenn man am überlegen ist, wie das Investitionsverhältnis in Grafikkarte und CPU am optimalsten für die eigenen Interessen ist. SingleCore scheint ja praktisch keine Probleme zu bereiten und spart unmengen an Geld... Viel Spaß bei Zukünftigen Spielen!:freak:
 
SirOPIUM schrieb:
Wenn der Test so gestaltet ist, dass beinahe immer eine andere Komponente die Grenze setzt, kann ich daraus keinen Schluss ziehen welchen Einfluss die CPUs haben.
Lediglich die Aussage: "Reicht" oder "reicht nicht" (in Bezug auf die CPU) macht keinen Sinn. Gerade wenn man am überlegen ist, wie das Investitionsverhältnis in Grafikkarte und CPU am optimalsten für die eigenen Interessen ist. SingleCore scheint ja praktisch keine Probleme zu bereiten und spart unmengen an Geld... Viel Spaß bei Zukünftigen Spielen!:freak:

Das heißt aber nicht, dass man deswegen die Auflösung runtersetzen sollte. Wenn bei der kleinsten häufig gespielten Auflösung die schnellste Grafikkarte limmitiert, dann braucht man eben für dieses Spiel keine stärkere CPU.

Man hätte bloß mit ~3 GHz (anstatt 4Ghz) testen sollen und keine Timedomos ohne KI, sondern eben nur Safe-games. Dann könnte man auch wirklich sagen, ob ein Single-Core ausreicht oder eben wie du vermutest eben nicht ausreicht

Ob das Spiel aber in 800x600 mit einem Vierkerner schneller läuft als mit einem Dual-Core hat aber keinen praktischen Nutzen, da in dieser Auflösung nie gespielt wird (außer man hat eine GeForce FX 5200 oder onboard^^)

-----------

Im Grunde sieht es so aus als wollte Wolfgang einfach nur wissen ob bei ihrem Benchmarkparkour für die Grafikkarte der Quadcore im Gegensatz zum Dual-Core mehr FPS bringt, oder ob man einen gleichgetakteten Dual-Core hätte nehmen können. Dann hat er den Test noch auf 3 und 1-Kern-CPUs erweitert und eine unpassende Einleitung und Text drumrumgeschrieben und nu haben wir den Schlammasel. Der Test sagt einfach nicht das aus, was er angeblich aussagen soll. Die Benchmarks ohne den Text drum rum sind aber durchaus zu etwas zu gebrauchen. Nur eben nicht für das, was laut Fazit angeblich damit anzufangen ist....
 
Zuletzt bearbeitet:
Zurück
Oben