Bericht Bericht: 1, 2, 3 oder 4 CPU-Kerne?

Ohne jetzt den ganzen Mega-Thread gelesen zu haben (sorry, wenns doppelt ist)

Mich hätte bei jedem der Tests mal ein Cpu-Core-Auslastungsdiagramm aus dem Taskmanager, bzw. ProzessExplorer interessiert, um zu sehen, wieviel Last auf jedem Core drauf war.

Daran kann man ja relativ leicht erkennen, ob ein Game überhaupt von einer Multicore-Architektur profitiert.

Wenn z.b. ein Core auf fast 100% läuft und die andreen auf 10% dümpeln, dann sieht man, daß das Game dafür nicht optimiert ist.
 
@Breenild
Über die Auslastung der CPU-Kerne kannst du zwar darauf schließen ob das Game mehr als ein Kern auslastet. Ob es davon aber profitiert oder nicht steht auf einem anderen Blatt. Es kann auch mehr als ein Kern Nutzen und dennoch auf einem Kern schneller laufen, weil die Programmierung mit der Nutzung der zwei Kerne zum Beispiel Miserabel ist bzw. die Verteilung der Threads auf die beiden CPUs einfach nicht einwandfrei läuft und es irgendwo zu Engpässen kommt.
 
Den einzigen Leistungszuwachs welchen ich durch meinen Dual-Core gefunden habe, ist wenn ich das game auf einen Core lege und den Rest am anderen. (Muss aber dazusagen, dass ich nichts wirklich brand aktuelles spiele)
 
xp_home schrieb:
@abulafia

Die Primärfrage ist:
inwieweit Spiele mit einem zweiten, dritten und gar vierten CPU-Kern aktuell unter spielbaren Einstellungen schneller laufen.

1. 640-er Auflösung ist keine spielbare Auflösung aus heutiger Sicht betrachtet.
2. Eine schnellere Grafikkarte als eine 9800 GX2 gibt es derzeit aber nicht um in jeder Auflösung eine Limmitierung der CPU zu erzwingen.

=> Test in 640er Auflösung zeigt nur das Potential, dass ich erst mit _zukünftigen_ Grafikkarten in dann alten Spielen ausschöpfen kann.... Neure Spiele werden wiederum andere Anforderungen an CPU und GPU haben.

1. jein, 640er Auflösung IST spielbar. nur wird wohl niemand, der nicht gerade unter Masochismus leidet, diese Einstellung wählen - allerdings auch nur, sofern keine (mittlerweile doch) total veraltete Technik eingesetzt wird.
2. stimmt, aber der Preis ist auch entsprechend hoch und so gut wie niemand hat eine solche GraKa im Rechner.

=> Tests in 640er Auflösung zeigen die Grenzen der CPU für ALLE neueren Grafikkarten. Ob eine spezielle Grafikkarte dann limitiert muss in einem separaten Test ermittelt werden - bei beliebigen Auflösungen.

Dieser eine Artikel ist einzig für die Kombination 9800 GX2 (die so gut wie keiner hat, da sie teuer ist) mit 4GHz Prozessoren (die so auch nicht erhältlich sind) relevant. Jegliche andere Kombination ist dabei uninteressant, da hier nicht hervorgeht, ob in jedem Fall NUR die GPU oder NUR die CPU limitiert hat. Ich hab einen schönen Eintopf an Messergebnissen aus dem ich nichts herauslesen kann.

Ich hatte bereits irgendwo auf Seite 10 oder so die Frage gestellt, ob die Spielehersteller möglicherweise verschlafen haben und die Entwicklung auf die GPU und kaum auf die CPU konzentriert haben...

Wäre interessant, was eine Person mit fundierten Kenntnissen in Messtechnik zu diesem Artikel und diversen Kommentaren sagen würde...
 
abulafia, wie oft willst du dein Beitrag editieren? Zu deinem Edit:

abulafia schrieb:
Die Grafikleistung wird vermutlich ziemlich linear mit der Auflösung abnehmen. Man kann dann einfach einen der vielen anderen Tests nehmen, und Voraussagen für beliebe und Auflösungen Systeme machen. Wie sich Grafikleistung und Auflösung verhalten, ist ja im Prinzip bekannt und hier uninteressant.

ja lol "vermutlich ziemlich linear". Sol DAS CB dann im Fazit schreiben? Und soll dann CB mit dem "vermutlich ziemlich linearen" Verlauf die Werte, die man für ein Fazit für Beantwortung der Primärfrage braucht, dann berechnen? Man will doch eine Aussage treffen, ob es in spielbaren Einstellungen was bringt. Wenn man mit dem Test das Potential gemessen hat, muss man für die Beantworung der Primärfrage die Werte umrechnen. Ohne eine klare Formel kann man das aber nicht. Deswegen testet man gleich in einer kleinen spielbaren Auflösung in der auch viele Spielen und in der auch alle Grafikkarten getestet werden.

Das Rating aus 640er Auflösung wäre auch für den Po in Anbetracht der Fragestellung, weil es nur das Potential zeigen würde, dass nicht mal mit der aktuell schnellsten Grafikkarte erreicht werden kann. Man will aber Konkret eine Aussage darüber treffen, was man aktuell maximal (also mit der schnellsten Grafikkarte) für Mehrleistung in Spielen unter spielbaren Einstellungen (und dazu gehört auch eine normale Auflösung) hat.
 
Zuletzt bearbeitet:
Also ist das ganze doch nur ein Grafikkartentest, der falsch eingeordnet ist?
 
Warum wird dann, wenn es ein Spiele-Test mit Bezug auf Multicore primär die Grafikkarte getestet? Das ergibt einfach keinen Sinn ....
 
Die schnellste Grafikkarte dient nur als Limmit in Grafikkartenlimmierten Spielen. In Nicht-Grafikkartenlimmieren spielen darf dann die CPU zeigen, ob sie die Mehrleistung wert ist. Also so, wie es in Realität auch der Fall ist. (Zumindest wenn man eine 3 Ghz CPU genommen hätte, aber den Fehler hat Wolfgang schon eingestanden und ein paar anderen Sachen, aber es geht ja hier grad nur um die Auflösung)
 
abulafia schrieb:
Die Grafikleistung wird vermutlich ziemlich linear mit der Auflösung abnehmen. Man kann dann einfach einen der vielen anderen Tests nehmen, und Voraussagen für beliebe und Auflösungen Systeme machen. Wie sich Grafikleistung und Auflösung verhalten, ist ja im Prinzip bekannt und hier uninteressant.
Natürlich. Weitestgehend linear aber wieder nur, solange wir nicht an ein Limit stoßen (Speicherbandbreite, Speicherkapazität, interne Threadgröße, ...).

Zunächst einmal müsste man einfach für die CPU-Messungen (zum geeigneten Testsetup wurde genug gesagt) relevante worst-case Szenen aussuchen (dann sind AvgFPS über einen kurzen Zeitraum ohne Leerlauf aussagekräftig) oder einen Spielabschnitt aussuchen, bei dem es zumindest zeitweise CPU-lastig zugeht und dann eben eine aufwendige Analyse des Frameverlaufs durchführen.

Diese Ergebnisse müsste man dann geeigneten Grafikkarten-Messungen (zum geeigneten Testsetup wurde genug gesagt) gegenüberstellen und schon hätte man das Maximum an Praxisrelevanz. Aus den beiden Tabellen lese ich die Leistungsfähigkeit der gewünschten CPU (Kernanzahl, Taktrate) und der gewünschten Grafikkarte ab. Der kleinere der beiden Werte sagt mir, was mein System mindestens zu leisten in der Lage sein wird. Die Werte sind ferner übertragbar auf ähnliche Komponenten.

Alles andere macht keinenSinn und das fazit dieses Artikels ist schlichtweg unseriös, weil es aus den durchgeführten Messungen mit all den gravierenden Fehlern im Testsetup nicht entnommen werden kann.

SirOPIUM schrieb:
Also ist das ganze doch nur ein Grafikkartentest, der falsch eingeordnet ist?
Ja, falsch eingeordnet, falsche Überschrift, irreführende Einleitung, peinliches Fazit.
 
Zuletzt bearbeitet: (Einschränkung Speicherbandbreite, SI)
SirOPIUM schrieb:
Also ist das ganze doch nur ein Grafikkartentest, der falsch eingeordnet ist?
Scheint so.

Aber das in einem Grafikkartentest nur eine Grafikkarte genommen wird aber dafür 4 verschiedene CPUs ist recht verwunderlich.
 
Unyu schrieb:
SirOPIUM schrieb:
Also ist das ganze doch nur ein Grafikkartentest, der falsch eingeordnet ist?
Scheint so.

Aber das in einem Grafikkartentest nur eine Grafikkarte genommen wird aber dafür 4 verschiedene CPUs ist recht verwunderlich.

ROFL

Scheinbar für manche zu schwer zu verstehen. Ihr denkt echt nur in Schubladendenken (Grafikkartentst<->CPU-Test) und Theorien die auf dem Papier gut aussehen

Es ist Spieletest mit Schwerpunkt auf Multicore. Wie oft den noch :rolleyes:
 
Warum wird hier ein Grafikkartentest dann zweimal durchgeführt (9800 GX2 <-> Spieleperformance mit der aktuell schnellsten GraKa, bei dem geschaut wird ob vllt doch mal die CPU limitiert), anstatt für den zweiten Test die Arbeitszeit so zu investieren, dass ein Aussagekräftiger Test in Bezug auf die CPU vorliegt?

Ich hab in diesem Beitrag bereits geschildert, warum dies kein Spieletest sein kann. Die Messungen sprechen für GPU, die Einleitung für CPU, leidglich ein paar winzige Hinweise sprechen für Spiele.

edit: Durch dieses "Schubladendenken" kann man sich die Ergebnisse selbst zusammenstellen. Du wirst dir deinen Rechner vermutlich auch lieber selbst zusammenstellen als ein vorgefertigtes Modell zu kaufen bei dem Komponenten drin sind, die du nicht brauchst. (edit: ein zugegeben ziemlich unpassender Vergleich)
 
Zuletzt bearbeitet:
SirOPIUM schrieb:
Durch dieses "Schubladendenken" kann man sich die Ergebnisse selbst zusammenstellen. Du wirst dir deinen Rechner vermutlich auch lieber selbst zusammenstellen als ein vorgefertigtes Modell zu kaufen bei dem Komponenten drin sind, die du nicht brauchst.

Der Vergleich hinkt aber gewaltig, denn:

SirOPIUM schrieb:
Wäre interessant, was eine Person mit fundierten Kenntnissen in Messtechnik zu diesem Artikel und diversen Kommentaren sagen würde...

Was hier aus Unverständnis als "Schubladendenken" bezeichnet wird, wäre elementarer Bestandteil seiner Methodik. Das hat auch nichts mit Wahlfreiheit zu tun.
 
Ja, muss ich zugeben, der Vergleich war ziemlich unpassend.
 
SirOPIUM schrieb:
Ja, muss ich zugeben, der Vergleich war ziemlich unpassend.

Wenn man ständig gegen eine Mauer der Ignoranz anrennt, dann greift man schonmal daneben. Mich hat es gestern erwischt und mein resultierendes Geflame ist mir mittlerweile regelrecht unangenehm: Klick!

Es ist trotzdem vergebens. Hier im Thread kann man versuchen, mit dem Unsinn aufzuräumen, aber ComputerBase lässt den Artikel im Netz und verbreitet munter Märchen. :(
 
Schubladendenken ist das nicht, sonder der Versuch einer systematischen Aufschlüsselung des Problems. Wenn du alles durcheinander wirfst, kommt da genau so ein Test heraus wie dieser, der am Ende nichts wirklich aussagt.

Mal angenommen, du könntest die Spieleleistung eines PCs mit nur 2 Parametern beschreiben, dann wäre einer die CPU und der andere die GPU-Leistung. Ferner hängt die GPU-Leistung von der CPU-Leistung ab, da die Grafikkarte erst einmal Daten benötigt, die die CPU bereitstellt.
Da aber nur die Grafikausgabe gemessen wird, ist die messbare Leistung der CPU wiederum durch die Grafikkarte begrenzt.

Du hast also dabei Recht, dass beides irgendwie bei einem Test auf Spieletauglichkeit nicht trennbar ist.
Um für zwei Parameter am Ende aber brauchbare Ergebnisse zu bekommen, muss man einen wesentlich größeren Aufwand treiben, als es hier geschehen ist. Und außer einfachen Diagrammen sehe ich auch nicht unbedingt die Kompetenz, mit komplizierteren Messreihen eine Auswertung durchzuführen. Mehr als nur die Auswirkungen einer CPU-Variation zu versuchen erhöht hier nur unnötig den Aufwand.

Um noch einmal auf die Auflösung zurückzukommen. Die hätte so gewählt werden müssen, dass sie sich im Messbereich über einen möglichst breiten Bereich neutral verhält. Die Messbarkeit wird nach oben und nach unten limitiert, da es auch bei sehr kleiner Auflösung irgendwo eine maximale durch die Grafikausgabe limitierte Framerate gibt. Was bei vielen Messwerten auch überhaupt kein Problem ist, da man die Limitierung durch die Grafikkarte deutlich sehen würde, weil sich die Spielleistung sonst linear mit der CPU Leistung verändern würde, und die Dämpfung bei steigender Prozessorleistung größer (und quantifizierbar) würde. Man könnte bei einem gut durchgeführtem Test also genau die Limitierung durch die GPU bestimmen.
Anschließend könne man Vergleichen, wie sich eine Veränderung der Rechenleistung durch zuschalten von Kernen im Vergleich zu einer einfachen Erhöhung dieser durch Takterhöhung verhielte.
Denn nur der Vergleich zwischen einer CPU-Leistungveränderung durch eine Taktänderung und einer CPU-Leistungsänderung durch eine Kernänderung lässt am Ende Rückschlüsse zu, in wieweit Spiele zusätzliche Kerne nutzen können. Der Fehler war einfach nur, das nicht bei möglichst vielen verschiedenen Taktfrequenzen bei unterschiedlicher Kernanzahl gemessen wurde, sondern nur bei einer. Das Grafikkarten-Limit hätte selbst bei nur zwei unterschiedlichen Taktraten der CPU keine Rolle mehr gespielt, da man es bestimmen könnte.
 
abulafia schrieb:
Das Grafikkarten-Limit hätte selbst bei nur zwei unterschiedlichen Taktraten der CPU keine Rolle mehr gespielt, da man es bestimmen könnte.
Das Grafikkartenlimit spielt nur so lange keine Rolle, wie es oberhalb des CPU-Limits der jeweiligen Kernanzahl- und/oder Taktratenkonfiguration liegt. Sobald es limitiert, kannst du Aussagen über höhere Kernanzahl oder Taktraten nicht mehr treffen. Je nachdem ob du AvgFPS betrachtest oder MinFPS (bzw.AvgFPS in worst-case Situation ohne Leerlauf), werden die Ergebnisse dann verfälscht oder wertlos.
 
Zuletzt bearbeitet: (bzw.AvgFPS in worst-case Situation ohne Leerlauf)
Hallo

Meine cpu e6850 hab ich schrittweise von 2x3ghz auf 2x3510mhz übertaktet und cod4 lief besser und besser mit 2x3870 karten,die cpu kerne sind laut task 80-100 ausgelastet.
mit der auflösung 1680x1050 4xaa und 4xaf ein erfolg,immer im oberen bereich 70-100fps teilweise einbrüche auf 40fps.

kann dem test keinen glauben schenken sorry.
 
Welchem Teil des Tests glaubst du nicht? Ich finde nämlich keinen der sich ansatzweise damit beschäftigt, was die Übertaktung der CPU in Spielen bringt.
 
Zurück
Oben