Bericht Bericht: 1, 2, 3 oder 4 CPU-Kerne?

HomerJSi schrieb:
Von Nutzen o.ä. steht hier nichts.
Die Frage ist, inwieweit Spiele schneller laufen. Von Multicore Unterstützung o.ä. ist in der Fragestellung des Tests nicht die Rede.

Du darfst es nicht aus dem Zusammenhang reißen.

Ein wenig schwerer tun sich die Spielehersteller bei der Optimierung auf verschiedene Prozessorkerne. Nachdem zu Beginn der Multi-Core-Ära fast kein Spiel von einem zweiten CPU-Kern profitieren konnte, sind die Spieleschmieden mit der Zeit einige Schritte vorangekommen und manche Titel werden gar schon mit einer Quad-Core-Optimierung beworben.

Doch bewerben kann man viel. Die Frage ist, wie die Praxis aussieht.


Hier ist eindeutig von der Multicore Unterstützung die rede.
und genau die wurde in keinster weiße untersucht
 
Zuletzt bearbeitet:
MRM schrieb:
Deswegen sollte man ja auch vorher klären, was man mit einem solchen Test bezwecken möchte ... ;)

Will man einen reinen CPU Test ? Oder will man klären, ob sich die mehrkosten für einen Quad aus der Sicht eines Gamers sich rechnen ?

Wenn bei 1280x1024 eh "meistens schon die GraKa limitert", dann ist das IMHO auch eine nicht unwichtige Aussage - sie lautet nämlich, bevor du dein Geld in einen teureren Quad steckst, investiere es lieber in eine größere Graka ;)

Man sieht,manche haben die Zielsetzung dieses Tests tatsächlich begriffen.
 
abulafia schrieb:
Selbst bei der Wiedergabe ist ein Quad von Vorteil, und die aktuellen Codecs wie DivX und CoreAVC unterstützen diesen sehr gut.

Für Divx reicht sogar ein alter Athlon64 von anno damals.Und bei H264 und Vc1 hilft vor ellem eine billige Grafikkarte etwa mit Uvd.Einen Quad braucht dafür ganz sicher nicht.
 
Es kann offenbar unter geeigneten Bedingungen sehr wohl nachgewiesen werden, dass moderne Spiele bereits jetzt schon deutlich von Vielkern-CPUs profitieren. Dazu gehören unter anderen auch die Engines von Crysis, Race-Driver, Supreme Commander, Assassins Creed, und das sind nur die schon genannt wurden. Und es werden sich noch viele andere finden lassen.

Dieser Test stellt ein systematisch verfälschtes Bild dar. Ich fände es unverantwortlich, wenn nicht ein Abschnitt in den Test selbst übernommen wird, der sich kritisch zum Test äußert und auf die berechtigten, in dieser Diskussion aufgezählten Mängel und Einschränkungen der Aussagekraft hinweist.

Die genannte Argumente und Einschränkungen sollten auch jedem bekannt gemacht werden, der den Diskussionsthread nicht liest. Als Alternative sehe ich einen Rückzug und die vollständige Überarbeitung des Artikels.


@florymoth: Die Dekodierung von 1080p Material über mehrere Kerne zu verteilen hat durchaus Vorteile. So muss man den Takt z.B. nicht anheben, kann also alles im Energiesparmodus bleiben. Sollte auch nur als Beispiel für Trivialtools dienen.
 
Zuletzt bearbeitet von einem Moderator:
War doch klar, was da für ein Fazit rauskommen wird.
Ein 4Ghz Yorkfield und GPU limitierte Situationen. :rolleyes:

Dann noch rausch die avgFPS gemessen, AA hochgedreht und noch mehr gewundert, das kein Unterschied vorhanden ist.....
 
Jetzt wird sowieso grade auf 4 Kerne programmiert also sind 4 Kerne schon sinnvoll (für die Zukunft)
 
wie man sehen kann die minframes werden besser (mit mehr kernen besser), wie vorher gesagt.

Damit verbessert sich die spielbarkeit massiv in bestimmten Situationen massiv.

Auch ist natürlich zu sehen, für aktuelle Spiele reicht ein Dualcore locker aus.

Für Spiele ist ein Quad momentan noch nicht notwendig.

Allerdings bieten die neuesten Spiele wie Assassins Creed doch schon einen ersten Ausblick was uns erwartet.
 
Zuletzt bearbeitet:
florian. schrieb:
Du darfst es nicht aus dem Zusammenhang reißen.

Hier ist eindeutig von der Multicore Unterstützung die rede.
und genau die wurde in keinster weiße untersucht

Nein das tue und möchte ich auch gar nicht.

Aber: solange Spiele ab Auflösungen von 1280*1024 und höher (inbesondere bei Qualitätssettings) von der GPU ausgebremst werden ist die Multicore-Unterstützung uninteressant. Was bringt mir ein Spiel, das vier Kerne nutzt, aber durch die GPU in der Performance beschränkt wird?

Fairy Ultra schrieb:
Für Spiele ist ein Quad momentan noch nicht notwendig.

Allerdings bieten die neuesten Spiele wie Assassins Creed doch schon einen ersten Ausblick was uns erwartet.

Bringt es auf den Punkt
 
Zuletzt bearbeitet:
Mich würde mal interessieren,wie Gothic3 mit dem Communitypatch 1.6 läuft.In dieser Patchversion würde das fehlerhafte Multithreading deaktiviert.
 
HomerJSi schrieb:
Die Frage ist, wie die Praxis aussieht. Das wollen wir in diesem Artikel herausfinden, indem wir mit einigen beliebten Spieletiteln – und nur um diese geht es, andere Software wollen wir nicht behandeln – untersuchen, inwieweit Spiele mit einem zweiten, dritten und gar vierten CPU-Kern schneller laufen.
Von Nutzen o.ä. steht hier nichts.
Die Frage ist, inwieweit Spiele schneller laufen. Von Multicore Unterstützung o.ä. ist in der Fragestellung des Tests nicht die Rede.

Ansonsten wurde ja genug konstruktive Kritik geübt ... zu hohe Taktung etc.
Wie bereits erwähnt, ist der zitierte Teil etwas aus dem Zusammenhang genommen. Im Vorfeld wird durchaus auf die Multicore Unterstützung der Spiele hingewiesen. Die Aussage "wie die Praxis aussieht" bezieht sich nicht auf die durchschnittlichen Gaming-PCs und -einstellungen, sondern darauf, wie die Spiele praktisch programmiert sind.
Der Artikel zeigt lediglich auf, dass viele Spiele sehr stark die GPU ansprechen und die CPU nur in (in diesem Artikel: Intel Core 2 Extreme QX9770 (übertaktet per Multiplikator auf 4 GHz, Quad-Core)) unbedeutendem Maße.




Mal abgesehen davon, dass der Artikel nicht optimal durchgeführt wurde, fände ich es auch interessant darüber zu diskutieren, welche Schlüsse man aus den Werten dieses Artikels (so wie er bisher ist) ziehen kann.

Sollten die Spieleentwickler stärker auf die CPU setzen um die Grafikkarte zu entlasten?
Sollten die CPU-Hersteller GPUs in ihre CPUs integrieren, die einen Teil der erforderlichen Berechnungen übernehmen können?
Sollten Multicore Lösungen auch bei den GPUs eingeführt werden? Welcher Nutzen würde dadurch entstehen?
Sollten andere Softwareentwickler ebenfalls stärker die GPU ansprechen und diese zum zentralen Element des Rechners machen (was irgendwie dem Sinne der CPU widerspricht:freak:)?
...
 
abulafia schrieb:
Dieser Test stellt ein systematisch verfälschtes Bild dar. Ich fände es unverantwortlich, wenn nicht ein Abschnitt in den Test selbst übernommen wird, der sich kritisch zum Test äußert und auf die berechtigten, in dieser Diskussion aufgezählten Mängel und Einschränkungen der Aussagekraft hinweist.
Das liegt doch immer daran, was man darstellen will:

- Eine 3GHZ Intel-CPU, welche auf 4GHZ übertaktet wird, ist doch mindestens mal noch die nächsten 12 Monate ABSOLUT normal.
- Eine 9800GX2 ist doch ebenfalls mindestens mal noch die nächsten 12 Monate ABSOLUT normal.
- Eine Auflösung von 1280x1024 ohne AA/AF ist doch für so eine Grafikkarte sicherlich absolut unterstes Leistungniveau.

Wenn nun bei 1280x1024 (ohne AA/AF) mit einer 9800GX2 keine signifikante Mehrleistung mit mehr Kernen erzielt werden kann, dann ist das Fazit, das mehr Kerne auf absehbare Zeit nix bringen doch sehr korrekt. In der Realität werden die Grafikkarten in WESENTLICH stärker GPU-Limitierenden-Situationen arbeiten.

Klar, kann es sein, das in 2 Jahren die ersten Spiele kommen, die signifikant besser mit mehr CPU-Power laufen, aber dann tuts auch ein 80-Euro-4-Kern-Nehalem...
 
^^ @SirOPIUM: worauf die Aussage "wie die Praxis aussieht" bezieht, ist imo völlig wurscht: Spiel werden nunnmal auf durchschnittlichen Gaming-PCs gespielt. Wenn die praktische Programmierung von Spielen dazu führt, dass aktuelle Spiele auf Gamer-PCs in höheren Auflösungen und/oder Qualitätssettings GPU-limitiert sind, zeigt das genau der CB-Test.

Und das reicht doch auch: wenn Spiele aktuell eh GPU-limitiert (oder in deinem Sinne: aktuell so programmiert sind, dass sie GPU-limitiert sind), zeigt der Test eben, dass Spiele imo die CPU in unbedeutendem Maße ansprechen. Wunderbar :) Vielleicht ist das bei zukünftigen Spielen anders (vgl. AC).

Für den zweiten und dritten Absatz stimme ich dir völlig zu: das sind die eigentlich interessanten Fragestellunge, die abseits von copy-und-paste-Benchmarks diskutiert werden sollten.
 
- Eine 3GHZ Intel-CPU, welche auf 4GHZ übertaktet wird, ist doch mindestens mal noch die nächsten 12 Monate ABSOLUT normal.

Zwar ist ein Dual-Core in Absehbarer Zukunft ausreichend, aber nicht jeder will/kann sich jedes Jahr einen neuen PC kaufen.

Klar, kann es sein, das in 2 Jahren die ersten Spiele kommen, die signifikant besser mit mehr CPU-Power laufen, aber dann tuts auch ein 80-Euro-4-Kern-Nehalem...

80 Euro tut es aber nicht... Da kommen noch mal 80 für Mobo rauf!

Und was ist denn heutsotage beim Computer idealer als ein CPU der "nachreift" xd
Ein CPU der mit der Zeit immer "besser" wird. Was wenn die zunehmende CPU Anforderung und die zukünftige Multicore Unterstützung sich (teilweise) ausgleichen? Dann wäre ein zurzeit recht günstiger Quad perfekt für die Zukunft...
 
OK noch heraus gekramt :-DD
Hat an sich nicht mit der Computerbase-Artikel zu tun:
http://www.heise.de/security/Antiviren-Software-auf-aelteren-Systemen--/artikel/107531/2

Aber Zitat aus c't 01/08:

Die CPU-Last sank natürlich von vorher fast 100 Prozent auf etwa 50 beim Dual-Core und circa 30 Prozent beim Quad-Core. Das heißt, dass genug Leistung übrig ist, noch etwas anderes zu machen, während der Virenscanner aktiv ist. So kann man auf einem Dual-Core-System beispielsweise den Komplettscan meist ohne große Beeinträchtigung im Hintergrund laufen lassen. Allerdings blockiert das Einlesen der Dateien natürlich I/O-Kapazitäten, was sich in bestimmten Bereichen dann doch wieder nachteilig bemerkbar macht.
 
Ich halte es mit diesem "Test" wie mit Statistiken, man kann alles beweisen wenn man die Umgebungsvariablen dementsprechend setzt. Nur ist die Überschrift zu diesem "Test" ganz klar Thema verfehlt. Und wer sich einen neuen CPU kauft will bestimmt nicht nur die gerade im moment aktuellen oder älteren Spiele zoggen, sondern auch zukünftige und da wird die CPU last ganz klar ansteigen. Und für Leute wie mich die nicht nur spielen sondern auch noch mit C4D und AAE arbeiten sind Quad Cores ein Segen.
 
Danke für den Test. Find ich gut, dass man mit realitätsnahen Settings getestet hat und mit nicht mit minimalen Auflösungen auf Teufel komm raus die GPU-Limitierung zu vertuschen.

@Maik.x
Dann nimm halt deine Glaskugel zur Hand und mach nen Test von zukünftigen Spielen. Oh man :rolleyes:
 
HOT schrieb:
Ist doch sogar nachgewiesen. Man verfolge die GRID-Benchmarkthreads bei 3Dcenter oder HWLUXX, oder benche ganz profan Cinebench ;).


Grid läuft auf dem Phenom nicht schneller.

Phenom 2,4 Ghz:

http://www.forum-3dcenter.de/vbulletin/showpost.php?p=6505308&postcount=61
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=6506591&postcount=65

Kentsfield 2,4 Ghz:

http://www.forum-3dcenter.de/vbulletin/showpost.php?p=6495820&postcount=16
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=6497060&postcount=25

Warum skaliert der Phenom dort nicht besser? Vielleicht weil das Spiel doch nicht sooo viel von mehr als 2 Kernen profitiert. Ich kenne die Werte von den üblich Verdächtigen aus dem Luxx, getweakt und übertaktet ohne Ende. Natürlich ist auch klar warum es dort keiner wagt mal ein default System zu benchen, denn dann wäre ihr Phenom nicht mehr vorne, was ein Jammer aber auch. Ich habe auch schon AC in default Systemen gesehen, auch dort ist der Phenom kaum bis gar nicht schneller gewesen. Ist ja schön wenn der Phenom mit übertakteter NB und sonstigen tweak Spielerein so richtig abgeht, aber das ist doch nicht relevant außer für die paar Freaks. Deswegen finde ich es immer wieder völlig übertrieben dargestellt von einigen, was wirklich Schade ist.
 
@aspro
man brauch glaube ich kein Hellseher zu sein oder eine Glaskugel zu benutzen um zu wissen das in Zukunft die Anforderungen an eine CPU steigen werden, desweiteren frage ich mich wie du darauf kommst, dass ich einen Test von zukünftigen Spielen will.
 
HomerJSi schrieb:
... Spiel werden nunnmal auf durchschnittlichen Gaming-PCs gespielt. Wenn die praktische Programmierung von Spielen dazu führt, dass aktuelle Spiele auf Gamer-PCs in höheren Auflösungen und/oder Qualitätssettings GPU-limitiert sind, zeigt das genau der CB-Test.

Und das reicht doch auch: wenn Spiele aktuell eh GPU-limitiert (oder in deinem Sinne: aktuell so programmiert sind, dass sie GPU-limitiert sind), zeigt der Test eben, dass Spiele imo die CPU in unbedeutendem Maße ansprechen. ...
Es stimmt zwar, dass der Test genau das zeigt, aber laut der Einführung sollte der Artikel untersuchen, ob die Spiele (unabhängig davon was die GPU macht) so programmiert sind, dass sie Multicore-Systeme unterstützen.

Es ist offensichtlich, dass die GPU aktuelle Spiele eher limitiert, ich bin auch dafür, dass das in diesem Artikel in jedem Fall erwähnt werden sollte.
Das war nur nicht ganz die Aufgabe des Artikels, diese Aussage zu bestätigen ;)
 
Konkretes Konfigurationsbeispiel:

QX9770 @ 2,4GHz (mit jeweils 1 bis 4 aktivierten Kern)
P35 Mainboard
2GiB DDR2-RAM 5-5-5
Geforce 9800 GTX (eventuell übertaktet)
Aktuelle Festplatte mit 7200U/min, 16MB Cache und 333GB/Platte Datendichte
Vista SP1 32bit
 
Zurück
Oben