Bericht Bericht: GPU-Leistung in Abhängigkeit der CPU

@Selflex
Nun ja, wie willst du zB einen AthlonXP mit einer der neuen Grafikkarten testen? Aktuelle Karten setzen nun mal auf PCI-E. Also würde schon ein Haufen CPUs zum testen wegfallen. Außerdem würde der Aufwand doch gewaltig zunehmen, schätz ich mal.

PS: Großartiger Test :)
 
Super Test, Dank der Einbeziehung der XP CPUs.

Beim XP sieht man erst wie stark unterschiedlich ein System performen kann.

Da sieht man mal wieder: CPU Power kann man nie genug haben, wobei beim A64 der Unterschied nicht mehr so groß ist wie beim XP.
 
teliko schrieb:
wenn du den artikel richtig gelesen hättest wüsstest du das zum zeitpunkt des tests diese hardware noch gar nicht released war

interessant wäre es wohl gewesen, aber repräsentativ ist der test trotzdem

man kann nie up 2 date sein, dsa ist der mist unserer zeit *g*


ja! ich gebe zu den Artikel nicht gelesen zu haben. Aber wenn ein Test hier im Artikelbereich der Redaktion erscheint nehme ich an, dass er Topaktuell ist :-) Bin fälschlicherweise direkt auf den Reiter Performance Rating gegangen und Fazit!

Was sollst der wille ist da, vielleicht gibt es noch einen Ausführlichen mit Highend Grakas und den Dualcores vs. Single CPU vergleich.

Gruss Selflex
 
Super Test und Artikel! :)

Ich möchte gar nicht wissen, wie viel Arbeit da drinne steckt ..... :freak:


On Topic:
Mein persönliches Fazit:

Der P4 skaliert am besten zu höheren Taktraten hin und der A64 und der PM am schlechtesten.

Umgekehrt heißt das, dass man einen schnellen P4 braucht, aber auch schon ein langsamerer A64 oder PM gut ausreicht.

(Oder die Diagramme täuschen wegen unterschiedlich vielen aufgeführten Prozessoren.)


Außerdem war ich von dem hohen Stromverbrauch der Athlon XPs geschockt (auch von meinem hier zuhause, hatte ihn mal gemessen).

MfG David
 
ich denke das ist bei so einem artikel mit dem umfang an arbeit schwer zu realisieren.


der artikel hat zwar im vergleich zu anderen artikeln nicht mehr seiten aber die arbeit war denke ich exorbitant größer.

wäre nett zu erfahren wie lang die redakteure da gesessen haben, denke mal 3 monate oder sowas...
ist jedenfalls ein haufen arbeit


kann man nur RESPEKT aussprechen und den Hut ziehen

und ab sofort hat man was zum verlinken bei derartigen fragen oder bei anfragen für ein neues system
 
teliko schrieb:
ich denke das ist bei so einem artikel mit dem umfang an arbeit schwer zu realisieren.


der artikel hat zwar im vergleich zu anderen artikeln nicht mehr seiten aber die arbeit war denke ich exorbitant größer.

wäre nett zu erfahren wie lang die redakteure da gesessen haben, denke mal 3 monate oder sowas...
ist jedenfalls ein haufen arbeit


kann man nur RESPEKT aussprechen und den Hut ziehen

und ab sofort hat man was zum verlinken bei derartigen fragen oder bei anfragen für ein neues system

ich respektiere die arbeit und ziehe den hut, wie immer wenn sie einen artikel rausbringen!
nur war ich etwas geschockt, weil ich was anderes erwartet hatte! wie auch immer das ist meine meinung! vielleicht liegt es auch daran das ich selbst eine 7800gtx besitzte und daher leer ausgehe :-)

trotzdem danke CB
 
hmm, da kann ich nicht ganbz mithalten


aber mich hätten die sli ergebnisse noch interessiert da ich ein sli sytem habe

gehe also auch "leer" aus *fg*
 
Super CB! Weiter so und Respekt für die viele Arbeit! :D
 
Einen Fehler habt ihr auf jeden Fall drinnen.

Der Core Duo hat einen 2Mib großen L2 Cache, den beide Cores gemeinsam nutzen. Wenn nur ein Core von der Anwendung unterstützt wird, dann kann einer auch den gsamten L2 Cache nutzen.
4MiB haben erst die großen Core Duo2.
 
pnume schrieb:
Einen Fehler habt ihr auf jeden Fall drinnen.

Der Core Duo hat einen 2Mib großen L2 Cache, den beide Cores gemeinsam nutzen. Wenn nur ein Core von der Anwendung unterstützt wird, dann kann einer auch den gsamten L2 Cache nutzen.
4MiB haben erst die großen Core Duo2.

Hä? Core Dua ist doch der Singlecore! Core 2 Duo wird der Dualcore sein!

@ cb-artikel

Hammer, auf sowas habe ich schon lange mal gewartet! Super interessant das ganze!

Zeigt dass SLI von der Preis/Leistung her der reine Irrsinn ist. Und dass ich aus meinem 2500+ Athlon XP mit einer GeForce 6800pro noch eine ganze Ecke rausholen koennte gegenueber meiner Radeon 9800pro. Hmm...
 
Nein, der Core Duo ist ein Dualcore, der Core 2 Duo wird eine andere Architektur haben. Die Core Solo Prozis sind die Single Cores.
 
Ein super Test!!

Sogar das Testsystem past fast zu meinem System
(also Mainboard und Prozessor)
 
Der Artikel beeinhaltet noch ein paar Fehler...

Allerdings besitzt der Pentium M nicht nur Vorteile gegenüber seinen Desktop-Brüdern, da er auf einige Features nicht zurückgreifen kann. So besitzt der stromsparende Pentium beispielsweise keine Hyper Threading Technology, Dual-Core und auch 64-Bit-Support bleibt ihm fremd.

Das fehlen von Hyper Threading kann nun wirklich nicht als Nachteil bezeichnet werden, denn ob Hyper Threading Sinn macht, hängt mit der Architektur zusammen und die ist beim Pentium M anders, als beim Pentium 4.
Die kommenden Core 2 Duo Prozessoren werden ebenfalls kein Hyper Threading mehr haben, weil es wohl keinen Sinn mehr macht.

Auf das NX-Bit zum Verhindern von Buffer-Overflow müssen entsprechende Besitzer ebenfalls verzichten.

Die Pentium M Prozessoren unterstützen sehr wohl das NX-Bit, jedenfalls alle Modelle im neueren C0 Stepping und auch die Celeron M Prozessoren mit einem J hinten dran.
Intel bewirbt das so auf seiner Webseite.

Beim Core Duo handelt es sich um den ersten Dual-Core-Notebook-Prozessor, der mit einem insgesamt 4 MB großen L2-Cache aufwarten kann.

Einen Core Duo Prozessor mit einem 4 MB großen L2 Cache gibt es nicht. Die Core Duo Prozessoren haben maximal einen 2 MB großen shared L2 Cache, erst der Core 2 Duo wird bis zu 4 MB shared L2 Cache aufweisen.
 
Zuletzt bearbeitet:
Klasse Artikel,

er mir zeigt dass ich recht hatte.
Meine 6600GT wird wirklich schneller wenn ich meinen AthlonXP 3000+ etwas overclocke (~200 MHz), daß wollten mir einige Leute nicht glauben.
 
Entsprechende Prozessoren takteten mir 3200 MHz bis 3460 MHz.
Seite 4, 10. Absatz (4. Zeile)

Entsprechende Prozessoren takteten mit ..


Mich würde nun interessieren, wann genau der Artikel "gestartet" wurde, immerhin wurden nicht wenige direkte Anspielungen dahin gemacht.

Die Entwicklung auf dem Grafikkartenmarkt zu verstehen fällt mir nach diesem Test noch schwerer als vorher:
Aktuelle Grafikkarten sind zu teuer, zu heiß und somit zu laut. Dabei können sie nichtmal alles aus sich rausholen, weil der Prozessor nicht selten zu langsam ist.
Mal abgesehen davon, dass wohl die meisten niemals über Auflösungen von 1280x1024 spielen werden, die meisten Grafikkarten hier aber immernoch (zuviuel) Leistung haben.....
 
Ha!
Das macht mir freude :D
HAb grad von meinem Athlon XP-M @ 4000+ auf nen Pentium M @ 2,7Ghz gewechselt und mich bisl geärgert dass nicht noch 200 Mhz mehr drin sind :D
Und der Unterschied bei Spielen ist echt deutlich, bei allen anderen Standard Windows applikationen werd ich glaub ich keinen großen Unterschied merken....

Laut test, lohnte sich der Umstieg wirklich sehr, und was sich laut test garnicht lohnt, ist, dass ich der Tatsache hinterherweine dass der P-M nicht auf 2,9 oder 3 Ghz läuft.... ;)

Bei 1280*1024 Auflösung, auf der ich soweiso immer spielen werde (TFT), wird ein P-M @ 2,9-3 GHZ auch net besser performen... :daumen:


btw, in einigen Spielen ist auch deutlich der Knick beim XP zu sehn wo der Palomino vom Barton abgelöst wird...in einigen dafür garnich :freak::
ausserdem wär vll ne übertaktete 7800Gs oder die 7800GS+ Bliss interessant gewesen...
also ne XT-PE oder 6800 Ultra gehört deutlich zu midRange, beim Performance Rating und The Chronicles of Riddick schön zu erkennen, das die GPUs hier limitieren und nicht die CPUs....
 
Zuletzt bearbeitet:
erstmal ist es SUPER das ihr euch wegen ein par diagrammen so viel arbeit macht!!!
der vergleich ist zwar toll aber auch nicht ganz so präziese wie immer da die unterschiedlichen mainboards eine rolle spielen...
alles in allem top :daumen:
 
Zurück
Oben