News Was bringen 0,5, 1, 2 oder 4 MB L2-Cache?

Keyser Soze schrieb:
Warum die einstellung von 640x480 bei den Spielen ? Also minimum 1280x1024 wären hier doch interessant oder ?
Was bringt mir ein Leistungsschub von 8,5 % bei so niedriger Einstellung, wenn ich bei 1280x1024 nichts mehr von merke ?
Es wurde doch in 1280x1024 und in 1600x1200 gestestet -> LESEN!!!
 
WICHTIG: L2 CACHE Tuning => Da XP von 2001 ist und damals 256 KB L2 üblich war, besteht dieser Wert selbst noch unter XP SP2 und VISTA!, wodurch man viel Leistung brach liegen lässt. So wird der L2 Cache erhöht: Start -> Ausführen -> regedit -> HKEY_LOCAL_MACHINE -> SYSTEM -> CurrentControlSet -> Control -> Session Manager -> Memory Managment -> SecondLevelDataCache : Alle "Conroe" Besitzer (ab E6600) stellen den Hex - Wert von "0" auf "1000" (= 4 MB), alle "Allendale" Besitzer (E6300 & E6400) geben "800" (= 2 MB) ein, bestätigen und verlassen die Regestry. Natürlich werden die " " weggelassen. So hat mein einen deutlichen Performanceschub erziehlt ! :D
 
bei den (niedrigen) taktraten betreibt ja wohl hoffentlich keiner seinen c2d, egal welchen.

und hebt man die taktraten an, ändert sich das bild erheblich:

nicht umsonst wird der ausschuss mit abgeschaltetem/halbiertem cache in den billigen linien verkauft - gerade auch, weil wohl dann, wenn der cache auch schon nicht komplett was taugt, die cores auch nicht so taktfest sind.


kuck:

richtig power bringen die c2d erst jenseits von 3500 oder 4000 mhz. alles andere kinderkram und nicht der rede wert.


und praxis zeigt, dass

- ein c2d E6400 seine 3700 mhz gut laufen wird. (aber fast keine 4000.)

- und kaufe ich einen E6600, dann liegen evtl. nicht nur 4000 mhz sondern auch 4400 mhz und mehr drin.


intel geht halt strikt nach erfahrung und positiver logik vor: je besser der kern läuft, desto höher sein verkaufsrating.

(und einzelne ggfls. zu findende hochtaktfähige cpus mit niedrigen verkaufsrating sind bloß die ausnahme, die das prinzip bestätigen; wird halt von intel nur gemacht, wenn wirklich gerade keinen schlechten cpus da sind.)


von daher kann man im bereich von 80 bis 135 euro sparen. klug ist das aber nicht wirklich, denke ich: unter 3500mhz, also unter fsb 438 mal 8, sollte kein c2d laufen. (besser 470x9).


halt 1,75 mal mehr power. und da sind 8 oder 12% rauf oder runter peanut.

was die 4mb l2 also bringen? in aller regel bringen sie einen taktfesten kern mit im gepäck. (oder ist es anderes rum?;))

wer den nicht braucht, kann dann halt auch auf den cache verzichten. "wenn schon mangel dann doch bitte gleich doppelt."


p.



fakten, hier ist die liste: http://www.unibeam.de/pi/index.php?liste=1m

der erste klartextmäsig aufgeführte e6400 auf platz 40.... davor nur bessere(?!). und der erste kleine auf platz 73.
 
Zuletzt bearbeitet:
Das Ergebnis ist doch beachtlich. Selbst in Auflösungen die schon sehr grafikkartenlimitiert sind, bringt der höhere Cache noch signifikante Unterschiede. Wenn die CPU-Leistung dann in neueren Spielen stärker gefprdert wird und man die Auflösung herunter dreht, werden die Unterschiede noch größer.

Dazu kommt, dass der Vorteil des Caches mit dem Takt zunimmt. Je höher die CPU getaktet ist, desto größer wird der Taktunterschied zum RAM wodurch sie immer mehr Takte auf Daten warten muss, die nicht im Cache liegen.

Taktet mal die drei CPUs auf 3 Ghz (der E6300 kann dann leider nicht mehr mit DDR2 800 laufen, daher Vorteil für ihn durch höheren fsb und RAM Takt), stellt die Auflösung auf 800x600 und vergleicht nochmal.
 
@42: müssen das nicht dann 1600 sein wenn 800 2mb ergeben?

€: ok müssen wirklich 1000 sorry
 
Zuletzt bearbeitet:
@ perfekt!57

die statistisch höher resultierende absolute Taktfrequenz bei "größeren" Core 2 Duos liegt aber eher an dem höheren Multiplikator als an der "besseren Qualität" des Prozessors. Im Allgemeinen gilt eher weniger Transistoren = höherer max. möglicher Takt.

um deine Angaben bzgl. 6400 und 6600 zu vergleichen:
du sagst 6400 (Multi=8)taktet auf ca 3700 MHz; 6600 (multi9) taktet auf 4000 bis 4400 MHz
--> 3700/8=462,5 FSB ; 4200/9= 466 FSB

diese Rechnung zeichnet eher einen limitierenden FSB als die Qualität der "größeren" aus, da beide beim ca. gleichen FSB-Takt scheitern
 
Zuletzt bearbeitet:
Hab mir heute mal nen Celi 430 als Ablöse für meinen San Diego bestellt, für meine 7600GT reicht der locker ;) Auf nen arbeitlosen 2. Kern verzichte ich gerne bei 35 Watt TDP ;)
Ihr solltet mal im Hinterkopf behalten, dass hier mit ner 8800 getestet wurde, wäre ja unsinnig da ne 50 Euro-CPU zu benutzen wenn man 350 Euro für die Graka ausgibt.
 
@ schadok
Einbildung ist auch ne Bildung... ^^
This is not related to the hardware; it is only useful for computers with direct-mapped L2 caches. Pentium II and later processors do not have direct- mapped L2 caches.
ergo: keine Verbesserung... und selbst wenn... der Unterschied wäre marginal...
Although it is possible to change this value from the default value of 0, in most cases doing so does not improve performance. Microsoft does not recommend changing this setting.
(im unteren Teil)

@ perfekt!57
ehm... für 4,4Ghz braucht man schon mal ne Stickstoffkühlung... was mal sowas von unrentabel ist... aber egal...
sicher sortiert Intel die CPUs nach Güte... aber so extrem nun auch wieder nicht... warum sollten die einen E6420 (der mehr als 3,2Ghz packt) als E6420 verkaufen?! würde auch locker als E6600 oder E6700 durchgehen... ;)
 
AssA2k1 schrieb:
@ perfekt!57
ehm... für 4,4Ghz braucht man schon mal ne Stickstoffkühlung... was mal sowas von unrentabel ist... aber egal...

Schau dir mal die (Hammer- !!) Taktraten der besten CPUs im Benchmark-Thread an. Ob die alle mit Stickstoff kühlen? Naja, aber mit Wasser bestimmt. ^^
 
In den 4 Spielebenchmarks kommt der 4MB-Kern auf satte 10% mehr Leistung, als der 2MB-Kern.

Das halte ich persönlich schon für eine satte Mehrleistung. Mann bekommt für 42 Euro mehr ja 10% zusätzliche Leistung für das komplette Rechnerpaket (vom Tower bis zum Monitor). Da ist für mich die Investition in den 4MB-Kern klar von Vorteil.

Die Aussage halte ich für groben Unfug. 10% ist gar nix. Ob man nun 20 FPS oder 22 FPS oder 80 FPS oder 88 FPS oder 100 FPS oder 110 FPS hat ist nun wirklich schei...egal.
10% ist dem Bereich des messbaren, aber nicht des spürbaren Unterschieds zuzurechnen und somit ist der Aufpreis in Höhe von EUR 42.00 völlig überzogen. Ich würde es lediglich beim E6300 oder E6400 für sinnvoll halten, wenn jemand das nur unwesentlich teurere 4MB Modell, also den E6320 oder 6420 kaufen würde, aber ich würde doch für lächerliche 10% Performance keine 40 Mäuse zusätzlich auf den Tisch legen. Das ist es einfach nicht wert. Da kann man das Geld besser für ein zukünftiges und dann wirklich sinnvolles Upgrade (zB für die nächste Grafikkarte oder mehr RAM) in den Sparstrumpf packen statt es auf eine CPU mit mehr Cache quasi sinnlos zu verballern.
 
So eine CPU muss bei mir nen paar Jahre halten. Da macht sich das irgendwann schon erheblich bemerkbar. Grafikkarten tausche ich regelmäßig, aber den Syntemunterbau behalte ich meist 4 Jahre.

Wenn ich nach deiner Philosopie gehen würde, dann dürfte ich mir immer nur PCs für 400 Euro kaufen. Will ich aber nicht. Ich hab genug Kohle und bau mir daher auch ordentliche Systeme (momentan Intel6320 mit Nvidia8800).

Und über Geldverschwendung kann man immer geteilter Meinung sein. Ich hab nunmal mehr als genug davon und spenden iss nicht so mein Ding...
 
#####################################

Blöder Test.
Ist klar dass ein Intel auf seinen Cache angewiesen ist.
Bei einem AMD mit integrierten MC spielt dass keine so bedeutende Rolle.
Siehe SempronK8 ...
 
deshalb habe ich auch auf den san diego geachtet, statt nur 512 cache. mehr cache mehr performance in games usw usw. e6400 vs 6420, z.b. preislich kaum ein unterschied und mehr power.

CACHEEE !! :D

@ eusterW: 400 is ok hab grad guer board 4 gb ram und cpu genau 400 ausgegebn. passt. aber wenn mehr drin sind, warum nicht ? ich hoffe nur du bist nciht so abgedreht und haust dir 2-4 gb ddr3 speicher rein :o
 
Zuletzt bearbeitet:
Wie kann man sich denn hier bitte an die Spielebenches richten?

Wer lässt seine Spiele denn bitte von der CPU rendern? Ihr habt doch alle ne Grafikkarte:rolleyes:

Wenn ich mir die Tabelle anschaue sehe ich ordentliche unterschiede nur beim Videoencoding, Entpacken und beim berechnen von Pi.

Selbst beim 3D-Rendern ist kaum Unterschied vorhanden. Und bei Spielen sowieso nicht, weil (wie ich schon sagte) keiner sein Spiel von der CPU rendern lässt ;)

Ach ja, dennoch ein schöner Test :)
 
In 640*480 ist der FPS Vorsprung des großen Core2Duo vor dem Celeron nur 10%, in 1280*1024 satte 60% (jeweils Far Cry).
Für mich gibt das keinen Sinn, wie bitte ist das zu erklären?

OK, je höher die Auflösung, desto limitierender ist die Graka, aber dann hätte man sich den Benchmark in 1280 schenken können!
Irgendwie ist das nicht aussagekräftig. Höhere Auflösung heißt für den CPU auch nicht unbedingt mehr Arbeit.

Wie ist das zu interpretieren, da sollte man wohl vorsichtig sein. Der alte Spruch mit den gefälschten Diagrammen etc. ...

@über mir: Naja beim Spielen ist schon ein Unterschied, die Geometrie kommt immer noch vom CPU (auch wenn die Graka diese modifizieren kann), und die Physik auch, K.I. und u.U. auch Sound, sowie Speicher- und Festplattenzugriffe.
 
Zuletzt bearbeitet:
Lol, echt geil. Merken es einige noch? Den Machern Fälschungen vorzuwerfen nur weil sie allein nicht besser wissen oder es in ihren Alltag passt? Ich glaub echt es hakt.

edit: Ach ich lass es lieber ... Lest einen Artikel bei uns, überlegt warum wir nen Core 2 Xtreme X6800 mit 3,46 GHz einsetzen, und dann postet nochmal.
 
Zuletzt bearbeitet:
Manche sind echt nicht in der Lage auf die Quelle zu klicken und sich dort noch mal das Testsystem anzuschauen.
@55) F_GXdx
Du schaust nur auf die Auflösung. Aber ist doch klar, dass eine CPU mit 2,4 Ghz deutlich mehr von dem L2 Cache profitiert als eine mit 1,86 Ghz. Desweiteren wurde 640*480 bei dem früheren Test gewählt, weil die Grafikkarte nur eine GeForce 6600 war. Bei dem neuren Test, der in 1280x1024 und 1600*1200 durchgeführt wurde, hat man eine GeForce 8800GTX benutzt.
 
Zuletzt bearbeitet:
Eins vorraus. Diesen Test hier zweifle ich auch nicht an aber,....

@Volker

Hallo
Wenn ich das richtig verstehe heißt das das eine aktuelle CPU eine derzeitige High-End-Grafikkarte nicht auslasten kann oder verstehe ich da was falsch?

Mag zwar stimmen das die CPU bis zu einem gewissen Grad limitiert aber die Grafikkarte kann man sehr schnell in die Knie zwingen.
Selbst auch eine 8800 GTX.

Hab mal selber ausprobiert zwischen einen Core 2 Duo und meinem "alten" X2 4800+
https://www.computerbase.de/forum/t...11-zu-wenig-punkte.290918/page-3#post-2861194

Da hätte auch ein Core 2 Duo mit 5 Ghz-Takt nicht mehr Punkte gebracht da die Grafikkarte einfach am Ende ist, oder sehe ich da etwas falsch? Im Treibermenu lässt sich auch einiges einstellen um die Grafikkarte in die Knie zu zwingen. Selbst Far Cry ruckelt bei mir wenns sein muss und das nur bei 1280x1024. Im Treibermenu Supersampling aktiviert und auf Hohe Qualität gestellt. Im Far Cry Menu auf Paradis-Modus alles auf Hoch und 8x AA aktiviert. Schon geht meine 8800 GTX in die Knie an einigen Stellen in Außenarealen. Also kommt auch immer darauf an mit welchen Qualitätseinstellungen man spielt oder auch bencht.
 
Zuletzt bearbeitet:
Richtig. Bei den hochgezüchteten Grafikkarten limitiert die CPU immer. Um den Fehler der CPU so klein wie möglich zu halten und die wahre Performance einer Grafikkarte festzustellen, haben wir für unsere Tests den schnellsten Desktop-Prozessor X6800 auf 3,46 GHz getaktet.
 
Ich bin zufrieden mit meinem E2160 @3,2GHz (auch wenn dieser nur 1024kb L2 Cache hat).

Bringt jedenfalls mehr Leistung als mein alter Pentium D 940 und verbraucht weniger Strom.
 
Zurück
Oben