Vorsicht. Das ist eben stark abhängig von Spiel/Engine und eben auch Anwendungen.Sgt.4dr14n schrieb:Ich würde wahrscheinlich den Brisbane nehmen weil der Cache den MHz-Unterschied nicht rausreißen wird.
Genau das ist der Punkt. Es gab auch damals schon Spiele, die massiv von L2- und sogar L3-Cache profitiert haben (John Carmack anyone?! ^^).conf_t schrieb:Es heißt zwar immer, Spiele würden von viel Cache profitieren, aber immer scheint das ja auch nicht zu stimmen, wie und die aktuellen Cachemonster AMD lehren.
Letztlich jedoch, wenn es hier wirklich nur ums Spielen geht:
Es ist VOLLKOMMEN egal, welche der beiden CPUs eingesetzt wird, da unterm Strich beide im GPU-Limit der jeweiligen Spiele hängen werden. Kein Spiel aus "dieser Zeit" hätte ein CPU-Limit mit den beiden genannten Prozessoren und kein Spiel (egal aus welcher Zeit) sollte bei drölftrillionen FPS gespielt werden.
Wenn also ein Röhrenmonitor eingesetzt wird, sollte man schauen, je nach Monitor, auf 75-100 Hz zu syncen (je nach dem, wie viel Hertz der Monitor bei der gewünschten Auflösung schafft). Bei LCD-Bildschirm ist das ganze ja noch klarer eingeschnürt.
Ich würde hier eher die CPU wählen, die sich einfacher kühlen lässt und im echten Betrieb dann tatsächlich weniger Abwärme produziert. Vermutlich ist das die 65 Nanometer-Variante.
Welche Grafikkarte auf welchem Mainboard kommt denn zum Einsatz? Und mit welchem RAM? Und was genau soll mit dem System gespielt/gemacht/getan werden?
So "retro" finde ich den Athlon X2 eigentlich gar nicht... es gibt ja so gut wie kaum Spiele, die "nur" auf einer solchen Maschine (Windows XP) laufen, auf einem modernen PC aber nicht. Für Windows ohne NT-Kernel (also 9x) wäre das System wiederum VIEL zu schnell. Vermutlich lauffähig mit Windows 98 (SE), aber absolut overkill und nicht wirklich passend.