News Im Test vor 15 Jahren: Athlon 64 3000+ halbierte Preis bei gleicher Leistung

Ohja geile CPUs waren das. Hatte selbst zwar "nur" einen XP 3000+, nie einen 64er, aber viel Unterschied war da ja nicht in der Leistung. Und mehr gebraucht hab ich lange Zeit nicht, da ich praktisch 99% der Zeit Warcraft3 darauf gezockt habe (und das lief auch schon auf deutlich langsamerer Hardware prima).
 
Der Sockel A war verdammt langlebig. Das wollte AMD nicht mehr wiederholen, da sie anfingen, eigene Chipsätze zu verkaufen.
Beim Sockel A wurden sie von VIA, ALI, Nvidia, SiS (mehr fallen mir nicht ein) am Leben gehalten. Die machen heute alle keine Chipsätze für AMD mehr.
 
habichtfreak schrieb:
Eine absolut undurchsichtige Zeit damals was die CPUs von AMD angeht. Athlon 64 3200+ als Handelsname gab es wie oft? Ich zähle mal:

1. Sockel 754 Newcastle
2. Sockel 754 Clawhammer
3. Sockel 754 Venice
4. Sockel 939 Newcastle
5. Sockel 939 Venice
6. Sockel 939 Winchester
7. Sockel 939 Manchester
8. Sockel AM2 Orleans
9. Sockel AM2 Lima

Wahrscheinlich hab ich noch welche vergessen.

Immerhin konnte man damals als 939 abgeschafft werden sollte sehr günstig aufrüsten. Hatte einen 3700+ (San Diego) und für 40 Euro (NEU) einen 3800+ mit zwei Kernen bekommen.
Na, soo undurchsichtig wars eigentlich nicht.

AMD hatte damals ein durchaus nachvollziehbares Namensschema. Statt durch die Bezeichnung den Innenaufbau hinsicxhtlich Architektur, Taktrate etc. eindeutig zu bennennen (der 95% der Kundschaft eh soviel interessiert, wie die neueste Schneemeldung aus Kanada) , benannte man die Leistung des Prozessors ("Performance-Rating") gemessen an den Intel-Prozessoren, die damals noch viel eigenes Werbe-Geld und noch erheblich mehr illegales Schmiergeld an Einzelhandelsketten und OEMs investierten, um mit ihren "echten Gigahertz" bei den Pentium-4-Heizgeräten (Netburst-Architektur) beim Kunden den Endruck zu verfestigen, daß nur tatsächliche Taktraten das Wahre seien. Dieser Markt-Macht konnte AMD seine eigenen CPU-Taktraten schlecht entgegenstellen, waren diese doch bei gleichstarken und stärkeren Prozessoren erheblich niedriger als die von Intel.

Also Folge gabs dann eben auch relativ gleichschnelle CPUs für verschiedene Sockel (in deinem Beispiel 3), die demzufolge das gleiche "Performnance-Rating" als Namen erhielten


deo schrieb:
Der Sockel A war verdammt langlebig. Das wollte AMD nicht mehr wiederholen, da sie anfingen, eigene Chipsätze zu verkaufen.
Beim Sockel A wurden sie von VIA, ALI, Nvidia, SiS (mehr fallen mir nicht ein) am Leben gehalten. Die machen heute alle keine Chipsätze für AMD mehr.
Das fehlt Ati. Die hat AMD damals ja nicht hauptsächlich wegen der Grafiksparte gekauft, sondern eben wegen der Chipsätze.

Aber der Sockel allein machts ja nicht. So wie auch bei Intel der 775 sehr lange lebte - aber mit jedem Architekturwechsel auch neue Boards fällig waren, weil eben die alten Chipsätze zu den neuen Prozessoren ebenso inkompatibel waren die wie neuen Chipsätze zu den alten Prozessoren.

So wars auch beim Sockel A, der ja mehrere Entwikcklungsschritte bei der RAM-Anbindung (100, 133, 166, 200 MHz, DDR-RAM ...) mitmachte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
Soweit ich das noch richtig in Erinnerung habe, hat Intel damit angefangen, das andere keine Chipsätze mehr anbieten dürfen.
Bei AMD hat es mit der Übernahme von ATI angefangen, das kein Interesse mehr da ist, bei den Marktanteilen.
 
Sternengucker80 schrieb:
Soweit ich das noch richtig in Erinnerung habe, hat Intel damit angefangen, das andere keine Chipsätze mehr anbieten dürfen.
Bei AMD hat es mit der Übernahme von ATI angefangen, das kein Interesse mehr da ist, bei den Marktanteilen.
Och, die durften schon! Um aber die maximale Systemleistung herauszuholen, mußten die Chipsätze ja auf die Prozessoren maßgeschneidert sein. Und da erst Intel und dann AMD die Konkurrenten einfach nicht mehr mit genügend technischen Details versorgten, ließ die Leistung der alternativen Chipsätze im Vergleich zu den eigenen schnell nach.

Endgültig Schluß war dann mit der Verlegung der Northbridge (RAM-Controller) in die CPU.
 
  • Gefällt mir
Reaktionen: EntelodonX
Botcruscher schrieb:
Ja damals. Später der X2 und danach das ganz große AMD -Loch. Weil für einen" zusammengeklebten" Dual- Dual war man sich zu schade. Gegen C2D und C2Q hat man dann kein Land mehr gesehen. Intel in seiner Zeit der 3% Leistung pro Jahr...
Bei ATI exakt das gleiche. Als NV das den Highend-Chip mit einem günstigeren Performance unterfütterte, war praktisch Feierabend. BD und die totale Unfähigkeit des Managements ab spätesten Hawaii tat ihr übriges.

Ja, die ersten Phenom waren verspätet, man erreichte nicht die erwarteten Taktfrequenzen und hatte, weil man den doch mal auf den Markt bringen musste den TLB bug. Der war für Homeuser zwar uninteressant, aber BIOS fix dafür kostete wieder etwas Leistung.
Erst der überarbeitete Phenom II X4 war besser und taktete höher, kam aber leider deutlich später als die ersten Core 2 Quad cores, die einfach 2 "glued together" 65nm ConroeeCore 2 Duos waren.
Danach gabs bei Intel ja den 45nm Penryn Refresh der Core 2 Duos und Core 2 Quads, mit den Dulcores mit E8000er statt 6000 er Nummern (und im Cache gestutzten E5000er und E7000er) und Quadcores mit Q9000er (und im Cache gestutzten Q8000er).
Dabei lag das Top Modell, Q9650 mit 3GHz von der Leistung ungefähr zwischen einem Phenom II X4 Modell mit 3,2 und einem mit 3,4GHz, hatte also ein bisschen mehr "IPC" als der AMD Chip.
Leider war der Phenom II X4 (und dann gabs auch X2 und X3s) deutlich zu spät und seit damals war AMD immer hinter Intel, Zeit und Leistungsmäßig. Als die ersten Core i CPUs (i5-750, i7-860 usw) kamen, hatte AMD nix neues. Die werkelten da an den Bulldozern, die statt Hyperthreading was nur sowieso vorhandene Einheiten der CPU besser auslasten sollte, "echtes" Hardware Hyperthreading bieten sollten. Mit einfach einem Integer Core zusätzlich zu dem bisher üblichen 1 int + 1 fpu was als 1 Kern gesehen wurde (oder einfach die Anzahl an int cores).
Damit waren es dann 2 int + 1 fpu, vs bisher nur 1 int + 1 fpu. AMD nannte das dann halt "Modul".

Und seit damals gibts die Diskussion ob die CPUs wie zB der FX-8150/8350 ein "echter" 8 Kerner sei, oder ein "Fake" Achtkerner, etc. Analog FX-6300 mit deren 3 Modulen und 6 int cores.
Jahrelang musste man sich diese Duskussion anhören und unterschiedlichen Quark ertragen (lesen und hören).

So, genug der Geschichtsstunde. Falls jemand einen Fehler findet, mich gerne ausbessern, habe aus dem Gedächtnis geschrieben. Die genauen Releasedaten der jeweiligen CPUs habe ich nicht extra nachgesehen.
MfG
 
  • Gefällt mir
Reaktionen: NMA
Der RAM Controller war ja schon in den ersten A64. Daran kann es nicht gelegen haben.
AMD lässt Chipsätze machen. Die kommen nicht direkt von ATI/RTG.
Bei AMD war das größere Problem SLI/ CF.
Entweder ATI oder NV.
VIA, ALI, dürfen keins von beiden. Heute ist es uninteressant. Weder ob CF oder SLI gehen beide, aber der Nutzen bringt kaum was.
 
Zuletzt bearbeitet:
Du vergißt, daß damals auch noch die "Southbridge" mit PCI/PCIe-Controller und die IGP Teil der Chipsätze waren. Und diese hat AMD mit dem Kauf von Ati mit übernommen.

Und ja, AMD "läßt" seine Chipsätze heute machen. So wie inzwischen auch die CPUs. Die Entwicklung lag damals aber noch bei AMD/Ati. Heute natürlich sitzt fast der gesamte Chipsatz in der CPU (RAM-Controller, IGP, PCIe-Controller, inzwischen sogar SATA und USB), so daß der "Rest-Chip" auf dem Board, der heute als "Chipsatz" bezeichnet wird, eigentlich nur noch ein besserer I/O-Controller ist, in dem noch ein paar zusätzliche SATA, eventuell PCIe und USBs sitzen.
 
Raucherdackel! schrieb:
Heutzutage sieht es anders aus: AMD hat Intel schon seit über einem Jahr in Anwendungen überflügelt - interessiert aber die geneigte Leserschaft nicht, da die ... genau wie damals nur Interesse an der Spieleleistung haben.

Liegt wahrscheinlich daran, dass bei Spielen Leistungseinbußen - egal ob CPU oder GPU - am ehesten störend auffallen. Framedrops bzw. generell niedrige FPS haben eben unmittelbare Auswirkungen auf das Spieleerlebnis. Ob ein Video jetzt 10 Minuten schneller oder langsamer transkodiert wird, fällt im Consumerbereich nicht so stark ins Gewicht.
 
Zuletzt bearbeitet:
Nein, das "r" fehlt nicht. Denn der Athlon 64 3000+ >halbierte< den Preis. Also der Preis wurde von der CPU halbiert. Alles richtig. ;)
 
Ich habe den Athlon 64 3000+ sogar immer noch hier liegen, der erste war eine OC Krücke der zweite ging wenigstens bis zu 2,4Ghz.......

Hier ist noch der Untersatz für den 64iger und dessen Nachfolger
AlteMainboards....JPG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LETNI77
Zu der Zeit, halbierte sich höchstens mein Kontostand, da ich immerwieder auf die Idee kam, im Arlt und Co. mich umzuschauen. 🤣😁
Zu der Zeit, wurden auch noch gescheite Kühler auf die Mobos gemacht.
 
Zuletzt bearbeitet:
Balikon schrieb:
Liegt wahrscheinlich daran, dass bei Spielen Leistungseinbußen - egal ob CPU oder GPU - am ehesten störend auffallen. Framedrops bzw. generell niedrige FPS haben eben unmittelbare Auswirkungen auf das Spieleerlebnis. Ob ein Video jetzt 10 Minuten schneller oder langsamer transkodiert wird, fällt im Consumerbereich nicht so stark ins Gewicht.
Naja, bei normalen Settings gabs damals schon keine Einbußen in Spielen, und jetzt ist es wieder so dass der theoretische Leistungsunterschied praktisch gleich null ist.

konkretor schrieb:
Uli und ATI Chipsätze gab's auch noch
Der große ATI Chipsatz für S939 war klasse. Auf dem ASUS A8R32-MVP Deluxe war das DIE OC Plattform schlechthin. Hatte nur den Bug, dass Frequenzen zwischen 230 und 240 instabil waren, aber dafür der Takt darüber sehr stabil lief. Also Multi runter, Baseclock hoch. Ich hab mir mittlerweile wieder so ein System gebaut, mit Opteron 180 und zwei HD3870 X2 im Quad-Crossfire. Saugt fast 1KW aus der Leitung und ist auch beim Nachbarn noch wahrnehmbar^^
 
  • Gefällt mir
Reaktionen: kryzs und konkretor
DellTree schrieb:
Athlon 64 - tja, der gute :love:

Mh, damals machte er den Pentium4 nieder

Wo macht er denn den P4 nieder außer bei Games? Kann ich aus den Benchmarks nicht ersehen.
Habe mir damals bewußt einen P4 3,2 geholt anstatt eines A64 weil das System dank HT deutlich flüssiger lief.
 
Zurück
Oben