News Im Test vor 15 Jahren: AMDs Phenom X4 9850 war heiß, langsam und günstig

Ich bin vom X2 6400BE auf den PH9850 gewechselt. Hatte ihn günstig bekommen. Ich war zufrieden mit ihm. Der lief bei mir mit 3200MHz. Das schönste war immer, das ich zich CPU´s auf dem gleichen Board habe nutzen können. Einmal AM2 gekauft und vom Athlon x2 3800- zum PH II 1090T, zich CPU´s verbaut. War auch schon zu Sockel A, 754/939, AM2/3 und jetzt AM4 so.
Mein MSI x370, hat auch schon einige gesehen. Ryzen 1700+/ 2400/3400G, 2700x und jetzt den 5800X3D. Einfach schön, wenn man nur die CPU tauschen muss. Mainboard´s, kaufe ich meist nur aus Lust zum Basteln, nicht weil ich es bräuchte:daumen:, oder zum Start, neuer Ram Generationen.
 
  • Gefällt mir
Reaktionen: Mcr-King
itsommer schrieb:
Trotz Black Edition konnte man Overclocking komplett vergessen. 😁
Von der CPU her ging nicht viel, Aber bei AMD hast du locker 50% an Leistung gewinnen können durch NB und Speicher OC. Natürlich brauchte man da immer gute Speicher und Bretter die das mit machten.
 
  • Gefällt mir
Reaktionen: Mcr-King
4nanai schrieb:
Mit Core2Duos hat Intel eine Dominanz eingeläutet, die mehr als ein Jahrzehnt andauerte.
Ich weiß noch, als viele sich den großen Befreiungsschlag mit Bulldozer erhofft hatten. Unglaublich hohe Anzahl an Transistoren, viele Kerne.. Was daraus geworden ist, wissen wir alle.
Habe beim Erscheinen des Bulldozer in einem Computern-Shop gearbeitet.
Alle dort dachten, dass AMD es endlich wieder packt zu Intel aufzuschließen.
Nach den Benchmarks waren die Gesichter lang und wir haben auf der Arbeit weiter Skyrim gezockt 🤣
 
  • Gefällt mir
Reaktionen: 4nanai und His.Instance
mcdexter schrieb:
Habe beim Erscheinen des Bulldozer in einem Computern-Shop gearbeitet.
Alle dort dachten, dass AMD es endlich wieder packt zu Intel aufzuschließen.
Wobei ich das nicht nachvollziehen kann. Das zentrale Konzept von Bulldozer, CMT2, ist ziemlich meschugge!
CDLABSRadonP... schrieb:
Nein. Das Konzept von Bulldozer wird heutzutage aus gutem Grund nicht verwendet. Es war schon damals ziemlich Banane. Hier mal ein viel älteres (und ziemlich ausuferndes) Posting von mir dazu:

https://extreme.pcgameshardware.de/...d-auch-x370-motherboards.461274/#post-8578870
Ich versuche es noch einmal knapp zu formulieren:
Die Grundidee von Bulldozer (im INT-Bereich) ist CMT2: Ein Modul kann sich zusammenschalten und einen Thread schneller bearbeiten oder aufteilen und dann zwei Threads normal schnell bearbeiten. So etwas ist nicht erst in der Praxis, sondern bereits in der Theorie zu unflexibel: Wird ein Modul mit einem wichtigen und einem unwichtigen Thread gefüttert, dann steht es sich bereits selbst im Wege. Zusammenschalten oder aufspalten, beides ist schlecht. SMT arbeitet dort einfach viel flexibler. Ein CMT mit höherer Ordnung, also z.B: CMT4, sprich ein Modul, das bis zu vier Threads bearbeiten könnte, würde diese Schwäche ausgleichen können, sofern es sich assymmetrisch teilen lassen würde. (also drei Viertel des Moduls setzen sich an Thread 1 und ein Viertel an Thread 2)
Natürlich hätte Zambezi auch trotz dieser dummen Idee ein toller Prozessor werden können, das will ich gar nicht in Abrede stellen. Aber die Chance war entsprechend gering...
mcdexter schrieb:
Nach den Benchmarks waren die Gesichter lang und wir haben auf der Arbeit weiter Skyrim gezockt 🤣
Weiter Skyrim? Erstmals Skyrim! Zambezi erschien einen Monat früher.
 
CDLABSRadonP... schrieb:
Wobei ich das nicht nachvollziehen kann. Das zentrale Konzept von Bulldozer, CMT2, ist ziemlich meschugge!
Aus heutiger Sicht ja, nur waren die Erwartungen ja nicht nur bei uns im Shop hoch, sondern weltweit.
 
SFFox schrieb:
Die Generation habe ich zum Glück ausgelassen. Von einem AM2 Athlon X2 5000 ging es irgendwann zu einem Phenom II X4 955 Black Edition. Der musste dann auch wirklich lange her halten und hat ausreichend gute Dienste verrichtet bis ich auf einen Xeon E3-1231v3 aufgerüstet und das Lager gewechselt haben.

Same here. Vom Phenom II X4 945 auf den E3-1230v3 gewechselt. Der Leistungssprung zum Intel System war trotz identischer Kernzahl schon brutal, wobei der Phenom II noch lange Zeit als Bürorechner gedient hat.
 
  • Gefällt mir
Reaktionen: SFFox
aus der Zeit kann ich mich nur noch an den X3 also Dreikerner erinnern den ich erfolgreich zu nem X4 Vierkerner gemacht habe 😁 wie schnell die Zeit vergeht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ob es einem die Mehrkosten für einen Intel Prozessor wert waren, das musste jeder Nutzer abhängig vom Anwendungszweck und Budget selbst entscheiden.
Das ist auch heute noch so?

Editiert doch sowas bitte raus.
 
Tsu schrieb:
Das ist auch heute noch so?
Nein, das ist heute nicht mehr so, da wir aktuell eine vollkommen andere Grundsituation haben. Raphael und RaptorLake-S sind anders ausgelegt, aber unterm Strich etwa gleichwertig, doch Raphael-X ist RaptorLake-S etwa eine Generation voraus. Gleichzeitig ist ein 13900K aber auch der günstigere und nicht etwa der teurere Prozessor als ein 7950X3D. Nur der unnütze KS ist teurer als der 7950X3D.
Mit dem damaligen Duell hat das so ziemlich gar nichts mehr zu tun. Hiervon...
Ob es einem die Mehrkosten für einen Intel Prozessor wert waren, das musste jeder Nutzer abhängig vom Anwendungszweck und Budget selbst entscheiden.
...basiert aber eben einiges auf ebendiesem damaligen Duell!

Tsu schrieb:
Editiert doch sowas bitte raus.
Das Fazit stammt nicht aus dem alten Text, sondern ist für Im Test vor 15 Jahren neu verfasst worden.
 
  • Gefällt mir
Reaktionen: Mcr-King
Meine erste K10 basierte CPU war der AMD Athlon X2 7850 Black Edition .
Dessen Kerne basierten noch auf Phenom 1 Architektur, dementsprechend lies er sich trotz offenen Multiplikator bescheiden übertakten. 3,0 Ghz war mit dieser CPU maximal stabil möglich.:evillol:

Der Zugewinn bei dieser CPU lag am zusätzlichen (2MB) L3 Cache den ein normaler Athlon nicht hatte.
Daher taugte er doch gut als günstige Spiele-CPU für Spiele die mit mehr als 2 Kernen/Threats nichts anfangen konnten.
Für mich diente diese CPU damals als Überbrückung zum Phenom II 955 BE aber das ist ein anderes Thema.:smokin:




Athlon X2 7850 Black Edition .jpg
 
  • Gefällt mir
Reaktionen: Kommando und Mcr-King
b|ank0r schrieb:
Habe das aber mal zum Anlass genommen und bin meine CPU Historie durchgegangen 😊

Ok, wenn wir dabei sind, hier meine Desktops:

Code:
1993 Intel 486DX2/66
1995 Intel Pentium 133
1998 AMD K6-2 300
1999 AMD K6-2 500 (es lebe die Sockelkopatibilitaet)
2000 AMD Athlon 800 (Thunderbird)
2000 AMD Athlon 1200 (es lebe die Sockelkompatibilitaet)
2003 AMD Athlon 64 3200+ (Clawhammer)
2008 Intel Core 2 Duo E8400
2015 Intel Core i7-6700K
2016 Intel Core i5-6600K (der 6700K war gestorben)
 
  • Gefällt mir
Reaktionen: Mcr-King
RaptorTP schrieb:
Hab jetzt einen Sockel 939 4200+ X2 auf nem AsRock Board ... weil es AGP Karten frisst
Das 939 Dual Sata 2?
Damit konnte ich den ollen 3500+ mit 3 GHz laufen lassen.
Waren das noch Zeiten...
 
  • Gefällt mir
Reaktionen: Mcr-King und RaptorTP
@guggi4 @MalWiederIch

Das Zauberwort beim Idle Verbrauch hieß damals Active Phase Switching.

Wenn das Board das damals unterstützte, wurden im Idle alle Phasen bis auf eine abgeschaltet, um den Verbrauch massiv zu senken.

MSI war damals ein Vorreiter und hat das auch in seine Billig Boards verbaut. (785G Chipsatz)

Btw ist diese Funktion bei AM4 und AM5 zwar impementiert, aber die Boards schalten wesentlich langamer als die CPUs (Run to Idle), was dann darauf rausläuft, dass die Boards nur sehr selten die Phasen wirklich abschalten können.
 
  • Gefällt mir
Reaktionen: Mcr-King und guggi4
Raucherdackel! schrieb:
Active Phase Switching.
Danke, das kannte ich tatsächlich nicht.

Trotzdem kommen mir 70W Unterschied zwischen den zwei Tests schon seltsam vor, aber vielleicht wurde dort mit irgendeiner uralt Grafikkarte ohne großartigen Stromsparmechanismen getestet.

Was ich aber eigenlicht damit sagen wollte: Es ist durchaus möglich, einen Phenom II auf oder gar unter den Idle Verbrauch eines aktuellen Ryzen zu bringen.
 
  • Gefällt mir
Reaktionen: Mcr-King und xXDariusXx
mae schrieb:
Ok, wenn wir dabei sind, hier meine Desktops:
...
Ob ich meine Desktop Historie noch zusammen kriege...

Pentium MMX 120 MHz
AMD K6-2 350MHz
AMD Athlon Thunderbird 1 GHz
AMD Athlon XP 2400+
AMD Athlon XP 2500+@3200+
Athlon 64 3200+ S939
Athlon 64 3700+ S939
Athlon 64 X2 3800+ S939
Athlon 64 X2 5000+ AM2
Phenom II X4 950 BE
Xeon E3-1231V3
Ryzen 7 2700X
Ryzen 9 5900X

In der Athlon 64 Zeit kamen die neuen Kerne richtig flott nacheinander auf den Markt und ich hatte sowohl eine gute Bezugsquelle wie auch gute Abnehmer für meine vorherige CPU. Unterm Strich wurde in dieser Zeit von mir aber recht unnötig aufgerüstet :p
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich bin zu der Zeit bei Intel hängen geblieben. Die kleinen Core 2 Duo waren zu der Zeit unschlagbar.
 
Der Vergleich, mit dem IDE Verbrauch, kann ich nicht ganz verstehen. Bei meinem Home-Server, konnte ich den auf unter 10 Watt drücken, ohne HDD´s, zuerst Sempron, dann Athlon 4850e und zuletzt Phenom X4 EE. Genaue Bezeichnung, weiß ich garn nicht mehr. Der dümmpelte ewig in meinem Terra O. Center, als Homeserver. Glaub, es war ein 9600E, oder so ähnlich?
Ich hab nur, die FX ausgesetzt. Da sie zu meinem 1090T @ ~ 4GHz, keinen Mehrwert hatten. Der FX 6XXX, hatte bei einigen ein Zuhause gefunden. P/L technisch gut und günstig.
Der FX, gegen einen guten PHII X6, der gut übertaktbar war, lohnte sich nicht.
Aber dann kam Ryzen.
 
Nachdem ich seit meinem ersten Eigenbau-PC mit dem AMD K6-2 mit 400MHz, jahrelang immer nur AMD hatte, war es mit der Intel Core Architektur Zeit für mich zu wechseln. Ich hatte etliche AMD CPUs aus der Athlon XP und Athlon 64 Serie und stieg dann auf einen Intel E6300 um. Und bei dem E6300 bin ich ungelogen beim ersten Systemstart gleich ins BIOS und hab den Multiplikator so hochgesetzt, dass die CPU um 1GHz übertaktet war - also von 2,8GHz auf 3,8GHz. Später dann sollte die CPU auch mit 4,3GHz laufen.

Im Winter bei geöffneter Tür, wollte der E6300 im idle sogar mal auf 4°C mit meinem damaligen Zalman CNPS 9500 runter gehen. Diese CPUs waren bis dato unvergleichbar effizient.

Und dann blieb ich lange bei Intel. Meinen i5-2500k hatte ich länger in meinem Haupt-PC als jede andere CPU davor - und wahrscheinlich auch jede andere CPU die ich künftig besitzen werde. Der 2500k überlebte drei Mainboards und ein Netzteil, die vermutlich dem ganzen OC zum Opfer gefallen waren, ehe ich den ganzen Rechner ersetzt und mit dem Ryzen 3700X erstmalig wieder zu AMD gewechselt hatte. Aber auch das ist schon wieder vergleichsweise lange her - aber bei AMD geblieben bin ich trotzdem.
 
Tja und Ende des Jahres 2008 kamen die i7 und AMD sah fast zehn Jahre kein Land mehr. Dem geschuldet hat Intel die Bremse soweit angezogen, dass mein i7 920 mit 3,6+ GHz auf seinen vier Kernen bis 2015/16 noch sehr passabel da stand.
 
  • Gefällt mir
Reaktionen: b|ank0r
Zurück
Oben