News Drei neue Phenom-X4-Prozessoren von AMD

Ich finde dass einfach ein 4-Kern-Prozessor kein Diskussion wert ist, im privaten Heimbereich. Bei Unternehmen, wo Applikationen ständig laufen und das auf hoher Last, mit virtuellen Maschinen entsprechend der Systemlandschaft gut skaliert und ausgelastet, dann sind diese Prozessoren exzellent. Zuhause reicht eine CPU mit einem Kern. Okay, zum Kompilieren und Spielen eine CPU mit zwei Kernen. Aber wer - auch die Edel-Zocker - benötigt eine CPU mit 4 Kernen. Holt euch dann einfach einen E8400 und alles ist in der Reih' :o
 
Matze_Pukem schrieb:
was amd da rausgebracht hat is echt ein witz und das bei den heutigen energiekosten ... nein danke @ amd

... sorry - aber das Einzige, was hier ein Witz ist, ist dein Kommentar! :evillol:

Über heutige Energiekosten zu sinieren ist ja ganz O.K. - aber in Anbetracht deiner Sig halte ich deine Aussage für blinden Aktionismus ... ;)
 
Bitte kein gebashe und geflame:
Die einen wollen Stromsparen, die anderen OCen. Die Stromsparer sind auch meistens HTPCler, die erstens ein kühles und zweitens leises System haben möchten. Wieder eine Vorraussetzung zum guten OCen.
Beides läuft auf das selbe hinaus. Leckströme, Spannung (Vcore) und Wärmeentwicklung. Zwei Seiten einer Medaille.
Also bitte vorher darüber nachdenken, warum das Thema von beiden Seiten angegangen wird.

Die TDP-Angabe kann man nehmen wie man will, die Temperaturmessungen und der Stromverbrauch sind aber die relevanten Fakten, mit denen der Endverbraucher auch etwas anfangen kann.

Zum TDP Problem zurück: Einige meinten nun, die Behauptung liege fern, dass Seiten wie Anandtech falsch messen oder nur auf Engineering-Samples setzten. Diese Leute haben mich falsch verstanden. Mir geht es darum, dass man nicht nur eine Messung bzw. einer CPU vertrauen sollte. Man weiss eben nicht, wie groß die Streubreite ist. Insbesondere von Produktionsstandord und Charge zu Charge kann sich einiges ändern. Das sollte jeder wissen. Statistiken werden nur duch Erfahrung und mehreren unabhängigen Quellen glaubwürdiger. Besonders bei "Ausreißern" wie dem 9850 und 9950 Vergleich muss man schauen, ob sich dies auch durchgängig in der Praxis so zeigt.

Deswegen kann ich Unyus Hardtechs4U Behauptung auch nicht für richtig erklären. Denn es könnte theoretisch immer eine sehr schlechte CPU verkauft werden, die tatsächlich 65 oder mehr Watt im Load verbraucht. Realistisch gesehen ist das völliger Quatsch, doch wenn Intel auf einmal erhebliche Produktionsprobleme bekäme, würden sie uns wahrscheinlich auch solche CPUs als E4300 unterschieben. Es ist also festzustellen, dass die TDP-Angabe für den Endverbraucher nur hinweisgebend sein kann, ob bei AMD oder Intel.
--> Warum wir über die 140 W TDP der AMD-CPUs lästern ist einfach aus den schlechten Erfahrungen mit den Phenoms zu entnehmen. Theoretisch hätte es eine super CPU sein können, nur praktisch spiegelt die TDP-Angabe den tatsächlichen maximalen Verbrauch relativ gut wieder. Die meisten Intel-CPUs haben trotzt der "geschönten" TDP-Angabe (Mittelwert nicht Maximalwert) eben doch einen geringeren Idle als auch Lastverbrauch und die Leckströme sind so gering, dass OCen kaum zu einem Problem wird.
 
Lasst doch den 140W brauchen, ihr mit euren 1000W Netzteilen vertragt den locker, mein Gott, ob er jetzt 20 Watt mehr braucht ist dann auch nicht mehr die Welt. Geilt euch halt an den 20 Watt auf, echt krank der Ketteneffekt im Forum, jeder labert dasselbe.

PS: Jede Graka braucht mehr und es gibt cool and quite da hält der sich auch bei 80 -90 watt
 
Ich verstehe gar nicht, warum über die 9150 / 9350 gelästert wird. Bei 4 Kernen einen Verbrauch von 65W ist doch vollkommen ok. Warum sollen diese nicht zum spielen geeignet sein. Ich habe jetzt einen AMD Athlon 64 x2 3800+ mit einer TDP von 89 W (S939) und 1,8 GHz. Hiermit kann ich getrost noch alle Spiele spielen, zwar nicht High End mit einer Auflösung von 1680 und höher, aber ich habe sowieso nur einen 19" der dieses auch nicht schafft. Also was soll der Schmarn mit Schleich-CPU. Wenn eine CPU mit neuerer Architektur, 4 Kernen wahlweisee 1,8 / 2 GHz und 65W auf den Markt kommt, bin ich mir sicher, dass damit gespielt werden kann. Immerhin werden die zukünftigen Spiele ja auch für Mulit-CPU-Kerne ausgelegt. Definitiv eine gute Investition.

Gruß
 
Oh man diese Kommentare von einigen, klar sind 140W TDP zuviel, aber die Leute die sich darüber aufregen haben meist selber 2 total Krasse Stromfresser Nvidia Grafikkarten im PC und heulen dann rum.

Der Nehalem wird auch 130W TDP haben!!!! Gewöhnt euch schonmal dran... Das gute ist wenigstens das AMD die wahren Werte angibt und nicht wie Intel nur die "maximalen Durchschnittswerte"
 
@ MixMasterMike

Tja aber so ist das bei den Inteljüngern eben.... es muss doch einfach immer u immer
wieder erwähnt werden, das AMD grottige Prozzis bauen, die doof, langsam, scheisse
sind u stinken!!

Weil wie soll man denn sonst erreichen das Intel irgendwann eine
Monopolstellung haben und vllt. mal eben 600€ für eine Mittelklasse-CPU
verlangen werden? Ich meine, AMD muss schliesslich von der Bildfläche verschwinden, weil
Intel ist eben besser, dicker, breiter, gesünder und Kinderfreundlich :D

Wir werden bald ganz andere erhebliche Probleme haben als der Schwanzlängevergleich
unter Prozessoren.... und dann ist "sich aufregen" auch angebracht ;)


so long
 
Ich kann mich nur wiederholen! Ich brauche mir nur die Signaturen anzuschauen und breche bei den Stromspardiskussionen laut lachend zusammen.

Übertakten bedeutet auch u.U. höheren Stromverbrauch, also was soll die Diskussion.

Und der "krasse Unterschied" sieht man nur in Benchmarks, keiner von Euch würde, wenn nur der Monitor zu sehen ist, feststellen können ob ein AMD Rechner oder Intel-Rechner unter dem Tisch den berechnet oder das Spiel.

Aber der virtuelle Schwanzvergleich muss anscheinend sein bei den Kiddies.
 
@ Matze_Pukem:

Bei deinem Mainboard hätte man auch gut Strom sparen können in dem man ein anderes gewählt hätte...
 
So ist es.

Ich rege mich ebenfalls über den neuen Phenom oder die bekannten, stromhungrigen Xeons nicht auf. Wozu, wenn ich auch woanders effizienter sparen kann.

Meinen Spiele PC samt drei Radeons und einem übertakteten Phenom lasse ich nur Abends nach der Arbeit an und lasse den Tag mit wenigen Partien CoH oder CoD ausklingen...

Wer im PC Bereich Energiekosten senken will, greift eh nicht zum Quad Core. Aber naja immer erstmal meckern und AMD schlecht reden. Das könnt ihr gut...
 
Ich find's schade, dass einige hier nicht verstehen wollen, dass 140 Watt TDP fast schon eine Unverschämtheit sind - und das damit argumentieren, dass man sowieso ne fette Grafikkarte hat, die CPU übertaktet, den Kühlschrank offen lässt und dann wird ncoh eine sinnfreie Diskussion über den TDP geführt. Manno, geht's noch stereotypischer?

1. Es ist egal, wo man mit der Energieverschwendung anfängt und wie klein die Schritt auch sind. Es ist auch egal, ob mich die Ersparnis nur ein paar Euro im Monat kostet. Fakt ist, dass wir mit den Resourcen sparsam umgehen müssen.

2. Schaut euch doch mal Leistungsaufnahme eines X4 9850 bei 2,5 GHz im CB-Test an! Das sind fast 40% mehr wie ein Q9450 bei ähnlichen 2,67 GHz. Und der ist noch 25% schneller! Selbst ein QX9770 mit 3,20 GHz verbraucht 25% weniger und ist über 40% schneller. Ganz zu schweigen von einem spieletauglichen E8400, der gut 1/3 weniger Leistungsaufnahme hat und immer noch schneller ist. Da könnt ihr eure TDP-Definitionen nämlich im hintersten Internet lassen - oder glaubt ihr den Zahlen von CB nicht?

3. Nicht jeder, der hier auf den 140 Watt TDP einschimpft ist ein Stromverschwender vom Herrn - und ich bin der festen Überzeugung, dass es sogar die meisten sind. Mein E8400 ist undervoltet @ Default 3 GHz und als Grafikkarte werkelt eine 9600 GT, weil die unter Last weniger Strom zieht, als einer 3850 oder gar 3750 - was damals die Alternativen waren. Und ich hab mir die nicht geholt, weil ich eine preiswerte brauchte, sondern weil ich eine mit einem guten guten Verhältnis zwischen Leistung und Leistungsaufnahme gesucht habe. - Will sagen: Es gibt viele Leute, die dankbarer Weise darauf achten, wieviel ihre Elektronik zieht. Und bevor einer kommt: Ja, mein PC läuft nicht die Nacht durch, ich mache ihn aus, wenn ich ihn nicht brauche. Ich hab sogar Steckdosen-Schalter, so dass es keinen Standby-Verbrauch gibt und - ja - ich benutze auch Energiesparlampen.

Das hat ja nichts mit AMD-Bashing zu tun. Im Gegenteil. Ich hab jahrelang AMD-CPUs gehabt, seit meinem Am386DX 40 MHz über den K6, Athlon XP bis hin zum Athlon 64. Jetzt musste es ein Intel sein, weil ich bei AMD in nächster Zeit (also in der ich nicht aufrüste) nichts am Horizont sehe. Auch: Ich hab natürlich vor kurzem erst eine AMD-CPU gekauft! Nämlich einen BE2350 mit 45 Watt TDP für meinen HTPC. Super Teil! Es geht also. Aber der Phenom ist einfach schlecht im Vergleich zu Intel - und auch das AMD Management seit der Fusion mit ATI. ATI, im selben Haus (Knowhow ist also da!), macht alles richtig - mit der 3000-Reihe angefangen und mit der neuen 4000er erst recht. Der Phenom ist "Mithalten at all cost". Und das merkt man einfach.

AMD soll - genauso wie Nvidia mit ihrem GT200 - mal völlig gegen die Wand fahren. Soviel Missmanagement und Missplanung und Unverständnis über den Marktwünschen und soviel Arroganz des Management gegenüber den Entwicklern muss und wird bestraft. Und wie gesagt, das hat nichts mit Stereotypen zu tun, nichts mit Fanboy, nichts mit Doch-Böse. Rational kann man die Boliden einfach nicht für gut befinden - meine (möglichst objektive) Meinung. :)
 
Ja TDP hin oder her - der Aufwand für eine ordentliche Kühlung ist grösser als bei Intel:(
Wenn ich nun den Quad bräuchte, würde mich verglichen meinem jetzigen Prozzi die max. mögliche Leistung auch nicht schrecken -aber weniger Verbrauch kann nicht schlecht sein - dehalb warten auf 45nm.
Die Prozzis sollen ja sowohl DDR2@AM2+ oder DDR3@AM3 können -und da denke ich wenn
der Speicher mit weniger Takt läuft spart das auch ein paar Watt:evillol:
Wenn AMD diesmal auch keinen Leistungsschub bringt, zumindest mit den Intels gleichzieht,
dann wars`das - die zwingen einen richtig Intel zu kaufen -schon wegen o.c.:D
 
Phenom energieverschwender?

siehe sig...

hauptsache überhardware labern die man eh nicht hat und vom hörensagen kennt ;)
 
An die Leute die glauben die TDP die Intel angibt wäre nur ein „Mittelwert“, „maximaler Mittelwert“, „mittel aus Idle und Last“ oder Ähnliches. Ihr glaubt doch nicht ernsthaft irgendein Core2- Prozessor würde die spezifizierte TDP erreichen. Schaut euch mal entsprechende Messungen verschiedener Seiten an. Aber wer gern Müll verzapft wirds weiter tun.

Und was soll dieses „bei AMD ist der Memmorycontroller in die CPU integriert“ Gelabere?
Der macht in der SB auch keine 15Watt aus und wird im Nehalem auch nicht mit mehr als 10Watt zu Buche schlagen. Beide Werte sollten deutlich darunter liegen.
Aber netter Aufhänger seitens euch AMD- Jünger, den Strombedarf der C2Duo, Quad schlecht zu reden bzw. den vergleichsweise höheren Verbrauch der Phenom zu rechtfertigen. Bei Leistung pro Watt steht die Core2- Baureihe, wohl oder übel, besser da.
 
Leon schrieb:
ICh finds soo geil, 2 GTX im Rechner haben und sich aufregen wegen 140 Watt. Lächerlich.

Lol, genau das dachte ich mir auch. Soviele leute die dicke schrottvidia karten kaufen und damit mehrere kraftwerke zum schwitzen bringen /ironie off ;) , heulen jetzt wegen lächerlichen 140 watt. Oder haben jetzt einfach alle lust amd down zu machen? Hauptsache mal was negatives gepostet ne.
 
Was hat sich groß geändert , wieder stromfresser und kaum Mainboards die es fressen, ich bin froh endlich
von AMD loßzusein, ich habe mir mit dem 125 Fresser ein Mainboard zerschossen obwohl es angeblich das
Teil supportet, und das reicht mir fürs erste. AMD ist scheinbar nicht in der Lage Licht ins dunke zu bringen
und CPU´s zu bringen die mit einer normalen Leistung auskommen und einwandfrei funzen.
 
mav82 schrieb:
An die Leute die glauben die TDP die Intel angibt wäre nur ein „Mittelwert“, „maximaler Mittelwert“, „mittel aus Idle und Last“ oder Ähnliches. Ihr glaubt doch nicht ernsthaft irgendein Core2- Prozessor würde die spezifizierte TDP erreichen. Schaut euch mal entsprechende Messungen verschiedener Seiten an. Aber wer gern Müll verzapft wirds weiter tun.

http://www.theinquirer.net/en/inquirer/news/2006/06/23/amd-and-intel-power-fud-doesnt-add-up
To make matters more confusing, both companies measure TDP in a different way, oh joy. AMD measures it as the maximum power that a CPU can possibly draw while Intel calls TDP the maximum you are likely to see sustained. One Intel TDP ~= .85 AMD TDP. To correct for this, AMD bumps up the Intel numbers to max draw.

ob es stimmt sei dahingestellt. bei heise gab es glaube ich auch mal einen beitrag dazu, bin aber zu faul zum suchen im moment. ^^
 
@mumpel

Was Du schreibst ist grundsätzlich richtig, zeigt aber auch, daß es eigentlich nur ein Lippenbekenntis ist - was das Stromsparen angeht. Wenn man wirklich Strom sparen will, würde man seinen PC erst aufrüsten, wenn es absolut notwendig wäre, denn die Produktion eines neuen Prozessors verbraucht so viel Strom wie ein P4 mit 120W bei täglicher 100%iger Auslastung für jeweils 6h in 10 Jahren (!) nicht verbrauchen würde.

Insofern ist das ganze Stromspargeschwätz nur ein Trick, um den Konsum anzukurppeln. Also wer wirklich was für die Umwelt tun will, begnügt sich noch ein paar Jahre länger mit seinen alten Komponenten.
 
Zuletzt bearbeitet:
Um hier mal ein bisschen Holz ins Feuer zu werfen, ich denke nur an die guten alten Netburst-Zeiten von Intel. Zu den damaligen Verhältnissen war das auch ein Unding und hier haben wurden sich auch die Mäuler wund geredet und Intel rund gemacht. Es wurde anscheinend daraus gelernt und AMD wird es auch tun. Diese 140W TDP Prozessoren sind eh nicht für den Mainstream-Markt konzipiert. Ich rechne nicht damit, dass AMD diese in großen Stückzahlen liefern wird.
 
Zuletzt bearbeitet:
Was ich nicht verstehe- da steht ein 2.0GHz x4 sei nicht ausreichend für Spiele. Ich habe einen Einkern mit 2.4GHz- und der langt dicke. Warum?
 
Zurück
Oben