Test Test: AMD FX-8350 „Vishera“

Und wir reden hier von dem größten FX. Der 6300er, der locker für alles reicht, hat eine maximale TDP von 95W. Und schon ist der Unterschied zu 77W noch kleiner geworden.

Vom Preisunterschied (125€ für den FX, 170€ für einen 3450) ganz zu schweigen.
 
Die Leute Produzieren am Tag nen Haufen Sch......e,regen sich aber über nen Fliegensch...s auf.
@Herdware
Zu1:
Vieles liegt auch an der Umsetzung,wie ich was verpacke.Klar mit intel hast was Kühlung angeht ein paar Vorteile,die aber auf die Temperatur gesehen,schon wieder leicht hinterher hinken,durch den höheren Temperaturbereich.

Zu2:
Naja,die Intel gehen beim OC auch nicht viel höher als die AMD jetzt.Zwischen 4,5-5,5GHz ist doch Ende mit normalen Mitteln.
 
@ MrTengu
Genau wie bei AMD, nutzen auch bei Intel die CPUs nicht allesamt die TDP aus, mit der sie eingestuft sind. Man müsste das also von Fall zu Fall anhand realer Messungen vergleichen. Ich bin angesichts des sehr großen Unterschieds beim FX-8300er, ziemlich sicher, dass auch zwischen einem FX-6300er mit 95W und einem Ivy Bridge mit 77W TDP, meist mehr als nur 20W Differenz liegen.

@ Casi030
Ich würde ausgelesene Temperaturen von Intel und AMD nicht direkt miteinander zu vergleichen.

Die realen Temperaturverhältnisse spiegel sehr wahrscheinlich beide Sensorenwerte nicht wieder, aber bei AMD ist es besonders offensichtlich, dass da etwas nicht stimmt, wenn die mal eben Idle-Temperaturen deutlich unterhalb der Raumtemperatur anzeigen. Da muss offensichtlich noch ein gewisser Offsetwert draufgerechnet werden.
Niemand kann sagen wie groß dieser Wert ist und er ist wahrscheinlich nicht über den gesamten Temperaturbereich linear. Man kann also nicht z.B. auf die in Idle angezeigten z.B. 9° einfach 20° draufrechnen (was dann einen halbwegs plausiblen Wert ergibt) und ebenso bei den unter Last angezeigten 50°.

Solange man nicht die CPU im laufenden Betrieb aufsägt und da irgendwie eine "vertrauenswürdige" kalibrierte Temperatursonde reinquetscht, kann man nur wild spekulieren.
Wie gesagt, für Intel gilt das grundsätzlich ebenso. Aber ich bin ziemlich sicher, dass die bei Intel ausgelesenen Temperaturen weniger weit von der realen Temperatur weg liegen, als bei AMD. Einfach, weil sie gewöhnlich plausibler sind.

Ergänzung zur Übertaktungsspieraum:
Es geht ja nicht nur um GHz-Zahlen, sondenr auch, wie effizient die CPU dabei noch arbeitet. irgendwann wird der exponential steigende Verbrauch doch zu einem realen Problem:
So sieht es beim Zambezi aus:
http://www.tomshardware.com/reviews/bulldozer-efficiency-overclock-undervolt,3083-18.html
So bei Sandy Bridge:
http://www.tomshardware.com/reviews/sandy-bridge-overclocking-efficiency,2850-13.html
Und so bei Ivy Bridge:
http://www.tomshardware.com/reviews/ivy-bridge-overclocking-core-i7-3770k,3198-13.html

Es ist klar zu erkennen, dass die Bulldozer im Standardtakt schon über den "Sweetspot" hinaus getaktet sind, während Sandy Bridge sogar bei maßvollem Overclocking sogar noch effizienter läuft. Intel hat da also deutlich mehr Spielraum nach oben.

Ich denke, mit Vishera wird sich dieses Bild nicht wesentlich ändern.
 
Zuletzt bearbeitet:
MrTengu schrieb:
Vom Preisunterschied (125€ für den FX, 170€ für einen 3450) ganz zu schweigen.

wobei der FX6300 schon fast genau so schnell bei spielen ist wie ein FX8350 :D , hoffe mal das bald noch weitere tests kommen .
 
Herdware schrieb:
@ MrTengu
Genau wie bei AMD, nutzen auch bei Intel die CPUs nicht allesamt die TDP aus, mit der sie eingestuft sind. Man müsste das also von Fall zu Fall anhand realer Messungen vergleichen. Ich bin angesichts dies sehr großen Unterschieds beim FX-8300er, ziemlich sicher, dass auch zwischen einem FX-6300er mit 95W und einem Ivy Bridge mit 77W TDP, meist mehr als nur 20W Differenz liegen.

Das kann durchaus sein. Ich habe da leider keine Messwerte.

Ich mache mir aber echt keinerlei Gedanken um Wattzahlen in diesem Bereich. Das ist ja kein Kühlschrank der laufend läuft.

Eine maximale TDP von 95W ist für mich absolut überzeugend für ein Arbeitstier. Derzeit habe ich 125W (Athlon 64 X2) und selbst das war für mich bisher völlig unrelevant gewesen. Selbst wenn das auf meiner Stromrechnung 1 Euro mehr im Monat ausmachen würde, wäre es mir egal. Denn wenn ich bei CPU Leistungen aufs Geld beim Strom achten muss, habe ich ganz andere Probleme und sollte vielleicht eher zusehen, wie ich zu mehr Geld komme anstatt eine neue CPU zu kaufen, die weniger braucht.
 
Herdware schrieb:
2. Der Verbrauch verrät etwas über das Potential einer CPU/Architektur.

Richtig, aber für jmd. wie mich, der aktuell ein AM3+ Board und evtl. die CPU aufrüsten will zunächst mal uninteressant, auch wenn der Steamroller evtl. noch auf AM3+ kommen wird.

Aktuell würde der FX-8350 in bei mir aktuellen Spielen gegenüber dem 1090T durchaus 20% mehr FPS ermöglichen (Batman Arkham City, Skyrim), auch in FHD. Zusammen mit Windows 8 (siehe Planet 3dnow Test) sogar eine ordentliche Steigerung multithreaded (diese gilt übrigens auch für Intel und HT, da hat Microsoft wohl gute Arbeit geleistet).

Gegen Weihnachten hab ich so 550€ Budget eingeplant, da wären ein FX-8350, eine HD 7950 Boost und Windows 8 Pro Systembuilder wohl drin, von daher ist die CPU sehr interessant für mich.
 
Hab mal Cinebench bei 4,5GHz getestet , den i7 3770K hab ich damit geschlagen .
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    180,1 KB · Aufrufe: 631
@ Quad-core

@ stock hast "ihn" kassiert ... @ 4,5GHz muß sich Vishera noch ein wenig strecken. ^^
dennoch mMn ein beachtliches update & im bereich gaming, kann man nicht mehr sooo klagen.
 
Weil es gestern wohl niemand beantwortet hat frag ich nochmal. :)

Weiß jemand wo der FX 8300 geblieben ist?

GIbts den nur in Komplettrechnern oder ist der ganz aus dem Sortiment geflogen?
 
Seit wann hat denn der I7 3770K 3,2Ghz Standardtakt?
Mit meinem 3770K mache ich die Punkte in Cinebench mit 4,2Ghz und brauche dabei noch die Hälfte an Strom dafür. Mir ist schon bewusst, das der teurer ist. Zahle für den I7 3770K eine Abendessen mit meiner Frau mehr als für den AMD.
 
MikelMolto schrieb:
Seit wann hat denn der I7 3770K 3,2Ghz Standardtakt?
Mit meinem 3770K mache ich die Punkte in Cinebench mit 4,2Ghz und brauche dabei noch die Hälfte an Strom dafür. Mir ist schon bewusst, das der teurer ist. Zahle für den I7 3770K eine Abendessen mit meiner Frau mehr als für den AMD.

Wenn man zum Abendessen pro Person desöfteren 50-60€ ausgeben kann ist der Preis das Prozessors natürlich nebensächlich.
 
Im Gespräch war der 8300 mal mit 3,3 GHz, glaube ich. Bisher hieß es aber immer, das sei nur ein OEM-Prozessor. Vielleicht taucht er ja irgendwann irgendwo auf...
 
Wenn man den Verbrauch mal nur aus finanzieller Sicht betrachtet:

Für ein System was 24h läuft ergibt 1 W Verbrauch bei derzeitigen Strompreisen von 0,25 € einen Jahresbetrag von etwa 2,20 € pro Jahr.
Nutzt man das System nur 8 Stunden pro Tag teilt man den Betrag einfach durch drei und kommt auf rund 0,74 € pro Jahr.

Wo liegen die Verbräuche über den Daumen gepeilt ? Sagen wir mal großzügig 50W über einem vergleichbaren Intel ?
Dann verbraucht die CPU im Jahr rund 37€ mehr Energie. Wie lange man so eine CPU nutzt darf man dann selbst mal entscheiden und gucken was die Ersparnis beim Kauf so beträgt.
 
hardwarekäufer schrieb:
Wenn man den Verbrauch mal nur aus finanzieller Sicht betrachtet:

Für ein System was 24h läuft ergibt 1 W Verbrauch bei derzeitigen Strompreisen von 0,25 € einen Jahresbetrag von etwa 2,20 € pro Jahr.
Nutzt man das System nur 8 Stunden pro Tag teilt man den Betrag einfach durch drei und kommt auf rund 0,74 € pro Jahr.

Wo liegen die Verbräuche über den Daumen gepeilt ? Sagen wir mal großzügig 50W über einem vergleichbaren Intel ?
Dann verbraucht die CPU im Jahr rund 37€ mehr Energie. Wie lange man so eine CPU nutzt darf man dann selbst mal entscheiden und gucken was die Ersparnis beim Kauf so beträgt.

Man muss das noch in Relation setzen zur CPU, die ersetzt wird, sofern es sich um keinen Neukauf handelt. In dem Fall ist der Unterschied vermutlich noch geringer.

Ich sag doch, dieses Herumdiskutiere wegen Stromverbrauch ist einfach nur müßig. Man darf wirklich nicht die blanke TDP Zahl sehen sondern muss realistisch denken. Selbst einem Nerd steht sowas mal ganz gut ;)
 
...und die Rechnung geht pro Tag von einem 8-stündigen Mehrverbrauch von 50 W aus. Da sich ein typischer Computer die meiste Zeit im Leerlauf befindet, wird es in der Realität noch viel, viel weniger sein.
 
Herdware schrieb:
@ Casi030
Ich würde ausgelesene Temperaturen von Intel und AMD nicht direkt miteinander zu vergleichen.

Die realen Temperaturverhältnisse spiegel sehr wahrscheinlich beide Sensorenwerte nicht wieder, aber bei AMD ist es besonders offensichtlich, dass da etwas nicht stimmt, wenn die mal eben Idle-Temperaturen deutlich unterhalb der Raumtemperatur anzeigen. Da muss offensichtlich noch ein gewisser Offsetwert draufgerechnet werden.
Das Problem liegt aber nicht bei AMD,sondern ehr bei den Mainboardherstellern,weil sonst hätte ich nicht mit Einer CPU,Einem Mainbordhersteller GB und 2 Mainbordas + Bios Updates unterschiedliche Temperaturen gehabt.
Wie gut oder Schlecht die bei Intel ausgelesen werden kann ich nicht wirklich sagen.
Aber solange Eine der 2 ausgelesenen Temperaturen beim AMD nach nem Kaltstart min um Raumtemperatur liegt,passt es auch recht gut.
Beim Llano hab ich die CPU unter Windows ohne Kühler gemessen,und die angezeigte CPU Temp stimmte bis auf 1-2°C mehr,mit der gemessen überein.
Aber die Temps sind schon ne Sache für sich,besonders wenn nix an Software/Programmen damit zurecht kommt,oder die Mobo/CPU Hersteller nur Mist machen.....
Bulli wollt ich auch mal Messen,aber noch nicht zu gekommen.

Für deine Links muss ich erst noch Studieren.:D
Das ist mir gerad ein wenig zu durcheinander und zuviel Englisch fürs verwackelte Lesen.;)
 
Zurück
Oben