News AMD stellt FX-4350 und FX-6350 auf Vishera-Basis vor

@ Herdware

Vor allem kann man in der gleichen Zeit mehr berechnen, das ist auch wichtig.

pipip schrieb:
Bitte nicht zweideutig verstehen, aber mit oder ohne Gras?
Mit Gras :p
 
Herdware schrieb:
tldr:
Kauft euch die CPU, die von der Leistung her am besten für das geeigent ist, was ihr damit tun wollt. Wenn es nicht gerade ein lautloser Kompaktrechner werden soll, oder es sich um eine 1000$-ExtremEdition handelt, sollten weder der Verbrauch noch die Anschaffungskosten ein echtes Problem darstellen.

Word!
 
nukular8400 schrieb:
Laut dieser Tabelle kann man bei einem 125W-Prozessor von AMD mit einem etwa 100W höheren verbrauch rechnen (gegen 3570k, unser Szenario sollen ja Spiele sein). Da wir mal nicht so sind, rechnen wir eher mit 80W Mehrverbrauch.
Abgesehen davon das dies der Verbrauch der gesamten Plattform ist, ist es echt traurig, dass du die Werte der Idle-Vollast Differenzen hier zitierst!
Das sollt CB mal grundsätzlich zu denken geben was sie da in Balkenform veröffentlichen.

Matzegr schrieb:
Und genau hier liegt ein riesen Problem!

Diese 110W mehr bei Prime95, sagen Nullkommanix über die Leistungsaufnahme beim spielen aus!

Spiele lasten die CPU nie zu 100% aus und es werden auch bei weiten nicht alle Kerne genutzt.

Nun folgt ein Beispiel, was der Unterschied ist zwischen Volllast und Teillast ausmacht.

Leistungsaufnahme (Komplettsystem mit Radeon 6870)

Cinebench multi-thread:
FX-8350: 263,12W (6,93 Punkte -> 38W pro Punkt)
i5 3750K: 99,9 W (5,98 Punkte -> 17W pro Punkt)

Der AMD braucht 163W mehr.
Gemessen an Verbrauch/Punkt ist der i5 um 123% effizienter wenn die CPU voll ausgelastet wird.

Cinebench single-thread:
FX-8350: 96,11W (1,11 Punkte -> 87 W pro Punkt)
i5 3750K: 87,52W (1,59 Punkte -> 55 W pro Punkt)

Der AMD braucht nur noch 9W mehr.
Gemessen an Verbrauch/Punkt ist der i5 "nur" noch 58% effizienter wenn nur Teillast anliegt.

Diese dämlichen Volllast-Tests sind von der Realität doch meilenweit entfernt.
Dem kann ich bis auf einen Punkt zustimmen:
Auch hier sind die Verbrauchswerte der gesamten Plattform und nicht der CPU gemessen worden. Eine Effizienz für irgendeine CPU hier heraus zu lesen ist einfach falsch.

y33H@ schrieb:
In Spielen auch, ich habe hier gerade 198 Watt (Core i5-3470) zu 291 Watt (FX-8350) in Crysis 3 (720p, VH, GTX Titan, komplette Plattform gemessen) bei 54 zu 57 Fps. Das macht 3,67 Fps/Watt beim i5 und 5,10 Fps/Watt beim FX - der i5 ist ergo hier nur 39 Prozent effizienter.
Genau die selben falschen Schlüße!

Ernsthaft: wenn 2 CPUs eine TDP Differenz von 30 Watt haben ist es völlig abwegig hier einen Volllast Verbrauchsunterschied von 100W als korrekten Wert darzustellen für die CPU alleine. Gemessen werden Plattformen mit unterschiedlichen Verbrauchen. Das zeigen sämtliche Mainboard Tests, wenn da mit der selben CPU plötzlich unter Vollast 40-80W Unterschied im Verbrauch entstehen. Und da immer wieder bevorzugt Asus oder Gigabyte Boards verwendet werden, sind diese Plattform-Strom-Vergleiche die Bytes nicht wert, die sie verbrauchen im Internet. Zumindest nicht für eine Aussage der Effizienz irgendeiner CPU.
 
Daedal schrieb:
Dem kann ich bis auf einen Punkt zustimmen:
Auch hier sind die Verbrauchswerte der gesamten Plattform und nicht der CPU gemessen worden. Eine Effizienz für irgendeine CPU hier heraus zu lesen ist einfach falsch.

Ernsthaft: wenn 2 CPUs eine TDP Differenz von 30 Watt haben ist es völlig abwegig hier einen Volllast Verbrauchsunterschied von 100W als korrekten Wert darzustellen für die CPU alleine. Gemessen werden Plattformen mit unterschiedlichen Verbrauchen. Das zeigen sämtliche Mainboard Tests, wenn da mit der selben CPU plötzlich unter Vollast 40-80W Unterschied im Verbrauch entstehen. Und da immer wieder bevorzugt Asus oder Gigabyte Boards verwendet werden, sind diese Plattform-Strom-Vergleiche die Bytes nicht wert, die sie verbrauchen im Internet. Zumindest nicht für eine Aussage der Effizienz irgendeiner CPU.

Verstehe ich das richtig, dass hier jetzt plötzlich die Boards wesentlich an den unterschiedlichen Verbrauchswerten schuld sein sollen, weil die TDP sagt, dass die reale Verbrauchsdifferenz nicht höher als 30W sein kann? Abgesehen davon, dass diese Aussage nicht schlüssig ist (TDP nennt nicht den realen Verbrauch, das wurde hier bereits zur Genüge kund getan), ist es mir als Endverbraucher eigentlich egal, wo der Verbrauch im einzelnen herkommt. AMD und Intel sind inzwischen faktisch die einzigen Hersteller ihrer Chipsätze, somit bieten sie zwangsläufig das Gesamtsystem an. Kritik am Verbrauch bleibt also letztlich bei AMD bzw. Intel hängen.

Einzige Ausnahme: Weisen nach, dass für die Tests sehr verbrauchsstarke AMD- aber sparsame Intelboards herangezogen wurden.
 
rille schrieb:
Deiner Realität? Wenn du nur spielst, ok. Es gibt aber Leute, die nutzen den Rechner auch noch für andere Sachen. Wer öfters mal Videos enkodiert, hat dann volle CPU-Last.

Dann sagt der Prime95 Volllast-Test aber auch bloß nichts über den Stromverbrauch/Stromkosten aus.

Bei Prime95 braucht nen i7-3770K 44W mehr als nen i3-3220.
Bei dbPoweramp (16 Lieder umwandelt) braucht der i7 nur noch 28W mehr als der i3.
Wenn man jetzt noch die Zeit mit einberechnet, wird es ganz bitter für den i3.

Der i7 braucht nämlich nur 7,15Wh für die Umwandlung von 16 Liedern, der i3 braucht ganze 10,82 Wh und nen i5-3450 ~9,5 Wh.

Gleiches Spiel kannste mit dem x264 HD Benchmark machen.
Bei Prime brauch nen FX-8350 90% mehr als nen i5 3570K. Beim Benchmark gemessen an der Zeit die es braucht, verursacht der FX "nur" noch 60% höhere Stromkosten. Das sind 50% weniger als die Prime95 Ergebnisse suggerieren.

Prime95 Verbrauchswerte sagen Nullkommanix über den realen Stromverbrauch aus. Siehe das Beispiel oben beim Umwandeln von Liedern verursacht der i3 51% höhere Stromkosten als nen i7, obwohl der i7 bei Prime95 einen 49% höheren Verbrauch hat.

Nachtrag:

Daedal schrieb:
Dem kann ich bis auf einen Punkt zustimmen:
Auch hier sind die Verbrauchswerte der gesamten Plattform und nicht der CPU gemessen worden. Eine Effizienz für irgendeine CPU hier heraus zu lesen ist einfach falsch.

Richtig, über die tatsächliche Effizienz der CPU alleine kann man keine Aussage treffen. Aber man bekommt zumindest ein gutes Bild wie suboptimal die Prime95 Angaben sind.
 
Zuletzt bearbeitet:
Daedal schrieb:
Genau die selben falschen Schlüße!

Ernsthaft: wenn 2 CPUs eine TDP Differenz von 30 Watt haben ist es völlig abwegig hier einen Volllast Verbrauchsunterschied von 100W als korrekten Wert darzustellen für die CPU alleine. Gemessen werden Plattformen mit unterschiedlichen Verbrauchen. Das zeigen sämtliche Mainboard Tests, wenn da mit der selben CPU plötzlich unter Vollast 40-80W Unterschied im Verbrauch entstehen. Und da immer wieder bevorzugt Asus oder Gigabyte Boards verwendet werden, sind diese Plattform-Strom-Vergleiche die Bytes nicht wert, die sie verbrauchen im Internet. Zumindest nicht für eine Aussage der Effizienz irgendeiner CPU.

Es sind nicht 30 sondern 48.
Und TDP "Thermal Design Power" gibt die thermische Verlustleistung an. Und ja, ein 8350 kann 100W mehr ziehen als ein 3470. Andere Fertigung, mehr Kerne, weit höherer Takt und was ist verkehrt daran den Plattform verbrauch anzugeben?
Beim spielen wird eben der ganze Rechner beansprucht und Crysis 3 ist gut für Multithread optimiert, da werden Kerne gut belastet was sich auf den Verbrauch auswirkt.

https://www.computerbase.de/2012-10/test-amd-fx-8350-vishera/9/

Da ist zwar kein 3470 mit dabei aber ein 3450 und da ist die Differenz zum 8350 über 100W, genau gesagt sind es 112W bei Prime 95, sprich CPU Volllast. Deine Kritik ist hier vollkommen fehl und zudem auch noch falsch.
 
Also ich empfinde 125W TDP schon als recht unschön - um nicht zu sagen, als nicht mehr ganz zeitgemäß.

Letztendlich muss man die Stromversorgung und die Kühlung auf den maximalen Verbrauch auslegen - selbst wenn sich das System 99,9999% der Zeit im Idle langweilt. Da ist man dann schnell 20-30 Euro zusätzlich los (bevor man das System überhaupt in Betrieb genommen hat). Für nichts.

Und dann der Mehrverbrauch im Betrieb. Ob das jetzt 5, 10 oder 20 Euro im Jahr sind - egal. Es ist meines Erachtens einfach nicht mehr zeitgemäß. Selbst mein alter Phenom II braucht im Cinebench weniger als 24 Watt pro Punkt (5,90 Punkte @ 140 Watt).
 
nukular8400 schrieb:
Verstehe ich das richtig, dass hier jetzt plötzlich die Boards wesentlich an den unterschiedlichen Verbrauchswerten schuld sein sollen, weil die TDP sagt, dass die reale Verbrauchsdifferenz nicht höher als 30W sein kann? Abgesehen davon, dass diese Aussage nicht schlüssig ist (TDP nennt nicht den realen Verbrauch, das wurde hier bereits zur Genüge kund getan), ist es mir als Endverbraucher eigentlich egal, wo der Verbrauch im einzelnen herkommt. AMD und Intel sind inzwischen faktisch die einzigen Hersteller ihrer Chipsätze, somit bieten sie zwangsläufig das Gesamtsystem an. Kritik am Verbrauch bleibt also letztlich bei AMD bzw. Intel hängen.

Einzige Ausnahme: Weisen nach, dass für die Tests sehr verbrauchsstarke AMD- aber sparsame Intelboards herangezogen wurden.
Es werden überhaupt keine sparsamen Boards bei CPU-Tests verwendet. Nur wenn 50 W Mehrverbrauch auf das verwendete Board entfallen kann man keine CPU Effizienz definieren. Und wenn Boards für 77W ausgelegt sind oder für 125 W ausgelegt sind haben diese auch selber einen exponentiell steigenden Strombedarf bei Vollast.

TDP sagt nichts über den Verbrauch, aber sehr wohl über die maximale Verlustleistung und die dafür benötigte Kühlung. Weder Intel noch AMD überschreiten ihre TDPs. Und wenn diese 30-40 W auseinander liegen, kann eine AMD mit 125 W TDP völlig unmöglich 100 W mehr verbrauchen als eine 77 W oder 87 W TDP CPU - es sei denn die mit TDP 77W eingestufte CPU verbraucht max. 25W, was wohl kaum der Fall sein wird.

Fakt ist, dass sehr viele Komponenten des Boards extrem im Verbrauch steigen bei Vollast. Und bei jedem Board unterschiedlich. Wenn jemand behauptet ein FX-8350 mit 125 W TDP verbraucht 100 W mehr als eine CPU mit 77W TDP ist es schlicht Blödsinn.

@Matzegr
Das stimmt natürlich.
Ergänzung ()

rico007 schrieb:
Andere Fertigung, mehr Kerne, weit höherer Takt und was ist verkehrt daran den Plattform verbrauch anzugeben?
Nichts - solange man es eben nicht CPU-Effizienz nennt, sondern Plattformverbrauch. Und solange man keine Punkte/Watt in Cinebench daraus macht und dies der CPU zuschreibt, die lediglich 30-50% des Plattfromverbrauchs ausmacht.

Nur dies wird ja nicht gemacht, und dies kritisiere ich.
 
Prisoner.o.Time schrieb:
Vishera 2.0 wurde meines Wissens nach soeben vorgestellt. Auf Richland bin ich auch schon gespannt, aber letzten Endes interessiert mich doch viel mehr Kaverie. Denn Richland ist nur ein kleines Update für Trinity. Und da ich selber einen A10-5800k habe und auch selber an der Taktschraube drehen kann ist Richland eher uninteressant, zu mindest für mich und mein Einsatzgebiet.

Der FX-4350 und FX-6350 sind doch nicht die Vishera 2.0, das sind doch nur höhergetaktete Modelle wie es der FX-8350 auch ist, nur mit dem Unterschied das der FX-8350 schon mit dem FX-8320 zusammenraugekommen ist.
 
Hört doch endlich damit auf, auf Zahlen wie TDP herumzureiten. Die TDP Zahl ist völlig egal und ist allein ein Merkmal, wie gut die Kühlung sein muss, wenn der Prozessor laufend unter Volllast läuft. Das tut er aber nur bei den entsprechenden Anwendungen wie Rendering. Gamern kann die CPU absolut rille sein, solange sie halbwegs modern ist.

Der Stromverbrauch ist sowas von egal weil bei einem 08/15 User die CPU eben nicht laufend unter Volllast rennt. Wollt ihr euch wirklich über ein paar Watt streiten, während die GPUs ein Vielfaches davon fressen?
 
swm-kullerkeks schrieb:
8 Stunden Volllast pro Tag ... na klar, was macht ihr mit euren Rechnern?! Ah sorry, ich vergaß, ihr testet eure CPUs 24/7 mit dem Burn-In-Test von Prime auf Stabilität... :freak:
Je nach Anwender hängt eine privat genutzte CPU doch zu rund 80% im Idle, wenn nicht sogar mehr. Und selbst wenn nicht, den maximalen Verbrauch erreicht man nicht mit BF3 o.ä., sondern höchtens mit Prime oder dergleichen.
Im Normalfall stimme ich dir vollkommen zu. Aber es gibt auch Leute, die für BOINC rechnen, da macht sich der Mehrverbrauch schnell bemerkbar, da die CPU immer zu 100% ausgelastet wird (außer es wurde anders eingestellt)
swm-kullerkeks schrieb:
Der Mehrverbrauch einer AMD-CPU gegenüber einem Intel ist am Ende für einen Privatmann vernachlässigbar. Die Leistung pro Watt mag geringer sein,
aber ist völlig ausreichend und für den Mehrverbrauch gibt es dann auch noch einen preislichen Vorteil gegenüber Intel


O._.O schrieb:
Also ich empfinde 125W TDP schon als recht unschön - um nicht zu sagen, als nicht mehr ganz zeitgemäß.

Letztendlich muss man die Stromversorgung und die Kühlung auf den maximalen Verbrauch auslegen - selbst wenn sich das System 99,9999% der Zeit im Idle langweilt. Da ist man dann schnell 20-30 Euro zusätzlich los (bevor man das System überhaupt in Betrieb genommen hat). Für nichts.
125 W nicht mehr zeitgemäß? Intel hat doch erste eine High End CPU mit 160W TDP angekündigt, ist also schlichtweg Standart. Und in Sachen TDP übertreiben Intel und AMD (ein bisschen mehr) gleichermaßen. Hat schlichtweg den Vorteil, das ein größerer Kühler die CPU auch bei Boost noch unter ordentlichen Temps halten kann und die CPU nicht (wegen Temp) heruntertakten muss.
 
@Wolfgang

im Aufmacher schreibst du das es noch keine Preise oder Listung geben würde.

Mindfactory nennt preise und auch lieferung.

AMD FX Series FX-6350 6x 3.90GHz So.AM3+ BOX
Artikelnummer: 48814
Lagernd | > 5 St.

(0 Bewertungen)
€ 122,80*
 
Das Argument kann ich nicht gelten lassen, kauft doch fast jeder hier ein K-Modell mit dickem, leisem Kühler um zu übertakten. Box-Kühler verwenden die Leute im Forum hier kaum.

Ach und zum Thema Stromversorgung: Mein FX-8350 mit 7950 Boost läuft bei Prime + Furmalr dauerhaft stabil, das mit einem Corsair 450W Netzteil, 4 Platten und 2 opt. Laufwerken. Dennoch sehe ich hier zig Leute mit schwächeren / effizienteren Systemen und 100W+ mehr am Netzteil. Auch rausgeworfenes Geld.

O._.O schrieb:
Letztendlich muss man die Stromversorgung und die Kühlung auf den maximalen Verbrauch auslegen - selbst wenn sich das System 99,9999% der Zeit im Idle langweilt. Da ist man dann schnell 20-30 Euro zusätzlich los (bevor man das System überhaupt in Betrieb genommen hat). Für nichts.
 
neo-bahamuth schrieb:
Das Argument kann ich nicht gelten lassen, kauft doch fast jeder hier ein K-Modell mit dickem, leisem Kühler um zu übertakten. Box-Kühler verwenden die Leute im Forum hier kaum.

Ach und zum Thema Stromversorgung: Mein FX-8350 mit 7950 Boost läuft bei Prime + Furmalr dauerhaft stabil, das mit einem Corsair 450W Netzteil, 4 Platten und 2 opt. Laufwerken. Dennoch sehe ich hier zig Leute mit schwächeren / effizienteren Systemen und 100W+ mehr am Netzteil. Auch rausgeworfenes Geld.

Wie ist denn die Geräuschentwicklung bei dir, wenn die CPU auf Volllast rennt? Meinen boxed Kühler von Intel hab ich rausgeworfen.
 
Hab nen Mugen 3 rev. B, Profil "quiet" beim Biostar Board.
Aktuell geht die CPU nicht über 45°C und die Asus 7950 V2 Direct CU ist lauter. Aber beides nicht störend.
 
Daedal schrieb:
Ernsthaft: wenn 2 CPUs eine TDP Differenz von 30 Watt haben ist es völlig abwegig hier einen Volllast Verbrauchsunterschied von 100W als korrekten Wert darzustellen für die CPU alleine. Gemessen werden Plattformen mit unterschiedlichen Verbrauchen. Das zeigen sämtliche Mainboard Tests, wenn da mit der selben CPU plötzlich unter Vollast 40-80W Unterschied im Verbrauch entstehen. Und da immer wieder bevorzugt Asus oder Gigabyte Boards verwendet werden, sind diese Plattform-Strom-Vergleiche die Bytes nicht wert, die sie verbrauchen im Internet. Zumindest nicht für eine Aussage der Effizienz irgendeiner CPU.
Was meinst du, warum ich explizit Plattform dazu geschrieben habe, hmmm? :rolleyes:

Zudem wurden die jeweils sparsamsten ATX-Platinen genutzt, von denen Messwerte vorliegen. Tendenziell ist hier AM3+ gegenüber 1155 natürlich im Nachteil, alleine schon vom Layout her. Der Chipsatz frisst mehr als der PCH und die Wandler müssen viel kräftiger ausgelegt werden, was beides auch den Leerlauf-Stromverbrauch nach oben treibt.

Zudem gibt's für Endkunden nur Board plus CPU, so ist das eben. AMD macht mit dem FM2 vor, dass man konkurrenzfähige Plattformen bei Perf/Watt bieten kann, für AM3+ gilt das aber nicht.

Daedal schrieb:
TDP sagt nichts über den Verbrauch, aber sehr wohl über die maximale Verlustleistung und die dafür benötigte Kühlung.
Je höher die TDP(-Klasse), desto höher der Stromverbrauch, das ist nun mal so. Denn die höhere Wärmeabgabe muss ja irgendwo herkommen.
 
Zuletzt bearbeitet:
ich_nicht schrieb:
Coretemp sagt bei meinem 3570K @ 4,2 bei 48-55 W im Turbo.
55 W vs. 95-125 W, da muss einfach mal was passieren im Hause AMD...

Sehr gut, soweit ich weiß hat der 77W TDP, du sagst 55W verbraucht er und vergleichst das dann mit der TDP vom AMD? Wenn dann bitte gleich mein AMD soll auch nur 100W @4.2Ghz fressen ;)
 
"Vishera 2.0" kommt erst, der 6350 und 4350 sin dnur ein höhergetaktetes update.
"vishera 2.0" wird mit hoher wahrscheinlichkeit ein ähnliches update bei der kernen bekommen wie richland, also kann man da wieder mit ca. 10% IPC steigerung ausgehen..

Prisoner.o.Time schrieb:
Denn Richland ist nur ein kleines Update für Trinity.
der sprung von trinity auf richland ist nicht so klein wie immer behauptet wird.

in wirklichkeit ist das update größer als der sprung von bulldozer auf piledriver.
Ergänzung ()

nukular8400 schrieb:
Also Mehrkosten pro Monat bei 8 Stunden Volllast pro Tag einem kWh-Preis von 30ct/kWh (in manchen Verträgen ist es sogar noch viel mehr, aber wir gehen mal von einem gesunden Mittelmaß aus), das ergibt Mehrkosten von ~45€ im Jahr. Ohne Wertung oder Schlussfolgerung. Da kann jeder selber sehen, was er daraus macht.

Formel zum Einsetzen:

MehrkostenProJahr=kWhPreis*VolllaststundenProTag*365*Mehrverbrauch*1/1000

Da meine Rechner eher lange leben, ich es kühl und leise mag und auch gerne am Takt rumschraube, wäre für mich kein aktueller FX-Prozessor attraktiv.

die berechnung ist aber unsinn...
Ergänzung ()

ich_nicht schrieb:
Ein guter Prozi ist immer noch sehr wichtig. Kommt auch darauf an was du zockst, bei Crysis 3 im netz verbrennt mir die ganze CPU. Da die Details auf mittel sind ist die GraKa noch nicht mal so stark gefordert.

Mein Bruder hat einen Phenom II 810x4 @2,6 mit einer GTX 470 und dort limitiert immer der Prozi.
der FX-6300 ist aber deutlich schneller als dieser phenom2...
 
Zuletzt bearbeitet:
AMD vs. Intel
FX vs. i5/i7

Intel scheint aktuell bei den meisten Spielen schneller als ein AMD zu sein, in Programmen relativ ausgewogen (oder Unterschied nicht bemerkbar).
Auf Dauer wird AMD besser sein, da immer mehr Kerne verwendet werden (PS4).

Just my 2 cents.
 
auch wenn die spiele nicht alle kerne nutzen werden die kommenden APUs/CPUs wieder besser mithalten können, bald haben die module ja wieder pro kern einen decoder:)
 
Zurück
Oben