News AMD stellt FX-4350 und FX-6350 auf Vishera-Basis vor

Herdware schrieb:
Auf den Sprung bei der TDP-Einstufung würde ich nicht allzu viel geben. Die tatsächliche Änderung beim Verbrauch (wohlbemerkt sowieso nur unter Volllast) wird höchstwahrscheinlich nicht ansatzweise so dramatisch ausfallen.

Denk ich auch. Kann ja sein, dass die CPUs knapp vom oberen Ende der 95 W Klasse ins untere Ende der 125 W Klasse gerutscht sind (von 90 auf 100 W zB, und schon klingt es lang nicht mehr so dramatisch).
TDP ist primär eine Richtlinie für die notwendige Kühlung und relativ grob gestaffelt + im Zweifelsfall lieber etwas überdimensioniert damit der Hersteller auf der sicheren Seite ist.
 
AndreSpi schrieb:
mein senf

an die stromsparer.
50 watt pro std.gerechnet x 10 std. pc zeit x mal 30 tage x 0,60 cent pro kw, macht ca. 9,-- im monat !

1. wer daddelt von uns so lange?
2. ich tanke öko strom und bin auch bereit etwas mehr dafür zubezahlen.
3. geiz ist nicht immer geil!!!
4. ich will mal sehen was ein intel mit 4 gh aus der dose lutscht?
5. auch der neue haswell zieht mehr aus der dose, schon vergessen.
6. wer kohle von ca. 200,-- aufwärts nur für die cpu ausgibt, ja sicher der spart das wieder am stromverbrauch rein, daß ich nicht lache!
7. ich könnte noch std. lang so weiter machen, geht mir aber auf die gehones.

doch noch einer, der muss einfach sein!

ich kauf mir einen 3570 k das ist der beste zum zocken und der braucht nur 77 watt, da ich aber die beste grafik will (zum zocken) kauf ich mir ne 7950 oder 680!

wieviel watt lutschen die nochmal aus der buchse?

dafür gehe ich dann zum billigsten stromanbieter. bingo

:D Was für eine Polemik! So funktionieren Hetze und Propaganda. Ein Glück, dass wir hier nur über Prozessoren reden. Wildwüchsige Annahmen, Unterstellungen, Behauptungen.

Aber weil ich es so gern mache, möchte ich wenigstens auf die Rechnung antworten:

Laut dieser Tabelle kann man bei einem 125W-Prozessor von AMD mit einem etwa 100W höheren verbrauch rechnen (gegen 3570k, unser Szenario sollen ja Spiele sein). Da wir mal nicht so sind, rechnen wir eher mit 80W Mehrverbrauch.

Also Mehrkosten pro Monat bei 8 Stunden Volllast pro Tag einem kWh-Preis von 30ct/kWh (in manchen Verträgen ist es sogar noch viel mehr, aber wir gehen mal von einem gesunden Mittelmaß aus), das ergibt Mehrkosten von ~45€ im Jahr. Ohne Wertung oder Schlussfolgerung. Da kann jeder selber sehen, was er daraus macht.

Formel zum Einsetzen:

MehrkostenProJahr=kWhPreis*VolllaststundenProTag*365*Mehrverbrauch*1/1000

Da meine Rechner eher lange leben, ich es kühl und leise mag und auch gerne am Takt rumschraube, wäre für mich kein aktueller FX-Prozessor attraktiv.
 
Bin ebenfalls auf Tests gespannt. Der FX 6350 scheint kein schlechter Prozessor zu sein und wird sich sicherlich auch recht schnell preislich nur knapp oberhalb des FX 6300 ansiedeln. Dann bezahlt man vll. 105-110€. Bleibt natürlich dann noch die Frage ob der Prozessor auch 10% schneller ist als das kleinere Modell, damit man wenigstens auf das gleiche P/L-Verhältnis (100€ zu 110€) kommt.

Und diese Stromkostendiskussion. Die ist mittlerweile eigentlich schon albern. Es gibt genug Möglichkeiten Geld (es geht ja hier nur ums verdammte Geld - nicht darum die Umwelt weniger zu belasten) zu sparen. Aber nein ausgerechnet der Prozessor/die Grafikkarte muss sparsam sein, schließlich muss die Packung Kippen am Tag sein und das Auto mit Strudel im Tank, oder oder oder. Dann reists so ein kleines Bauteil ja auch total raus...

Zusatz:

Zum Thema "Stromkostenvorrechnung":
Ich glaube das Ganze ist ein ziehmlich heikles Thema. Denn für jeden berechnen sich die Stromkosten anders. Der Eine nimmt eine 100W höhere Leistungsaufnahme zum Berechnen der Mehrkosten, der andere 50W. Ein dritter bildet sogar einen Mix, der auf seinem Anwendungsverhalten basiert und kann somit, die für ihn, genaueste Rechnung darstellen. Das Problem an den Rechnungen hier im Forum ist, dass einfach keiner vernünftige Werte vorweisen kann, mit denen er rechnet. Denn (a) wird ein Prozessor nicht 24/7 zu 100% ausgelastet und (b) stellt keiner die Leistungaufnahme in einem richtigen Verlauf über die Zeit dar. Zumal dieser Verlauf ja wieder von Person zu Person unterschiedlich ist, da verschiedene Programme, Spiele etc. verwendet werden und unterschiedliche Verhaltensmuster vorherrschen.
Es kann also genauso sein, dass ein AMD Prozessor in einem PC über sehr lange Zeit günstiger ist, als ein gleichstarkes Intelmodell - Situation wäre in etwa so, dass der PC ca. zu 99% nur im Idle-Modus betrieben wird. Von daher halte ich solche Rechnungen (wenn ich sie selbst auch schon gemacht habe) für unzweckmäßig.
 
Zuletzt bearbeitet: (Weil Haie nicht rückwärts schwimmen.)
AndreSpi schrieb:
an die stromsparer.
50 watt pro std.gerechnet x 10 std. pc zeit x mal 30 tage x 0,60 cent pro kw, macht ca. 9,-- im monat !

Ok, 9€ im Jahr.... rechnen wir unten gleich doch mal...


1. wer daddelt von uns so lange?

Ich kenne ne Menge Leute wo der Rechner mehr als 10 Stunden am Tag läuft (nicht im Büro!)


3. geiz ist nicht immer geil!!!

Ich glaube du verstehst den Spruch nicht richtig. Ich verballer unnötig viel Strom. Ich bekomme nicht mehr für mein Geld, sondern es wird sinnlos verbrannt.


4. ich will mal sehen was ein intel mit 4 gh aus der dose lutscht?

Da ist der Unterschied: Schon mit ca. 3ghz macht ein Intel Quad jeden AMD fertig. Mit 4ghz sind die uneinholbar weit weg.


5. auch der neue haswell zieht mehr aus der dose, schon vergessen.

Ach, du hast schon einen... :freak:


6. wer kohle von ca. 200,-- aufwärts nur für die cpu ausgibt, ja sicher der spart das wieder am stromverbrauch rein, daß ich nicht lache!

Ähm, ein schnellerer Intel 3470 z.B. kostet nur ca. 160,-€
Und wenn ich 9€/Jahr extra für den AMD rechne, den dann 3-4 Jahre benutze, dann bin ich schon fast beim Preis von Intel - mit einer niedrigeren Leistung und höherer Abwärme = mehr Lautstärke.


7. ich könnte noch std. lang so weiter machen, geht mir aber auf die gehones.

Geht dir was? :D
Wenn du schon was cooles schreiben willst, dann lern erst mal wie man das schreibt.



ich kauf mir einen 3570 k das ist der beste zum zocken und der braucht nur 77 watt, da ich aber die beste grafik will (zum zocken) kauf ich mir ne 7950 oder 680!

77W TDP! Das ist ein Unterschied.



dafür gehe ich dann zum billigsten stromanbieter.

Man merkt, du musstest für deinen Strom noch nie selber bezahlen.
 
Hoert doch einfach mal mit den milchmaedchenrechnungen auf.... Wenn ich von 8 stunden volllast taeglich lese und der author sich im selben post sich ueber Polemik beschwert kann man nur den kopf schuetteln.
Die Prozessoren sind fuer den normalen Nutzer preislich attraktiver als die pendants von intel und darum auch empfehlenswert trotz tdp
 
Picard87 schrieb:
(leider) typisch AMD... Takterhöhung und dann die TDP von eh schon hohen 95 auf 125W (!). Da sieht man erstmal wie wenig Rohleistung die CPUs haben. Ich bin immer ein Fan von Konkurrenz usw. aber bei den "normalen" Desktop- und Laptop-CPUs (ohne APUs) muss man ja schon fast zu Intel greifen...

Mich würde da schon mal ein Test zwischen i5 2x 1,7 GHz und AMD mit zwei Modulen @ 1,6 GHz interessieren...
Schon alleine, wegen dem Preisunterschied ;)
 
Wenn ich mir so ne dicke CPU kaufe dann hat man wohl meistens damit nur eines vor, zocken ! Ach und da fallen mir so Begriffe ein wie: GTX670, 680, AMD 7970,.... ohja da jucken mich die 125W der CPU ja mega :D


Wenn mir was bei meinem PC egal ist, dann ist es der Stromverbrauch :cool_alt:
 
es heist ja das getroffene hund bellen, scheinbar habe ich doch getroffen.
es geht mir um die hier oft vorherschende doppelmoral.
auf dem verbrauch bei AMD rumhacken, sich dann aber ne fette graka rein dübbeln.

da spielt der verbrauch dann plötzlich keine rolle mehr.

also gut nehmen wir deine zahlen ca. 45,-- wie war das im Jahr! macht dann also 3,75 im monat, ist also noch weniger als in meinem beispiel.

noch frägen.

übrigens auch ich versuche meine kiste so lange wie möglich zu nutzen, denke mal das versuchen die meisten hier.
 
Shadowtecdot schrieb:
das Intel Flaggschiff hat übriges ne TDP von 145W ist also auch nicht effizienter
Da ist aber auch deutlich mehr Leistung vorhanden, am Ende dürfte der Intel trotzdem effizienter (=Leistung pro Watt) sein. So eine CPU ist aber in einem Spiele-PC sowieso falsch aufgehoben ;)

Shadowtecdot schrieb:
Intel CPUs bewegen sich nach Messungen bei freunden ähnlich wie die AMD CPUs und werden genauso warm
Was habt ihr den gemessen und wie. Es gibt schon deutliche Unterschiede, sh. z.B.: http://www.pcgameshardware.de/FX-8320-CPU-256470/Tests/Test-FX-8320-FX-6300-FX-4300-Vishera-1032556/.
 
Tammy schrieb:
Hoert doch einfach mal mit den milchmaedchenrechnungen auf.... Wenn ich von 8 stunden volllast taeglich lese und der author sich im selben post sich ueber Polemik beschwert kann man nur den kopf schuetteln.
Die Prozessoren sind fuer den normalen Nutzer preislich attraktiver als die pendants von intel und darum auch empfehlenswert trotz tdp

Was denn nun noch? Hast du den Rest gelesen? Ich habe seine Pro-AMD-Rechnung sogar noch nach unten korrigiert, ein Beispiel gegeben und die Formel dazu. Zudem habe ich daraus keine Schlussfolgerung gezogen wie "Intel ist besser", lediglich am Ende gesagt, dass für mich ein AMD-FX absolut nicht sinnvoll wäre.
 
@nukular
Naja, 8 Stunden CPU-Volllast (!) pro Tag halte ich für extrem unrealistisch, zumindest für Gamer.
30 Cent pro kWh?! Bei den Stadtwerken, oder was? Zahle zur Zeit 23 Cent pro kWh.

@Wolfgang
Warum erwähnt ihr nicht explizit AMDs Preissenkungen (FX-6300 115 EUR --> 100 EUR, FX-8320 145 EUR --> 135 EUR) ? Andere Seiten machen sowas...

Die Zeiten, dass ich im Preissegment 100-130 EUR den i3 empfehle, sind damit endgültig vorbei.
 
Zuletzt bearbeitet:
@Loopman
an merkt, du musstest für deinen Strom noch nie selber bezahlen.
ich bezahle seit ich 18 wurde und in meiner eigenen wohnung lebe für meinen strom selber und das jetzt seit fast genau 40 jahren.

wie lange bezahlst du den deinen selbst?


sage es uns doch mal!
 
Zuletzt bearbeitet:
@nukular8400:
das Problem ist, dass du eine allgemeine Gleichung gegeben hast. Die Mehrkosten (egal welcher Hersteller betroffen ist) bildet sich aus einer "Summe von (Mehr-)Verbräuchen" multipliziert mit dem Strompreis. Und diese Summe bildet sich nunmal nicht aus einer Anzahl an "VolllaststundenProTag", sondern aus dem jeweilig vorherrschenden Verhalten des Nutzers.

Zusatz:
So sollten sich die Stromkosten berechnen (wenn ich keinen Denkfehler habe).

Stromkostengleichung.PNG
 
Zuletzt bearbeitet:
Ich habe schon 8 Stunden gesagt, weil die Rechnung, auf die ich geantwortet hatte sogar von 10 Stunden ausgegangen war. Abgesehen davon sind bei mir viele Volllast-Stunden am Tag realistisch (sogar mehr als 10), aber nicht für Spiele sondern für bestimmte Berechnungen.

Wir bezahlen zur Zeit 27ct/kWh, das ist aber hier der absolute Billig-Atomkraft-Tarif mit einem mittleren Verbrauchsvolumen (ich lebe nicht allein). Bei höherem Volumen sinken irgendwann auch die kWh-Preise. Dann sollte der Gesamtverbrauch auch schon so hoch sein, dass ein PC mit dem wie auch immer gearteten Verbrauch gar nicht mehr in der Rechnung auftaucht. Gerade hier in bestimmten Altbauten heizen einige noch mit Strom. In dem Fall kann man natürlich auch gleich die Füße mit einem FX-8350 heizen ^^
 
nukular8400 schrieb:
Was denn nun noch? Hast du den Rest gelesen? Ich habe seine Pro-AMD-Rechnung sogar noch nach unten korrigiert, ein Beispiel gegeben und die Formel dazu. Zudem habe ich daraus keine Schlussfolgerung gezogen wie "Intel ist besser", lediglich am Ende gesagt, dass für mich ein AMD-FX absolut nicht sinnvoll wäre.

Natürlich habe ich den rest gelesen aber das ändert doch nichts daran dass acht Stunden volllast als grundlage der rechnung nichtmal ansatzweise realistisch sind.

Es waere unschenswert wenn endlich mal jeder der seinen senf zu Stromverbrauch abgibt sich vorher informieret
was tdp bedeutet und wie oft ein desktoppc volllast anliegen hat.
 
8 Stunden Volllast pro Tag ... na klar, was macht ihr mit euren Rechnern?! Ah sorry, ich vergaß, ihr testet eure CPUs 24/7 mit dem Burn-In-Test von Prime auf Stabilität... :freak:
Je nach Anwender hängt eine privat genutzte CPU doch zu rund 80% im Idle, wenn nicht sogar mehr. Und selbst wenn nicht, den maximalen Verbrauch erreicht man nicht mit BF3 o.ä., sondern höchtens mit Prime oder dergleichen.

-------

Der Mehrverbrauch einer AMD-CPU gegenüber einem Intel ist am Ende für einen Privatmann vernachlässigbar. Die Leistung pro Watt mag geringer sein, und klar hat ein LGA-2011-i7 bei selber TDP mehr Leistung, aber werden hier tatsächlich schon wieder 500€-Intels mit 150€-AMDs verglichen? Wer mehr bezahlt, kriegt auch mehr, so war das schon immer.

Und klar könnt ihr mich jetzt wegen meines Avatars als AMD-Fanboy abstempeln, nur scheint es hier manchen an Objektivität zu mangeln.


@freyny:
https://www.computerbase.de/2013-04/preissenkung-fuer-amd-prozessoren-im-anmarsch/
 
Zuletzt bearbeitet:
Sehe ich auch so.

Im Moment scheint leider die Öko-Denke in Sachen Energieversorgung nach wie vor hipp zu sein :rolleyes:

Was ist denn bis jetzt das Ergebnis der "Energiewende"? Deutlich höhere Kosten sowie ein Anstieg der Stromerzeugung durch Kohle, um die Grundlast zu decken.

Den Gewinn macht die (chinesische) Solar-Lobby...und Hausbesitzer, die sich auf Kosten der Allgemeinheit hochsubventionierte, bei der Produktion umweltschädliche, chinesische Solarpanels aufs Dach klatschen, die eh nach 20 Jahren kaputt sind...

...und der total unkontrollierte Ausbau der Windenergie! Immer fleißig Windparks bauen, obwohl mit dem Ausbau der Stromtrassen noch gar nicht mal begonnen wurde. Selbstverständlich mit Versicherung und Entschädigung für den Windparkbetreiber, weil er ja nix dafür kann, dass sein Strom nicht ins Netz kann :rolleyes:
 
Zuletzt bearbeitet:
Tammy schrieb:
Natürlich habe ich den rest gelesen aber das ändert doch nichts daran dass acht Stunden volllast als grundlage der rechnung nichtmal ansatzweise realistisch sind.

Es waere unschenswert wenn endlich mal jeder der seinen senf zu Stromverbrauch abgibt sich vorher informieret
was tdp bedeutet und wie oft ein desktoppc volllast anliegen hat.

Wieso zerhackst du meinen Beitrag und nicht den Pro-AMD-Beitrag? ^^

Jedenfalls mal ein realistisches Beispiel, nämlich meines von Feldberechnungen für eine langfristige Studienarbeit:

Vergleich Xeon 1245V2 (CPU-Teil identisch mit i7-3770) gegen AMD FX-8350, Werte aus dem Computerbase-Test.

Im Schnitt 12 Stunden pro Tag Volllast, Differenz im Verbrauch 94W, Korrekturfaktor 1.09, weil der AMD bei Multicore-Berechnungen um etwa 9% langsamer ist, Strompreis bei uns wie gesagt 0,27ct/kWh.

JahresMehrverbrauchskosten= 121,17€

Ist das jetzt realistisch genug? Wahrscheinlich nicht mal, weil der AMD bei der Feldberechnung wahrscheinlich noch mehr Federn als die 9% lassen müsste, der Software-Hersteller hat darauf hingewiesen, dass die neuen AMD-Prozessoren noch erhebliche Performance-Probleme haben, wahrscheinlich wegen der geringeren FPU-Leistung.
 
AndreSpi schrieb:
es heist ja das getroffene hund bellen, scheinbar habe ich doch getroffen.

Mach dich bitte nicht wichtiger als du bist....


es geht mir um die hier oft vorherschende doppelmoral.

Ne, is klar...


auf dem verbrauch bei AMD rumhacken, sich dann aber ne fette graka rein dübbeln.

Nur du redest hier von Grafikkarten, wir andere reden von CPUs.


da spielt der verbrauch dann plötzlich keine rolle mehr.

Sagst auch nur du.



also gut nehmen wir deine zahlen ca. 45,-- wie war das im Jahr! macht dann also 3,75 im monat, ist also noch weniger als in meinem beispiel.

Hmm, ich dachte deine 9€ wären aufs Jahr gerechnet ;)

Aber rechnen ist nicht dein Fall, oder? Wenn du die rein theoretischen (und wahrscheinlich auch eher unrealistischen) 45€ als Peanuts abtust, dann weiss ich auch nicht mehr. Nach 1-2 Jahren könntest du dir dann wirklich eine fette Gamer-CPU kaufen. Und nach 3-4 Jahren wärst du kosten- und performancetechnisch weit hinterher. Logik?



Scr1p schrieb:
Wenn ich mir so ne dicke CPU kaufe dann hat man wohl meistens damit nur eines vor, zocken ! Ach und da fallen mir so Begriffe ein wie: GTX670, 680, AMD 7970,.... ohja da jucken mich die 125W der CPU ja mega :D
Wenn mir was bei meinem PC egal ist, dann ist es der Stromverbrauch :cool_alt:

Wieder jemand der seinen Strom nicht selber bezahlt (Papa oder Amt).



AndreSpi schrieb:
ich bezahle seit ich 18 wurde und in meiner eigenen wohnung lebe für meinen strom selber und das jetzt seit fast genau 40 jahren.

wie lange bezahlst du den deinen selbst?


sage es uns doch mal!

Mind. 25 Jahre zahle ich schon selber.... falls es dich wirklich interessiert.



swm-kullerkeks schrieb:
Der Mehrverbrauch einer AMD-CPU gegenüber einem Intel ist am Ende für einen Privatmann vernachlässigbar. Die Leistung pro Watt mag geringer sein, und klar hat ein LGA-2011-i7 bei selber TDP mehr Leistung, aber werden hier tatsächlich schon wieder 500€-Intels mit 150€-AMDs verglichen? Wer mehr bezahlt, kriegt auch mehr, so war das schon immer.

Nein, ich würde einen Intel 3470 gegen eine AMD CPU vergleichen. Und der 3470 kostet auch nur 160€.

Und vernachlässigbar ist das alles gar nicht. Alles eine Frage der Rechnung. Wenn ich den PC nur ne Stunde am Tag zum surfen verwende, ja, dann ist mir das egal. Dann würde ich aber immer noch keinen AMD kaufen, sondern nen Celeron für 35€.
 
Zurück
Oben