News AMD: FX-CPUs auf Basis von „Piledriver“ Ende Oktober?

MichaG schrieb:
Bis auf die "Preise" und den angeblichen Termin gibt's ja nichts neues. Daher habe ich mir die Tabelle gespart, aber auf die News mit den Specs verlinkt, wo es auch ne hübsche TABELLE gibt. :D

Das wirkt dann aber so, als wolltest du auf Teufel komm raus einen möglichst langen Text basteln, der nach viel Info aussieht. Das ist schlechter Stil. Dann gibts halt keine News oder nur eine 2-3 Sätze lange.
 
Denn höheren Strom verbrauch kann ich bestätigen, ich hab noch eine alte AMD X4 945, und Kumpel ne 2500K und der unterschied ist beim Zocken enorm 100W, und im Idle 30W vielleicht etwas mehr!!!

Also wenn ich mir irgend wann neues zeug kaufe, auf jedenfalls Intel...
 
30Watt im Idle? :lol: (weiter oben schon gepostet: http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/index7.php - und ht4u misst wirklich nur den Verbrauch der CPUs) - deine höhere Leistungsaufnahme liegt also definitiv zu einem Großteil an etwas anderem (GPU, MB, NT etc.)... - oder habt ihr sonst etwa das identische Set-up? Schon eine Grafikarte der neuen Generation kann im Idle beispielsweise 10W oder mehr Unterschied auslösen.

Also wenn ich mir irgend wann neues zeug kaufe, auf jeden fall informiere ich mich vorher nochmal genau... ;)
Daher warte ich auch erstmal den Test ab.
 
Zuletzt bearbeitet:
Slopestyle-1 schrieb:
Denn höheren Strom verbrauch kann ich bestätigen, ich hab noch eine alte AMD X4 945, und Kumpel ne 2500K und der unterschied ist beim Zocken enorm 100W, und im Idle 30W vielleicht etwas mehr!!!
Und wen juck das, gibt Leute die verbauen auch gleich 2 oder 3 Grakas um überhaupt ein Nutzen von einer Intel CPU zu haben. Und schon relativiert sich das Argument mit dem Stromverbrauch.
Und wer sich ein K-Model holt, prügelt das Teil mit Sicherheit auf 4-4,5 ghz, und auch da zieht deine Öko-Rechnung nicht mehr. (Könnten ja dann noch mehr FPS in VGA-Auflösung drin sein) .:) . Übrigens gibs hier sone Stromschleuder als Gewinnspiel schon von Haus aus übertaktet.

Also wenn ich mir irgend wann neues zeug kaufe, auf jedenfalls Intel...

Wieso? Hast wohl Angst, dass dein PSU nicht mehr reichen könnte?:D
Solltest dir Gedanken machen den PC ganz abzuschaffen, wenn du wegen paar Watt mehr schon am jammern bist.
 
Zuletzt bearbeitet:
Sgt.Slaughter schrieb:
Für mich hat das nichts mit hinterher hinken zu tun.Auch wenn es einige anders sehen oder praktisch andere Erfahrungen haben:

AMD Plattformen und Nvidia Karten ? Nicht mehr ganz so mein Ding seit eigenen Erfahrungen :mad:

AMD Plattformen und AMD Karten ? Der :hammer_alt: in meinen Augen.Funzt einfach wunderbar zusammen.

Und bei Nvidia Anhängern ist glaube ich eine Intel Plattform wirklich die bessere Wahl.(Wobei Glauben nicht wirklich wissen heist) :D

Man liest z.B immer wieder,das der aktuelle AMD 990FX Chipsatz und SLI nicht so das wahre sind,obwohl diese ja dafür auch ausgelegt sind.Seit meinen Erfahrungen aus der AM2+ Ära und SLI Gespann kann ich das nur bestätigen.Nach einem Wechsel auf einen Nforce 680 Chipsatz liefen die beiden 8800 GTS sehr geschmeidig.


SLI braucht mehr CPU Leistung als CrossFire. Ist halt einer der Gründe warum es bei Intel besser läuft. Ändert aber nichts daran, dass die aktuellen AMD Prozzis die aktuellen AMD Karten limitieren.
Zudem ist der Verbrauch für die gebotene Leistung einfach zu hoch, AMD kann aktuell nur mit der MHZ Keule kommen da die Architektur ihrer zeit voraus ist.
Nichtmal Intel traut sich nur mehr auf Mehrkern Anwendungen zusetzen und die Architektur nur dahin zu optimieren.

Deswegen werden auch die Bulldozer zu Schleuderpreisen verschenkt, dem Piledriver wird es da nicht anders ergehen. Einzig bei IGP kann AMD Punkten.
 
@ Hawk1980

also ich MUSS da jetzt Slopostyle-1 schon "in schutz" nehmen ... ^^
konjunktiv ist dir aber schon ein begriff ?
finde an der aussage " Also wenn ich mir irgend wann neues zeug kaufe, auf jedenfalls Intel... " nichts
verwerfliches ... außer man versteht / deutet die aussage falsch u. interpretiert seine EIGENE gedankengänge
hinein ... oder Intel ist einfach nur pöse³^^

@ topic
schön das sich da zeitlich einiges bewegt ... hoffen wir mal, dass die bevorstehenden tests "bedachter
gewählt" werden u. AMD z.T. nicht sooo "abschreckend" da steht. ;)
 
Was hier schon wieder abgeht. Gott sei dank habe ich solche Probleme nicht. Bei mir herrscht noch Ordnung, da passt der Monitor schon auf, dass CPU und GPU nicht zu sehr ins Schwitzen kommen, der will ja mit seinen 17" und 1280x1024 auch nicht zuviel arbeiten! :D

Was mich aber wundert, sind die unterschiedliche Taktsteigerungen. Vom 8150 -> 8350 sind das 400MHz. Beim 4100->4300 legt AMD allerdings nur 200MHz drauf. Versteh ich nicht ganz. Hatte ja gehofft, dass ein 4370 mit ca. 4,6GHz Standardtakt kommt, denn schon der 4170 war ein guter (wahrscheinlich die beste) AMD-CPU fürs Spielen. Denn im Vergleich zum FX-8150 liegt der 4170 in den meisten Spielen gleichauf oder gar davor. Und mit unter 1100T und 980 in die Schranken verweist. Wenn man sich jetzt noch vor Augen hält, dass der gute nur 110€ kostet, bin ich sehr auf den Nachfolger (hoffentlich gibts den) gespannt. AUßerdem finde ich die Leistung, dafür dass es ein 2+2 Kerner ist, recht gut. Klar Intels 2120/3xxx sind schneller und sparsamer, aber darum gehts jetzt nicht.

Ich werd mir auf jeden Fall wieder eine AMD-CPU kaufen. Ich bin mir wohl bewusst, dass Intel besser ist als AMD aktuell, da muss ich auch nichts schön reden. Vorallem für meinen Einsatzzweck. Aber ich hatte immer AMD (mit Ausnahme eines P4 - als Entschuldigung - mein 939-Mainboard war kaputt und ich hab ihn gratis bekommen) und werde auch immer AMD haben. Ich bin quasi ein Computerpunk im CPU-Bereich. :D

Quellen:
PCGH-Test
Ocaholic-Test
Gamestar-Test
 
Whoozy schrieb:
Jemand der ein SLI System hat wird nicht mit einem Monitor zocken der eine FullHD Auflösung hat (wenn doch, dann ist dieser dumm). Der wird mit 3 Monitoren zocken die mindestens eine FullHD Auflösung haben.

BTW. Nur weil AMD von beginn an einen hochen Takt stellt, heisst das doch nicht das die CPU nicht mehr vernünftig Taktbar ist. Grade die Bulldozer Architektur ist auf hohen Takt ausgelegt. Also überdenke bitte noch einmal diesen geistigen Abfall den du von dir gegeben hast.

Ich habe selten so nen blödsinn gelesen.
 
Es tut schon fast weh, wenn man sich einige der geistigen Ergüsse hier durchliest :freak: !

  1. Es gibt - und man könnte denken, einige hören dies das erste mal - neben Spielen auch andere Anwendungen !
  2. Für die, die 1. nicht glauben: Die meisten Spiele sind grafikkartenlastig und die CPUs schon längst ausgereizt. Siehe hier.

Mehr braucht man nicht zu sagen.
 
Schu3 schrieb:
Vom 8150 -> 8350 sind das 400MHz. Beim 4100->4300 legt AMD allerdings nur 200MHz drauf. Versteh ich nicht ganz. Hatte ja gehofft, dass ein 4370 mit ca. 4,6GHz Standardtakt kommt, denn schon der 4170 war ein guter (wahrscheinlich die beste) AMD-CPU fürs Spielen.
Ich vermute doch stark das die noch höhere Takt Frequenzen nach schieben, der 4170 war ja auch nicht im Line-UP.
 
boxleitnerb schrieb:
Also Computerbase, jetzt mal wirklich Tacheles:

Macht Tabellen !!!!!!!!!

In echt jeder News, in der ein Haufen Informationen steckt, wird das in einen möglichst langen aber unübersichtlichen Textbeitrag gepfuscht.

Jop das vermisse ich auch immer häufiger.
 
@SuddenDeathStgt
Na, mach mal nicht einen auf IntelFanboy hier. ^^:)
Soll er doch kaufen wozu er lustig ist. Ist mir doch Wumpe. :)
Nur das Argument geringer Stromverbrauch und OC CPU passt irgendwie nicht so ganz ins Bild.:evillol:

So nebenbei, hier siehst du was ich von Intel CPUs halte.

Nö ist es nicht.
Wird langsam Zeit für neue Grafikkarten.

Mehr braucht man nicht zu sagen.
AHA, also deiner Meinung nach sollen alle User deren PCs angefangen PHII X4 - FX8xxx CPUs beinhalten, für lächerliche 20% mehr Spieleleistung einer überteuerten Intel CPU + Board , bei ihren AMDs bleiben.
Gut das die Grafikkarte die FPS generiert, und nicht die CPU. :D

Edit: Danke Tuetensuppe, ist korrigiert. Der Kaffee geht auf mich.:)
 
Zuletzt bearbeitet:
Wichtig ist, dass es bei den neuen FX2 schnellere 95 watt tdp Varianten gibt. Denn viele hier im Forum sagen 125 watt tdp ist nicht mehr zeitgemäß. Für viele möge das zutreffen, mir zum bsp wäre es egal, denn ich laste die CPU sowieso selten aus und weiteres habe ich einen großen Kühler, so wie die meisten hier im Forum.Ich werde sowieso bei meinem PII bleiben , denn selbst den kann ich nicht mal richtig zum schwitzen bringen.

Am interessantesten könnten die neuen FX 4xxx und fx 6xxx sein.
AMD FX-6300 - six-core, 3.50GHz/4.10GHz, 6MB L2 + 8MB L3 cache, 95W - $175
AMD FX-4300 - quad-core, 3.80GHz/4.0GHz, 4MB L2 + 8MB L3 cache, 95W - $131
zum Vergleich der FX 6200 hat 3,8 ghz mit Turbo auf ebenso 4,1 ghz.
Verglichen zum i3 würde der Verbrauch eventuell höher ausfallen. Man hätte aber vllt in Games gar keine Nachteile. Dafür gäbe es aber Instruction sets wie AES ect die bei den i3 beschnitten wäre. Weiteres wäre die CPU bei Anwendungen wesentlich schneller. Ich könnte mir einen Preis von 130-150 euro gut vorstellen.

Die eigentliche Kritik war ja nie wirklich der Verbrauch alleine, sondern eben die TDP oder ? Überlegt mal wieviele sich eigentlich über die "TDP-Werte" beschwert haben, ohne zu wissen was das überhaupt bedeutet.
Mit einer 95 watt tdp Variante fällt die Kühlung wesentlich leichter, kleiner und günstiger aus. Sodass AMD's 95 watt varianten attraktiver werden, wenn diese von ihren größeren Brüder nicht wieder im Schatten landen.

Meine Meinung bleibt bestehen. Die wichtigste Preis-Klasse ist bis 150 euro und man sollte weiterhin den Focus auf Grafikkarte legen, wenn man einen Gaming PC will (Natürlich auch ein solides Case und Netzteil bei einem komplett neukauf, da man genau diese Teile ewig weiterverwenden könnte)

(offtopic)
Die Leute die ständig von Stromverbrauch labern, sind meist auch jene, die vom Balken lesen/beurteilen keinen Schimmer haben. Die schauen sich im Endeffekt zwei Seiten an. Gaming-Performance, Last-Verbrauch, und meinen sie verstehen jetzt die Welt und mehr muss man nicht wissen.
Ein großer Fehler, für was gibt es denn einen ausführlichen Test, wenn man dann sowieso alles auf 2 Unterpunkte reduziert ?
Würde man eine Statistik haben, welche Links am häufigsten geklickt werden, werden es bestimmt diese zwei Seiten sein, denn ich behaupte mal ganz frech, die meisten lesen sogar nicht ein Mal die Tests durch !

Eigentlich wollte ich zu diesem Thema gar nichts schreiben. Als ich mir die Kommentare durchgelesen habe, ist mir wieder aufgefallen, dass man sich sowieso schon wieder wie ein ewiges Schwungrad um die gleichen Argumente schwingt. Die Marketing/Forum-Philosophie gewisser Firmen-Seiten ist wie eine Gravitation, die so stark in den Köpfen ist, dass die Maße dieser nie entkommen wird ^^ und somit nie selber Sachen hinterfragen wird und auf eigene Vorstellungen aufbauen wird xD
Aber ich gebe zu, es ist einfacher zu sagen, ich bin gut und alle anderen sind scheiße :D

Ich für mein Teil freue mich auf Oktober ^^ und was mich momentan am meisten interessiert, was ist der Unterschied zwischen Piledriver Trinity und Piledriver Vishera ! Naja bald wird das Geheimnis hoffentlich gelöst sein.
 
Zuletzt bearbeitet:
Hawk1980 schrieb:
Mehr braucht man nicht zu sagen

@AHA, also deiner Meinung nach sollen alle User deren PCs angefangen PHII X4 - FX8xxx CPUs beinhalten, für lächerliche 20% mehr Spieleleistung eine überteuerte Intel CPU + Board kaufen. Dir ist hat wohl heut morgen der Kaffee nicht gescheckt?!:freak:
Gut das die Grafikkarte die FPS generiert, und nicht die CPU. :D

... und nichts anderes hat @Wolfsrabe ja auch geschrieben :D

Wohl noch zu wenig Kaffee getrunken? ;-)
 
pipip schrieb:
Wichtig ist, dass es bei den neuen FX2 schnellere 95 watt tdp Varianten gibt.

Am interessantesten könnten die neuen FX 4xxx und fx 6xxx sein.

Ich für mein Teil freue mich auf Oktober ^^ und was mich momentan am meisten interessiert, was ist der Unterschied zwischen Piledriver Trinity und Piledriver Vishera ! Naja bald wird das Geheimnis hoffentlich gelöst sein.

Ganz Deiner Meinung.

siehe auch hier: http://www.planet3dnow.de/vbulletin/showthread.php?t=405982
 
@ Hawk1980

was soll mir der reine gpu-test in deinem link nun näher erläutern ?
ich glaube ... ich brauch auch noch ne tasse kaffee. ^^
 
SuddenDeathStgt

Es geht darum. Wenn man Prozessoren darauf untersucht, wie sie im gaming abschneiden, ist es sinnvoll Games und Programme wie Furmark zu verwenden. Diese geben ein wesentlich realistischeres Bild wieder als 2 Prozessoren alleine mit prime zu untersuchen (Verbrauch).
Wobei ich klar befürworte, es kommt drauf an, ob ein Game mehr CPU oder gpu lastig ist. Doch sieht man solche vergleiche obwohl sie ebenso legitim sind eben selten.

Ich schätze mal seine Aussage bedeutet, lieber ne fette Grafikkarte zum gamen als einen fetten Prozessor ^^
 
Zuletzt bearbeitet:
Julz2k schrieb:
Das hat zur Folge, das man selbst nicht mehr allzu hoch Takten kann, da einfach ab Werk schon höher getaktet wurde.
AMD sollte einfach komplett aus dem "Gamer" Markt verschwinden, es lassen sich manche Spiele mit einer AMD CPU einfach nicht flüssig spielen.
Spätestens wenn man SLI hat, stößt man auf die Grenze einer AMD CPU.

Also anstatt hier sinnlose Behauptungen aufzustellen, solltest du lieber mal "Nachweise" bringen. Vor allem Nachweise, die Belegen dass die CPU Schuld daran ist und nicht irgend ein anderes Bauteil ....

Wie dem auch sei, als "nicht-SLI"-Spieler habe ich selbst mit einem veralteten Phenom I mit GeForce GTX285 (2GB) KEINERLEI Probleme.
Alle zumindest für mich relevanten Spiele laufen weiterhin tadellos auf 1920x1080 ...

Vermutlich ist bei dir der Punkt "nicht spielbar" bereits erreicht, wenn du anstatt von 150 Frames nur noch 120 hast ... obwohl du ab (ca) 80 FPS so so keinerlei Unterschiede mehr erkennen könntest ... aber whatever, hauptsache die FPS-Anzeige wird mehr statt weniger ;)

Ich warte wohl noch ein wenig, in absehbarer Zeit wird es aber mal Zeit für n Upgrade ;)
Ich tendiere Richtung Weihnachts- bzw. Neujahrsgeschäft :o)
 
pipip schrieb:
SuddenDeathStgt

Es geht darum. Wenn man Prozessoren darauf untersucht, wie sie im gaming abschneiden, ist es sinnvoll Games und Programme wie Furmark zu verwenden. Diese geben ein wesentlich realistischeres Bild wieder als 2 Prozessoren alleine mit prime zu untersuchen (Verbrauch).

mit dem verbrach ... da bin ich bei dir. :)
gaming beinhaltet aber mehr als nur titel, welche primär die gpu fordern.
ist halt mMn etwas *einseitig" & spiegelt die realität nicht wider.
wenn man sich mal die gaming-szene näher anschaut ... sprich erfolgreiche titel die gedaddelt werden,
bspw. ein SC2, BF3, GW2 etc. ... bzw. da muss ich mal einen schwenk zu PCGH richten, diese sich mMn mit der thematik bestens beschäftigen - für manche mag das auch "cherry-picking" sein ... für mich orientieren sie sich einfach am markt bzw. an der breiten masse.
 
Zurück
Oben