News AMD: „Vishera“-Flaggschiff FX-8350 mit 4 GHz Basistakt

Das hab ich schon wieder in Zig Posts gelesen:

Leute, immer noch: TDP hat nix mit Stromverbrauch zu tun ;)
 
Da AMD an den Punkten zu drehen scheint, die den Bulldozer im Desktopeinsatz bisher noch stark ausgebremst haben und noch den Takt um 10% erhöhen wollen, bin ich recht zuversichtlich, zum Jahresende einen Nachfolger für meinen 1090T zu haben.
Dank 970er Board werd ich auch nur die CPU umstecken müssen.

Stromverbrauch ist egal, mein 10 Jahre alter Kühlschrank ist schlecht für meine Energiebilanz, nicht die CPU im Rechner :)
 
Es wird schnell vergessen wie viel Know-How hinter so einer CPU steckt. Mathe, Physik, Elektrotechnik, Chemie, Maschinenbau, Fertigungstechnik.

99.9% der Leute die hier "Fail" schreien würden selbst in 20 Jahren Arbeit nicht einmal die ersten Computer selbst entwickeln oder produzieren können.
 
@Cokocool:

Und man sollte nicht vergessen, dass viele der großen Neuerungen in der x86-CPU-Geschichte von AMD kamen. ;) Insofern warte ich ab, wie sich die Architektur entwickelt.
 
Zuletzt bearbeitet:
Immer wieder eine wahre Freude einen AMD Thread auf CB zu lesen! Danke dafür!

Zum Thema: Ich persönlich finde es immer noch erstaunlich, dass AMD mit ca. 1/10 des Forschungsetat von Intel überhaupt noch leistungstechnisch mithalten kann. Bei den aktuellen Prognosen von Piledriver kann AMD deutlich zu Sandy/Ivy aufschließen, von der Leistung her natürlich. Dass dabei irgendetwas auf der Strecke bleibt, der Stromverbrauch, ist auch klar, man kann mit weniger Geld eben auch weniger in die Forschung investieren, was z.B. Fertigungstechnik angeht.
 
Das Schlimmste ist, dass der Bulldozer-Chefentwickler, eine absolute und hoch angesehene Koryphäe in der Prozessorwelt, neben den ganzen Entlassungen jetzt auch noch verstorben ist. Ich bin gespannt, wie das weitergeht. :(
 
Ist ocaholic eigentlich seriös? Der Test 4-Thread Bulli vs. 4Kern i7 scheint mir persönlich etwas weit hergeholt und schöngeschrieben :/

Den Stromverbrauch und die Veränderung desselben bei Intel-ähnlicher Fertigung kann man leider nicht abschätzen. 125 W TDP kann auch 100 W Verbrauch bedeuten. Ähnlich dem Q9550: 71 W Verbrauch, 95 W TDP, und die Low-K-Version war dann bei 65 W TDP.
Also warten wir mal lieber den Test ab und spekulieren dann weiter. ;)
 
nukular8400 schrieb:
Das AMD-Marketing könnte das kaum besser machen. Cherry-Picked Benchmarks großzügig nach oben gerundet und schon hat man in der Traumwelt eine neue Super-CPU, bei der man nur noch den höheren Verbrauch wegdiskutieren muss.

Da steht "würde". Das ist eine Best Case Analyse. Zu Beginn des Threads überwogen ja die Pessimisten, die keine nennenswerte Entwicklung sehen. Konservativ betrachtet kann ma durchaus mit 15-20% Plus rechnen. Da sich von Sandy auf Ivy Bridge nur 4-5% Plus ergab, holt AMD deutlich auf. Ob man nun gleichauf landet oder nicht, wird sich zeigen müssen. Momentan ist da eh alles Kristallkugellesen.
 
Erinnert mich irgendwie an die horenden Taktprognosen vom Pentium 4^^
Stimmt P4 ist geknackt, ein Rekord weniger für Intel, AMD hat bald den Taktrekord inne. Meiner Meinung nach ein Trauerspiel, extrem wenig IPC, Netburst hochgetakte, 8 Fake Kerne. Das Ding bräuchte min. 20% mehr Leistung bei besserer Energieeffizienz. Kann mir kaum vorstellen das dieser 2. P4 hier das schafft. Naja, vielleicht schlagen sie dann wenigstens den Phenom II dann durchgehend mit dem Ding...
 
N.t.H. schrieb:
Ist ocaholic eigentlich seriös? Der Test 4-Thread Bulli vs. 4Kern i7 scheint mir persönlich etwas weit hergeholt und schöngeschrieben :/

Wiso was sowas zu erwarten:rolleyes:
Da findet man mal KEIN FailTest im Netzt und schon kommen wieder solche Antworten....:o

Ich bin auch sehr gespannt wie die Leistung REAL sein wird,REAL mach Bulldozer ja schon eine sehr gute Figur gegenüber den PhenomII.Ich denke mal das die Taktleistung min auf PhenomII Takt steigen wird in den Schlechtesten Fällen wo Bulldozer rund 500-600MHz mehr an Takt braucht.
 
Zuletzt bearbeitet:
Perry S. Hilton schrieb:
achso, so ein chip wird durch autogenes training so heiss, und nicht durch den strom, welcher ihn durchfliesst :freak:

kann man sich noch dämlicher als Idiot outen? Klares NEIN (oder doch Manuelgtxyz kanns noch ein wenig besser :D) TPD und Abwärme wurde allein hier im Thread einige male erklärt.....
 
Fassen wir mal zusammen:

-Vishera bekommt L3-Cache
-schnellerer L2-Cache als der Zambesi
-Trinity muss sich die Speicherbandbreite mit der integrierten VPU teilen & das nicht zu knapp (sicher sehr viel mehr als Intels Varianten-->höheres Reaktionsvermögen auf Takt der APU-Version im Gegensatz zu Intels Versionen)
-mit Trinity neue Instruktionen (was auch immer sie bringen)

Ich weiß nicht, wo da immer das Tiefstapeln herkommt. Warten wir es doch mal ab, bevor die Abgesänge kommen - das sollte doch jeder ,,vernunftbegabter" Mensch können. wie schon angemerkt wurde, ist das schon nicht schlecht, was bei AMD geleistet wird, auch wenn es mit dem Bulldozer in manchen Benchmarks nicht so gut aussieht. Selbst VIA leistet einiges mit ihrem Nano. Das ist natürlich nicht vergleichbar mit Intel & AMD. Was ja mit hineinspielt, dass Intel wahnsinnig in die Produktion investieren kann mit neuen Fertigungstechniken - das darf man auch nie vergessen. Deswegen hält sich mein Respekt für Entwicklungsleistungen bei Intel extrem in Grenzen.
 
Zuletzt bearbeitet:
Ich wünsch mir ja immer noch nen 2 Modul Piledriver auf ner eigenen Maske. :)

Nunja erst mal abwarten wie sich die Dinger schlagen.
Kann ja nur besser werden.
Ergänzung ()

DinciVinci schrieb:
Das Schlimmste ist, dass der Bulldozer-Chefentwickler, eine absolute und hoch angesehene Koryphäe in der Prozessorwelt, neben den ganzen Entlassungen jetzt auch noch verstorben ist. Ich bin gespannt, wie das weitergeht. :(

Wen meins?
 
Ja sicher Bulli war nicht die beste cpu Reihe... allerdings halte ich das inzwischen nicht mehr so für Problematisch, zumal meistens auf das fehlen von genügend Speed angespielt wird... finde eher die Stromverbrauchswerte teilweise bedenklich... ABER z.B. für Spiele ist es ja völlig egal was man grad ein setzt, da es eh nur 99% Konsolenports und auch sonst nix da ist was mehr als einen 4core Bulli braucht...

Sicher für andere Bereiche... wenn man videos über die cpu encodiert und vielleicht noch 1-2 andere spezialanwendungen, ist hier mehr power noch wichtig... von daher seh ich das nicht als so problematisch an. Wie immer getan wird, faktisch wird für die meisten entweder fürs spielen ein Bulli oder ein Phenom x6 oder irgendwas in die richtung mehr als Ausreichen, zumindest bis die nächste Konsolengeneration kommt... und für die meisten anderen sind dann die APUs eher die Rechenleistung die angesagt ist... ich persönlich hab hier 2 zacates (ein notebook und ein htpc) jeweils mit ssd... das rockt ganz ordentlich... für surfen filmeschauen und co reichts doch locker selbst ohne gpu-video-encoding... gut bei hohen bitraten und 1080p gibts probleme... aber 720p reicht mir auch zumal ich ja eh auf nem 720p beamer mein zeug schaue... aber das ja eher ein Linuxproblem... in Windows sollte mit gpubeschleunigung auch die 1080p ohne hohe cpu auslastung und mit geringem verbrauch möglich sein...

Ja geht leicht off-topic ^^ finde nur das es nicht mehr so problematisch ist, mal solange wir von der spieleindustrie nix gescheites mehr geboten bekommen was mehr als nen bulli ausnutzen würde... btw müsste man dann eh erstmal 300,- oder mehr für ne grafikkarte oder 2 ausgeben, bevor die cpu in hohne auflösugen zum problem würde.

Interessanter ist da dann eher wieviel power/euro man bekommt... da kenn ich mich grad nicht so aus... mein kauf liegt schon weile zurück... klar gibt auch eine kleine gruppe mit spezialanwendungen denen ein bulli nicht reicht, die 2-5% User sind jetzt aber nicht relevant ob AMD überlebt oder nicht...
 
Suizid schrieb:
Ich wünsch mir ja immer noch nen 2 Modul Piledriver auf ner eigenen Maske. :)

Nunja erst mal abwarten wie sich die Dinger schlagen.
Kann ja nur besser werden.
Ergänzung ()

Wen meins?


Er meint Chuck Moore. Es ist zwar traurig sowas, wenn jemand stirbt. Es wird aber Nachwuchs nachrücken. Es ist ja nicht alles immer von einem Menschen abhängig oder sollte.
 
The_addi schrieb:
Das hab ich schon wieder in Zig Posts gelesen:

Leute, immer noch: TDP hat nix mit Stromverbrauch zu tun ;)

genau, mit TDP (Thermal Design Power) wird die abzuführende Wärmemenge eines Prozessors/elek. Bauteil bezeichnet.

Beispiel: So gibt z. B. Nvidia für die Geforce 8800 Ultra eine geringere TDP an als für eine Geforce 8800 GTX, obwohl auf der 8800 Ultra der gleiche Grafikprozessor mit einer höheren Spannung und höheren Taktraten eingesetzt wird und – bei einer Überprüfung der Leistungsaufnahme – erwartungsgemäß einen höheren Wert erbrachte. Die niedrigere Angabe als bei der 8800 GTX war möglich, weil man dieser einen unnötig hohen TDP-Wert gegeben hatte.
 
also ich hab mittlerweile ein recht gutes am3+ system zusammen gebaut mit einem fx 8150, nach einigen updates ( bei updates über win 7 mit meinem phenom 2 955 waren einige updates weniger dabei ) läuft dieses feine prozzesorchen sehr sehr gut. ich baute dieses system für meinen onkel auf, da er viele heftige simulatoren spielt die bekanntlich sehr viel leistung vordern. und ich undervoltete diese cpu auch auf 1.150 volt mit turbo!!! und das teil rennt wie die pest, und der stromverbrauch hält sich auch in grenzen.
ich spielte auch meine spiele die ich über steam habe auf diesem system, da sind brecher mit dabei wie max payne 3, shogun 2 und vieles mehr. und jedes spiel rockt, und im vergleich zu einem i7 2600k sehe ich keinerlei unterschiede beim gamen.

wie schon etliche male von mir erwähnt, glaube ich keinem enzigen test der im internet herumkreist und sich auf bullis bezieht.
ich hab das ding verbaut, habe gesehen was es zu leisten vermag. und bei undervolting, ist das ding der hammer und brauch für seine klasse wenig strom.

p.s. für die ganz langsamen hier noch mal; T D P hat absolut null mit verbrauch zu tun.
 
Nixdorf schrieb:
Wenn die eine CPU 16 Kerne mit 800 MHz hat und die andere 8 Kerne mit 3,2 GHz und sie schafft die Aufgabe in einem Zenhtel der Zeit, dann wird man NICHT zur CPU mit mehr Kernen greifen. Man greift zur CPU, die in den Anwendungen mehr Leistung erzielt.

Erstens hab ich geschrieben im absoluten Zweifelsfall würde ich immer zur CPU mit mehr Kernen greifen. Das setzt schon mal vorraus, dass sich beide CPUs absolut auf Augenhöhe bewegen, ganz gleich ob preislich oder von der Leistung. Mehr Kerne fördern die Kompatibilität und die Zukunftssicherheit, denn einen Kern kannst du immer mal deaktivieren, aber du kannst dir keinen dazuwünschen wenn ein Programm auf einmal vier anstatt zwei Kerne vorraussetzt.

Zweitens benutzt du absolut unrealistische, praxisferne und völlig aus der Luft gegriffene Beispiele. So kann man doch nicht argumentieren. Zeig doch mal bitte deine 16-Kern CPU mit 800Mhz. Ist die von AMD oder Intel? Auf welchen Sockel passt sie und wo kann ich sie kaufen? Mal angenommen wir nutzen den Rechner hauptsächlich für Spiele und haben einen Intel Core i3 2120 mit einer überragenden IPC, 3,3Ghz und 2/4 Kernen auf der einen Seite und auf der anderen einen AMD FX-8150 mit 3,6Ghz und 4/8 Kernen. Ich würde mich eindeutig für den Bulldozer entscheiden, auch wenn der Intel den AMD in Spielebenchmarks um ein paar Prozent überflügelt.
 
Zurück
Oben