News Erste Benchmarks zum „Vishera“-Desktop-Prozessor von AMD

Locuza schrieb:
Wie kann man eigentlich bei so einzelnen Gemeinsamkeiten, schon eine beinahe globale Gemeinsamkeit ableiten?

Dass Netburst auf hohe Taktfrequenzen statt auf mehr Leistung pro Takt gesetzt hat, war nunmal die Eigenschaft, die dieser Architektur das Genick gebrochen hat.
Andere Aspekte, wie die verbesserte Sprungvorhersage oder Hyperthreading usw. haben nachher ja auch nach und nach wieder Einzug in die folgenden Architekturen gefunden, aber die lange Pipeline und die angestrebten hohen Taktfrequenzen waren halt der entscheidende Knackpunkt von Netburst.

Bei Netburst hat sich Intel 5GHz und langfristig sogar mehr versprochen. Dann hätte es sein volles Potential ausgespielt. Ich weiß nicht, wo die angestrebten Frequenzen von Bulldozer liegen, aber sicher ebenfalls nicht unter 5GHz.
Jetzt kommt es darauf an, ob Global Foundries schafft, was Intels Fertigung damals nicht geschafft hat. Bisher sieht es nicht sehr gut aus. :rolleyes:
 
Na aber aus dem 3DNow!-Desaster haben sie ja gelernt. Ursprünglich wollten sie mit dem Bulldozer ja ihr eigenes SSE5 einführen. Gott sei Dank haben sie die Pläne verworfen und das AVX von Intel übernommen. Eigentlich wollte Intel im Rahmen des AVX auch FMA4 einführen, schwenkte aber dann auf FMA3 um. Bei AMD gibt's jetzt beides. :) Insofern haben die sich da relativ gut angepasst. Und wenn alle existierenden Prozessoren beispielsweise AVX und FMA3 beherrschen, wird sich das auch in der Software-Welt durchsetzen. Eine ähnliche Entwicklung hat man ja bei SSE damals gesehen. Erst als AMD die SSE-Instruktionen von Intel übernommen hatte, konnten die Software-Entwickler damit rechnen, dass die auch wirklich in jedem Rechner vorhanden sind.
 
Zuletzt bearbeitet:
Genaugenommen sollte man einfach nicht auf Kerne und Taktfrequenzen schauen, sondern nur auf den Preis, und bei dem passt die Leistung von AMD. Ein FX4xxx muss sich P/L mit langsamen Intel Zweikernern messen, ein FX6xxx mit schnellen Intel Zweikernern und die FX8xxx-Serie mit langsamen Intel-Vierkernern (2300). Mit einem 2500-2700 geschweige denn mit IvyBride 4-6 Kernern kann AMD halt nun mal nicht mithalten, macht aber nichts, solange man das auch am Preis sieht. Und wenn AMD in seiner jeweiligen Preisregion einfach ein bisschen schneller ist als die gleichteure Intel-CPU, dann passt das doch, besseres P/L!
 
@ puri
Aus Kundensicht kann man natürlich nur auf den Preis bzw. Preis/Leistung schauen.

Aber wenn man sich für die Technik, die zukünftige Entwicklung und langfristige Konkurrenzsituation interessiert, ist der Verkaufspreis nur ein Faktor von vielen.

Ich bezweifle z.B. stark, dass AMD seine großen CPUs wirklich so viel billiger herstellen kann, als Intel. Sie verkaufen sie nur viel billiger und das bedeutet, sie machen viel weniger Gewinn oder sogar Verlust. Und dieses Geld fehlt dann wieder für die weitere Entwicklung der Produkte und Verbesserung der Fertigungsprozesse usw.

Schon die Phenoms waren offensichtlich niemals als günstige Alternativen zu Intels Mittelklasse geplant. Das sollten Core2Quad-Killer werden und entsprechend hätten die Preise ausgesehen, wenn die Leistung gestimmt hätte. Aber AMD musste zwangläufig mit den Preisen runter, weil sie an Intel nicht heran kamen.

Auch ein 4-Modul-Bulldozer ist, bei selber Strukturgröße, fast 50% größer als ein Sandy-Bridge-Quadcore (inklusive der integrierten GPU, PCIe-Controller usw.).
Sogar der i7-3820 (Sockel2011) ist kleiner als ein FX-81xx!

Dem Kunden kann es wie gesagt egal sein, aber als jemand, der sich für die technischen und wirtschaftlichen Hintergründe interessiert, muss man sich schon etwas Sorgen machen, wie lange AMD noch sein High-End gegen Intels Mittelklasse positionieren kann, ohne daran pleite zu gehen.
 
Sie müssen aber nicht wie Intel Unsummen für die Fabs ausgeben und sind daher finanziell viel flexibler. Und die Umrüstung auf neue Technologien wird immer teurer. Ich bin eher gespannt darauf, wie Intel damit umgehen wird.
 
Dass Netburst auf hohe Taktfrequenzen statt auf mehr Leistung pro Takt gesetzt hat, war nunmal die Eigenschaft, die dieser Architektur das Genick gebrochen hat.
Richtig, am Anfang war der P4 sogar recht ordentlich aufgestellt, es ging los mit 65Watt CPUs. Die sich im Gegensatz zu AMD bei Überhitzung selbst schützen konnten. (extrem wichtig damals bei den horrenden CPU Preisen)


Jetzt kommt es darauf an, ob Global Foundries schafft, was Intels Fertigung damals nicht geschafft hat. Bisher sieht es nicht sehr gut aus.
Keine Chance, keine Fertigung der Welt kann eine schlechte Architektur ausgleichen. Erst recht nicht die von AMD. Eher wird das ganze so laufen wie beim P4, die Probleme werden eher zu nehmen Richtung 5Ghz.


Wer weiß, vielleicht würden die Ivys bei den Temperatur"problemen" auch einfach wegglühen,
Eher genau das Gegenteil, da durch den Wegfall der GPU und den zusätzlichen 2 Kernen die DIE Fläche der CPU steigt und man die dann besser kühlen kann, über den Flaschenhals der zur Zeit dort herrscht. So zumindest die Theorie die sich dann in der Praxis mit Ivy E zeigen sollte.


Genaugenommen sollte man einfach nicht auf Kerne und Taktfrequenzen schauen, sondern nur auf den Preis
Eigentlich auf die IPC, denn das ist der Flaschenhals der aktuellen CPUs. Programme die viel IPC fordern. Und da Mehrkern Optimierung extrem teuer und zeitaufwendig ist, finde ich es sehr gut von Intel, das sie hier die Entwickler entlasten mit der extremen IPC und Turbo. Das Geld und die Zeit kann man dann in sinnvollere Sachen stecken, da Software sowieso immer hinter her hinkt, passt das schon. Hardware soll die Software Entwickler entlasten.
 
Zuletzt bearbeitet:
DinciVinci schrieb:
Sie müssen aber nicht wie Intel Unsummen für die Fabs ausgeben und sind daher finanziell viel flexibler. Und die Umrüstung auf neue Technologien wird immer teurer. Ich bin eher gespannt darauf, wie Intel damit umgehen wird.

Das betrifft ja alle Fabrikbesitzer. Und die werden die Kosten auf die Produkte und Abnehmer umlegen - und zwar auch TSMC und GF, denn die wollen ja auch noch was verdienen und arbeiten nicht zum Selbstkostenpreis.
 
puri schrieb:
Genaugenommen sollte man einfach nicht auf Kerne und Taktfrequenzen schauen, sondern nur auf den Preis ...

Tja, bei Workstations schaut man zuerst auf die Leistung und auf die Leistung pro Watt.
Bei Office PCs spielt die Leistung eine untergeordnete Rolle aber viele Firmen wollen eine Fernwartungsfunktion (vPro) und die kann AMD auch nicht bieten.

Gamer wollen Leistung und da muß AMD gegenüber Intel auch passen.

Wenn es nur um das P/L Verhältnis geht, mag AMD vielleicht vorne liegen, aber trotzdem ging AMDs Umsatz zurück, während Intel leicht zulegen konnte.
 
Schon klar, die haben aber einfach mehr Kunden, auf die sie das aufteilen werden. ;) Außerdem läuft die Umrüstung bei GF und TSMC etwas gemächlicher ab.
Ergänzung ()

CHAOSMAYHEMSOAP schrieb:
Wenn es nur um das P/L Verhältnis geht, mag AMD vielleicht vorne liegen, aber trotzdem ging AMDs Umsatz zurück, während Intel leicht zulegen konnte.

Das lag daran, dass Intel in den letzten 2-3 Wochen des Quartals den Markt mit Alt-CPUs zu Dumping-Preise überschwemmt und AMD so rausgedrückt hat, um den Marktanteil zu puschen. Das steht inzwischen sogar offiziell in der ct.
 
Zuletzt bearbeitet:
Woran es gelegen hat ist doch wurscht. Tatsache ist, daß AMDs Strategie mit billigen APUs in China und im OEM Markt nicht aufging.

Was nicht verwundert, denn viele OEMs wollen/brauchen eine fernwartungsfähige Plattform und da kann AMD nichts anbieten.
 
Kasmopaya schrieb:
...eine schlechte Architektur...
Weil? Zambezi ist kein besonders guter und effizienter (Desktop-)Prozessor. Abr die gesamte Architektur als schlecht zu bezeichnen ist arg pauschal.
Kasmopaya schrieb:
...die IPC, denn das ist der Flaschenhals der aktuellen CPUs. Programme die viel IPC fordern. Und da Mehrkern Optimierung extrem teuer und zeitaufwendig ist, finde ich es sehr gut von Intel, das sie hier die Entwickler entlasten mit der extremen IPC und Turbo. Das Geld und die Zeit kann man dann in sinnvollere Sachen stecken, da Software sowieso immer hinter her hinkt, passt das schon. Hardware soll die Software Entwickler entlasten.
Ich dachte CPUs und Software sind für den Kunden da. Die Faulheit der Entwickler sich nicht auf viele Kerne zu konzentrieren verdient nun wirklich keine Lob. Multithreading ist die Zukunft, allein weil die CPU-Kerne bzw Dies aufgrund der Fertigung immer kleiner werden. Da weiter auf Singlethreading zu setzen ist rückwärtsgewandt.

Und einerseits beschwerst Du Dich, daß Intel nicht mehr Kerne bringt, andererseits findest Du gut, daß die Softwareentwickler nur sehr mäßigen Mehrkernsupport anbieten. Wie passt das zusammen? Was willst Du dann mit 6 oder 8 Kernen? Protzen?
 
Sgt.Slaughter schrieb:
Nach Jahren des Erfolges durchwandert AMD eben aktuell einen Graben durch den auch Intel damals zum Teil mit dem Pentium 4 gehen musste.Danach hat der größere Konzern eben seine Hausaufgaben besser gemacht.

Vielleicht sollten sie wie damals Intel exklusiv Verträge abschließen und nachher ein Apfel und ein Ei als Strafe bezahlen, hat ja bei Intel auch gut geklappt *scnr*
 
Herdware schrieb:
Dass Netburst auf hohe Taktfrequenzen statt auf mehr Leistung pro Takt gesetzt hat, war nunmal die Eigenschaft, die dieser Architektur das Genick gebrochen hat.
Man sollte halt mal das Konzept von Bulldozer verstehen. Und das ist in erster Linie Effizent.
Wenn man das versteht, dann weiß man warum Bulldozer @ Server und vorallem im Notebook-Bereich noch gut mithalten kann bzw. eben viel besser als im Desktop-Game-Markt.

Der Desktop-PC-Markt wird immer kleiner und unwichtiger. Warum Leute die Architektur nach ihren Bedürfnissen und nicht nach Märkten und Markt-Bedeutungen bewerten, ist mir ein Rätsel. AMD hat richtig gehandelt und sich für Zukünftige Märkte konzentriert.
Und das ist der Server & Notebook, da man dort Effizienz nie genug bekommen kann, während der Desktop-OEM-Markt schon gesättigt ist und Desktop-Game-Markt ebenfalls erheblich weniger Bedarf benötigt als früher.

Vielleicht verstehen das erst wieder die meisten hier, wenn es in Zukunft dann die Zahlen zeigen.

Bei Netburst hat sich Intel 5GHz und langfristig sogar mehr versprochen. Dann hätte es sein volles Potential ausgespielt. Ich weiß nicht, wo die angestrebten Frequenzen von Bulldozer liegen, aber sicher ebenfalls nicht unter 5GHz.
Jetzt kommt es darauf an, ob Global Foundries schafft, was Intels Fertigung damals nicht geschafft hat. Bisher sieht es nicht sehr gut aus. :rolleyes:
Netburst versagte trotz besseren Fertigung. Viele träumen, dass AMDs Architektur eine um so viel bessere Architektur ist, dass sie auch noch den Vorteil der Konkurrenz-Fertigung kompensieren können. Wobei es in Notebook & Server eh gut aussieht.

AMD braucht ja nur deshalb so einen hohen Takt, weil die dicken Intel-Cores durch die viel besseren Fertigung so sparsam wirken.

Man sollte auch verstehen, dass wenn man CPU-Performance hinten liegt und mit der CPU-Performance aufholen will, dann geht die Effizienz zu nichte. Wer nur mit Top-Modellen vergleich, zeigt schon seine Inkompitenz über CPU-Architekturen.

Und genau das machte AMD eben im Notebook-Markt. Denn dort wurde der TDP auf 35W-TDP begrenzt, was im Effizienten Rahmen der Architetur & Fertigung liegt und schon kann auch Bulldozer sehr effizient sein.
 
puri schrieb:
Genaugenommen sollte man einfach nicht auf Kerne und Taktfrequenzen schauen, sondern nur auf den Preis, und bei dem passt die Leistung von AMD.
Ein FX 4100 kostet 95 Euro ,ein Llano Athlon II X4 651 mit etwa gleicher Leistung um 78 Euro.
Ein Athlon 641 sogar für günstige 66 Euro...
 
Zuletzt bearbeitet:
Zambezi ist kein besonders guter und effizienter (Desktop-)Prozessor.
Überall wo die Bulli Kerne einziehen ist die Kacke am dampfen. So einen massiven fail wie den Bulli hat man schon lange nicht mehr gesehen. Aktuelle APUs haben ja teils noch den Phenom CPU Part, der kann ja noch recht gut mit Core 2 mithalten...
Die Faulheit der Entwickler sich nicht auf viele Kerne zu konzentrieren verdient nun wirklich keine Lob.
Ist nicht unbedingt Faulheit. Blizzard der Meister der IPC Forderung hat bei Diablo III und Starcraft II so früh angefangen mit der Entwicklung, das man von Quad Support noch nicht viel wusste. Das gleiche mit WoW, ich glaub da gibts auch keinen ordentlichen Quad support. Wie gesagt ist das extrem teuer und aufwendig das so aufzuteilen. Ich kenne Programmierer, da kann man verzweifeln sagen die immer. Und warum das ganze, weil sich die CPUs am Limit waren mit dem Takt und jetzt einfach so gebaut werden, sollen die Entwickler horrende Summen in die CPU Optimierung stecken. Gerade bei Games nicht sinnvoll, einfach alles in die GPU auslagern, bei der gibts zwar auch zig Tausend Kerne, aber die werden durch den Treiber verwaltet... Intel und AMD haben sich die Suppe selber eingebrockt, jetzt erwarte ich auch Lösungen. Und Intel macht das meiner Meinung nach recht gut. Einfach immer die TDP mit dem Turbo voll ausfahren je nachdem wie das Programm es haben will. Fertig, passt, jeder ist glücklich...


Was willst Du dann mit 6 oder 8 Kernen?
2013/2014 kaufe ich die neue CPU, Richtung 2020 wirds dann wohl Programme geben die ein paar mehr Kerne brauchen. Ich kaufe es Intel nicht ab das die Haswell 4 Kerner genau so lange halten wie aktuell mein Core 2 Quad. Die ersten von der Reihe gab es schon 2006/2007. Da bin ich mit dem Kauf 2008 schon recht spät dran.

Vor allem kann man das ja heute schon sehen, es gibt schon Spiele die laufen auf 6 Kernen wesentlich schneller als auf 4. Intel 4 v. 6 Kerner versteht sich. Nicht das jetzt wieder welche kommen AMD X6 v. Ivy, das meine ich nicht damit.

Ich kaufe mir ungern Hardware die schon am 1. Tag veraltet ist. Hab ich noch nie hab das auch nicht vor. Meine Hardware soll so lange wie möglich durchhalten.
Denn dort wurde der TDP auf 35W-TDP begrenzt, was im Effizienten Rahmen der Architetur & Fertigung liegt und schon kann auch Bulldozer sehr effizient sein.
Du weist schon das eine Beschneidung der TDP nicht gleich eine Erhöhung der Performance per Watt bedeutet?(Effizienz) Ein Bulli mobile CPU versagt immer noch da ja noch weniger IPC vor liegt durch den niedrigen Takt. Während hier Ivy eine höhere Grund IPC hat und gleichzeitig noch den Turbo hochknallt wie sonst was. Meine neue Ivy mobil CPU plättet meine Desktop Core 2 Quad CPU wenns drauf an kommt. Davon kann ein kleiner Bulli nur träumen...
 
Zuletzt bearbeitet:
aylano schrieb:
AMD braucht ja nur deshalb so einen hohen Takt, weil die dicken Intel-Cores durch die viel besseren Fertigung so sparsam wirken.
Selbst ein alter i5-750 im 45-nm-Verfahren ist schneller und sparsamer als ein FX-4170 oder ein FX-6200 in 32 nm. Es nur auf die Fertigung zu schieben, ist also nicht korrekt.

Auch im mobilen Bereich, Stichwort Trinity, ist der CPU-Part den Sandy Bridge bei Perf/Watt kaum gewachsen - nur im Server-Segment war dies bis zum Erscheinen der Xeon E5 der Fall. Das Pochen auf Effizienz kommt also im Markt kaum an - selbst gegen zwei Jahre alte Chips tut sich AMD schwer.
 
x-polo schrieb:
Ein FX 4100 kostet 95 Euro ,ein Llano Athlon II X4 651 mit etwa gleicher Leistung um 78 Euro.
Ein Athlon 641 sogar für günstige 66 Euro...

Nur kann man aus dem FX wesentlich mehr rausholen als aus dem umbelabelten x4.
 
aylano schrieb:
Man sollte halt mal das Konzept von Bulldozer verstehen. Und das ist in erster Linie Effizent.
Wenn man das versteht, dann weiß man warum Bulldozer @ Server und vorallem im Notebook-Bereich noch gut mithalten kann bzw. eben viel besser als im Desktop-Game-Markt.

Der Desktop-PC-Markt wird immer kleiner und unwichtiger...

Zunächstmal wäre es für AMD wohl taktisch nicht besonders klug, den Desktop- und Notebook-Mart zugunsten des Server-Marktes zu vernachlässigen, denn bei Servern sieht AMD schon lange kein Land mehr. AMDs CPUs spielen mit weniger als 5% Marktanteil bei Servern praktisch keine Rolle mehr.
Da müssten die schon mit was wirklich Überragendem kommen, um diesen verlorenen Markt zurückzuerobern und nein... Bulldozer ist das auch in Opteron-Form leider nicht.

Es ist nur ein Gerücht, dass Bulldozer eine super Server-CPUs abgibt.
Bei Servern schneidet die erste Bulldozer-Generation nicht ganz so schlecht ab, gegenüber den K10-Opterons und Intel, aber das wars dann auch schon.

Auch bei typischen Server-Workloads machen sich die zahlreichen Schwächen und Flaschenhälse der Bulldozer-Architektur an allen Ecken und Enden bemerkbar:

http://www.anandtech.com/show/5057/the-bulldozer-aftermath-delving-even-deeper


AMD braucht ja nur deshalb so einen hohen Takt, weil die dicken Intel-Cores durch die viel besseren Fertigung so sparsam wirken.

Bulldozer zeigt seine geringe Leistung pro Takt doch auch im Vergleich mit den alten Phenoms, die sogar noch in älteren Fertigungsverfahren produziert sind.

Es war ganz klar eine strategische Entscheidung von AMD, bei Bulldozer Leistung pro Takt für hohe Taktfrequenzen zu opfern. Genau wie Intel damals bei Netburst.
Das kann auch gut gehen, wenn man die angestrebten Taktfrequenzen erreichen kann. Aber das ist halt nicht so einfach und es hilft nicht, wenn man fertigungstechnisch auch noch hinterher hinkt.

Und genau das machte AMD eben im Notebook-Markt. Denn dort wurde der TDP auf 35W-TDP begrenzt, was im Effizienten Rahmen der Architetur & Fertigung liegt und schon kann auch Bulldozer sehr effizient sein.

Warten wir mal ab, wie gut sich die 17W-Trinitys schlagen werden, im Vergleich mit Intels 17W-Ivy Bridge.

Ich gehe jede Wette ein, dass AMD da in Sachen CPU-Leistung noch schlimmer abstinken wird, als bei den Desktop-Bulldozern, wo sie durch eine höhere TDP den Rückstand wenigstens noch etwas verringern können.
Der einzige Trumpf bleibt da die integrierte GPU.
 
Kasmopaya schrieb:
Überall wo die Bulli Kerne einziehen ist die Kacke am dampfen. So einen massiven fail wie den Bulli hat man schon lange nicht mehr gesehen.
Sehr fundiert und objektiv. Kanste das auch mal begünden oder ist das nur Modegehate?

Kasmopaya schrieb:
Ist nicht unbedingt Faulheit...Wie gesagt ist das extrem teuer und aufwendig das so aufzuteilen. Ich kenne Programmierer, da kann man verzweifeln sagen die immer...
Die Entwickler von Metro 2033 erzählen ganz was anderes. Denkfaule verzweifeln immer wenn sie gefordert werden.
Und warum das ganze, weil sich die CPUs am Limit waren mit dem Takt und jetzt einfach so gebaut werden, sollen die Entwickler horrende Summen in die CPU Optimierung stecken. Gerade bei Games nicht sinnvoll, einfach alles in die GPU auslagern, bei der gibts zwar auch zig Tausend Kerne, aber die werden durch den Treiber verwaltet...
Horrende Summen nicht, sondern Mut und Tatendrang sich mal auf die derzeitigen und zukünfige Hardware einzustellen. Bei Metro 2033 klappts doch auch mit Multkernunterstützung. Da ist ein Zambezi gleichauf bzw sogar schneller als die Sandys.
Wenn Entwickler Spiele bzw. Anwendungen immer noch wie vor 5 Jahren programmieren sind sie schlicht dumm und verschenken Resourcen.
Intel und AMD haben sich die Suppe selber eingebrockt, jetzt erwarte ich auch Lösungen. Und Intel macht das meiner Meinung nach recht gut.
Was haben sie sich denn eingebrockt? Das CPU bauen?

Einfach immer die TDP mit dem Turbo voll ausfahren je nachdem wie das Programm es haben will. Fertig, passt, jeder ist glücklich...
Ich wäre nicht glücklich einen starken 4-Kerner zu besitzen und von einem CPU-fordernden Spiel wie SC2 oder Skyrim auf 2 Kerne limitiert zu werden und wenns abgeht die FPS abstürzen zu sehen. Das ist einfach nicht zeitgemäß.

Ich kaufe mir ungern Hardware die schon am 1. Tag veraltet ist. Hab ich noch nie hab das auch nicht vor. Meine Hardware soll so lange wie möglich durchhalten.
Dann kannst Du nie was kaufen. Selbst wenn Du das allerneueste am Releasetag kaufst und die Schachtel öffnest, ist es schon veraltet.

Ein Bulli mobile CPU
Wo gibts sowas?

versagt immer noch da ja noch weniger IPC vor liegt durch den niedrigen Takt.
Experte!
 
Zuletzt bearbeitet:
Zurück
Oben