Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Würde sich AMD mehr Zeit nehmen beim Entwickeln der CPU's, könnten sie vielleicht wieder einen Intel Killer wie damals den SlotA auf den Markt bringen.
So wie es aktuell allerdings bei AMD aussieht, hecheln sie Intel Chancenlos hinterher und werden es auch weiterhin tun, wenn sie nur Updates der vorherigen CPU Generation raus bringen.
Intel kann es sich immerhin Leisten "nur" Max. 10% mehr Leistung zur Vorgänger Generation zu haben (Haswell noch nicht eingerechnet), da das P/L Verhältnis immer noch stimmig ist.
Würde es AMD gönnen wenn sie wieder an SlotA Zeiten anknüpfen würden.
@ Locuza Was ja wirklich schade ist, da AMD ja schonmal gut die Nase vorn gehabt hat. Ich frage mich wieso da einfach absolut nichts kommt außer mehr Takt und selbst der ist wie man sieht nicht wirklich besser. Quantitativ viel Takt für Qualitativ wenig Leistung ergeben ein verdammtes Fail. Ich wüsste zu gerne, was die AMD Leute selber von Ihrer Arbeit und Konkurrenz denken. Ob es da denn überhaupt noch einen Ansporn gibt wieder die Nase vorn zu haben.
Intel hat eine relativ schwache Architektur auf den Markt gebracht und AMD eine relativ starke geschaffen. Die Fertigungsunterschiede waren damals auch nicht so gewaltig.
So gelang es AMD besser als Intel zu sein, leider lässt die heutige Situationen so etwas nie wieder zu.
AMD weiß das Bulldozer in der Form ein Fail ist, bloß Sie hatten die Wahl noch etliche Jahre weiter daran zu schrauben und mit einer alten Architektur sich durch die Welt zu schlagen oder eine kaputte Basis auf den Markt bringen und diese Schritt für Schritt aus zu bauen.
C4rp3di3m schrieb:
Hab mir schon was dabei Gedacht als ich es in meinen Worten schrieb du Kunde.
Da ist ein X6 heftig Überlegen, da er mehr Einheiten zu Verfügung hat.
mfg
Die dritte Pipeline beim K10 bringt für einen Thread nicht wahnsinnig mehr Leistung.
Deswegen hat Intel überhaupt SMT, um den Integer-Core auch gut aus zu lasten.
Die Logik funktioniert bei BD nicht so wie sie sollte und auch gewisse Sachen sind unterdimensioniert.
Ach man könnte so viel dazu schrauben.
also bisher siehts ja nicht wirklich nach FX8350/Vishera = Piledriver aus... auf dem Papier vielleicht, aber 8,5% bei 5-10% mehr Takt ist ja eher marginal... da frag ich mich eher warum die Vishera CPU so spät kommt...
Quantitativ viel Takt für Qualitativ wenig Leistung ergeben ein verdammtes Fail. Ich wüsste zu gerne, was die AMD Leute selber von Ihrer Arbeit und Konkurrenz denken. Ob es da denn überhaupt noch einen Ansporn gibt wieder die Nase vorn zu haben.
Da macht die ARM Fraktion wohl auf dauer intel einen Strich durch die Rechnung.
Wenn man sich anguckt was da in den letzten Jahre passiert ist, da kann intel schon etwas Angst bekommen. AMD spielt da keine Rolle mehr.
Und nur von Servern kann selbst intel nicht leben und auch da werden sie durch viele ARM-Kerne Probleme bekommen.
Da macht die ARM Fraktion wohl auf dauer intel einen Strich durch die Rechnung.
Wenn man sich anguckt was da in den letzten Jahre passiert ist, da kann intel schon etwas Angst bekommen. AMD spielt da keine Rolle mehr.
Und nur von Servern kann selbst intel nicht leben und auch da werden sie durch viele ARM-Kerne Probleme bekommen.
Spielt AMDs Jaguar da keine Rolle? Intels Atom auch nicht?
Ich gebe zu beide sind noch nicht in den Markt eingestiegen, aber auf den besten Weg dahin.
Durch viele ARM-Kerne wird Intel auch keine Probleme bekommen.
Was problematisch ist, wenn Konkurrenten ein halbwegs anständiges Paket zusammenschnüren und das billig verkaufen, dann muss man auch mit dem Preis runter.
Ich bin seit dem Phenom-Nachfolger nicht mehr am Ball.
Ich fand AMD wegen der einfacheren Namensgebung und des günstigen Preises immer als eine sehr gute Alternative, aber mittlerweile blickt doch auch da niemand mehr durch, welcher Prozessor auf welchen Sockel mit welchem Chipsatz und welcher Motherboard-Revision passt.
Aus meiner Sicht spricht nichts mehr für AMD - weder Preis, noch Leistung, noch Kompatibilität, noch Leistungsaufnahme.
Mein nächster PC würde ein Intel werden, wenn ich in naher Zukunft neue Hardware bräuchte. Daran ändern Piledriver, Vishera und wie sie alle heißen auch nichts.
Bin mal gespannt, wie der 8150 gegen den 8350, in Wirklichkeit abschneidet. Der umstiegt wird sich nicht lohnen. Bin aber trotzdem zufrieden mit der Leistung. AMD wird sich eh mehr auf den APU Markt konzentrieren.
Der Stromverbrauch bei Vishera dürfte ebenfalls innerhalb der Erwartungen schlecht sein, insgesamt kein so gutes Jahr für AMD und die Aktie auf Talfahrt! Traurig aber wahr!
--------------------------------------------------------------------------------------------------------------------
Li Lian Li PC-7FNWX - be quiet! Straight Power E9 400W - Core I7 3770k - be quiet! DarkRock Advanced - Gigabyte Z77MX-D3H - 32GB G.Skill TridentX PC3-19200U -2TB Hitachi 5k3000 - LG BH10LS38 - Graka & SSD is coming soon-
Du bringst Dinge durcheinander, die überhaupt nichts miteinander zu tun haben. Kennst Du überhaupt die Prozessorarchitektur und den Unterschied zwischen Integer- und Gleitkommaoperationen?
so einen langen Vorschau-Artikel halte ich für etwas voreilig und auch unnötig,
denn die einzelnen Kerne könnten gegenüber den Piledriver-Kernen in Trinity-APU auch noch weiter verbessert worden sein, immerhin liegt ja gut 1/2 Jahr Zeit dazwischen. Und in Trinity wurde auch der Speicher-Kontroller verändert, damit die Grafikeinheit flotter darauf zugreifen kann. Also 15% Performance-Plus könnten durchaus drinnen sein, hilft also nur abwarten und Tee trinken.
Hört mal auf rumzuheulen ihr Amateur-CPU-Designer.
Bei AMD wissen die Leute ja wohl besser wie und warum man eine CPU so baut.
Und wenn AMD so auf der Modultechnik behaart, dann wird das auch einen guten Grund dafür haben.
Vorallem für Leute mit Software welche die Modularchitektur voll ausnutzen sind Intels CPU schon seid Bulli aus dem Rennen.
Nur weil ihr nicht über eueren Gamingtellerrand gucken könnt (bitte nicht als Beleidigung auffassen).
Ohne AMD würde euer i5-K nun 300€ kosten, alles Geldgierige Geier (auch bei AMD, überall, leider).
@CB
Super Artikel welche die Vor- und Nachteile der Modulbauweise sehr gut aufzeichnet.
tja, leider ist mein alter 1090T bzw das MB abgeraucht, da hatte ich kein Bock mehr auf irgendwas zu hoffen und für den Prozessor noch 'nen neues Board zu kaufen, die Träume hatte ich schon beim Bulli und der alte und wirklich gute 1090er ist dann doch nicht ausgetauscht worden...
Als wirklicher AMD-Fan habe ich mir nun nach über 16 Jahren einen Intel 3770K geholt und muss nun das Daddeln von neu auf erlernen, so etwas schnelles habe ich ewig nicht mehr gehabt...
Spielt AMDs Jaguar da keine Rolle? Intels Atom auch nicht?
Ich gebe zu beide sind noch nicht in den Markt eingestiegen, aber auf den besten Weg dahin.
Durch viele ARM-Kerne wird Intel auch keine Probleme bekommen.
Was problematisch ist, wenn Konkurrenten ein halbwegs anständiges Paket zusammenschnüren und das billig verkaufen, dann muss man auch mit dem Preis runter.
Nein AMDs Jaguar spielt keine Rolle. Intel hat nunmal 80% Marktanteil, da kanns nur noch Bergab gehen.... wenn eine richtige Konkurrenz da ist und die kommt.
Und intel hat Angst, darum gibts ja überhaupt erst den Atom.
Wir werden sehen und uns darüber in vielleicht 5 Jahren unterhalten ;-)
Ich frage mich wieso da einfach absolut nichts kommt außer mehr Takt und selbst der ist wie man sieht nicht wirklich besser....
Ich wüsste zu gerne, was die AMD Leute selber von Ihrer Arbeit und Konkurrenz denken. Ob es da denn überhaupt noch einen Ansporn gibt wieder die Nase vorn zu haben.
Egal wie gut man ist, egal was für clevere Ideen man bei AMD hat, es hilft alles nichts wenn man die CPU in 32nm produzieren muss, wenn Intel schon längst bei 22nm ist!
Als AMD leistungstechnisch/verbrauchstechnisch mithalten konnte waren beide Hersteller bei 90/130nm Fertigung. Mittlerweile ist Intel bei der Fertigung 3 Jahre voraus und der Grund ist einfach, Intel hat viel viel viel mehr Geld zur Verfügung als AMD und dies schon immer!
Für AMD wäre es das Beste, wenn bald EUV-Lithografie erscheinen würde und alle Fertiger es gleichzeitig an den Start bringen könnten. Dann wäre Intels riesen Vorsprung mit einem Schlag weg.
...dass die da nicht selbst drauf kommen.
Du solltest ne Mail an AMD schicken und denen mal sagen was Sache ist, die übernehmen deinen genialen Vorschlag bestimmt direkt und schicken dir nen Präsentkorb.
Schonmal auf die Idee gekommen, dass ein Prozessor mit 8 Modulen (16 Threads) viel niedriger getaktet werden muss um die TDP nicht zu sprengen?!
Dadurch sinkt natürlich auch die Singlethread Leistung noch weiter, was in den gängigen Benchmarkparcours für Desktpprozessoren ganz beschissene Ergebnisse liefern würde.
Und dann würde es heißen ololol, nichtma mit 16 Kernen hat AMD ne Chance gegen Intel.
In Servern sind Prozessoren die mit 16 Threads gleichzeitig umgehen können einfach viel besser aufgehoben und spülen natürlich auch mehr Geld in die Kassen.
C4rp3di3m schrieb:
Zwei symmetrische 128-Bit-FMAC-Gleitkommapipelines pro Modul, die bei Bedarf in eine 256-Bit-Einheit umfunktioniert werden können...
Schon früher tauchte die Vermutung auf, dass der - von beiden Kernen gemeinsam benutzte - Dekoder zu wenig Befehle dekodieren kann. Pro Takt und pro Kern schafft er im Schnitt maximal nur zwei x86 Instruktionen. Im schlimmsten Fall, falls externe x86-Instruktionen in mehr als eine CPU-interne Macro-Instruktion (Macro-Op) übersetzt werden müssen, sinkt der Durchsatz aber. Bei Befehlen, die durch die Microcode-Engine dekodiert werden müssen, steht der ganze Dekoder außerdem für ein paar Takte komplett still und blockiert damit den zweiten Kern. (p3dn)
Execution units, dass es von den - offiziell vier - Pipelines trotz optimistischer Zählweise eigentlich doch nur zwei sind, die die Arbeit verrichten, also eine weniger als bisher bei den letzten Chips... (P3DN)
Der erste Satz deines Zitats stammt nicht von P3Dnow sondern aus der Wikipedia.
Wenn du schon zitierst, dann bitte richtig Herr zu Guttenberg, einfach ein paar Sätze aus verschiedenen Quellen aus dem Zusamenhang reißen, zu einem Haufen zusammenzufrickeln und dann damit zu versuchen seine eigenen Falschaussagen als richtig hinzustellen ist einfach nur Mist.
In dem Teil den du von P3Dnow zitiert hast geht es nicht um die FPU, sondern den Decoder für x86 Instructions, der nur einmal pro Modul existiert, was wohl einen Flaschenhals darstellt.
(Mit Steamroller soll laut Gerüchten ein zweiter Decoder pro Modul dazukommen).
Auch im zweiten Zitat geht es um die Integer Units und nicht um die FPUs.
Es ist nämlich so, dass nur 2 von4 Pipelines die Integer Units mit Instruktionen befeuern, die anderen beiden werden "nur" für Memory-Read-Operationen genutzt.
Du liegst also falsch, "nur" eine zusätzliche FPU in ein Modul zu pflastern würde Bulldozer nicht wirklich besser machen.
Lies doch den P3Dnow Artikel den du selbst zitiert hast nochmal genauer durch, es sind viele Baustellen, an denen noch nachgebessert werden muss.
Dieser Artikel von AnandTech ist übrigens noch wesentlich interessanter.
Dort wird versucht eine Erklärung dafür zu finden, warum Bulldozer selbst mit 33% mehr Kernen bei (massiv parallelisierbaren) Server Workloads oft weniger als 33% schneller ist als ein K10 Opteron mit 33% weniger Kernen, manchmal sogar nur gleich auf.
Kann ich jedem nur empfehlen der sich dafür interessiert, ist wirklich gut.
Ich spoiler mal den Schluss zu dem sie dort gekommen sind, falls sich jemand den Artikel komplett durchlesen will, ich will ja nicht das Ende vorwegnehmen
The Real Shortcomings: Branch Misprediction Penalty and Instruction Cache Hit Rate
Bulldozer is a deeply pipelined CPU, just like Sandy Bridge, but the latter has a µop cache that can cut the fetching and decoding cycles out of the branch misprediction penalty. The lower than expected performance in SAP and SQL Server, plus the fact that the worst performing subbenches in SPEC CPU2006 int are the ones with hard to predict branches, all points to there being a serious problem with branch misprediction.
Our Code Analyst profiling shows that AMD engineers did a good job on the branch prediction unit: the BPU definitely predicts better than the previous AMD designs. The problem is that Bulldozer cannot hide its long misprediction penalty, which Intel does manage with Sandy Bridge. That also explains why AMD states that branch prediction improvements in "Piledriver" ("Trinity") are only modest (1% performance improvements). As branch predictors get more advanced, a few tweaks here and there cannot do much.
It will be interesting to see if AMD will adopt a µop cache in the near future, as it would lower the branch prediction penalty, save power, and lower the pressure on the decoding part. It looks like a perfect match for this architecture.
Another significant problem is that the L1 instruction cache does not seem to cope well with 2-threads. We have measured significantly higher miss rates once we run two threads on the 2-way 64KB L1 instruction cache. It looks like the associativity of that cache is simply too low. There is a reason why Intel has an 8-way associative cache to run two threads.