News Erste Benchmarks zum „Vishera“-Desktop-Prozessor von AMD

aylano schrieb:
Man sollte halt mal das Konzept von Bulldozer verstehen. Und das ist in erster Linie Effizent.
Wenn man das versteht, dann weiß man warum Bulldozer @ Server und vorallem im Notebook-Bereich noch gut mithalten kann bzw. eben viel besser als im Desktop-Game-Markt.
Gut mithalten ist relativ.

Außer in ein paar optimierten HPC-Anwendungen sehen die "Interlagos" Opterons gegen die Xeon E5-2600 oder gar 4600er auch nur mit Mühe noch die Rücklichter. Da geht es nur über den Preis.

Und fürs Notebook muss man die voll auf Durchsatz und relativ hoher Taktfrequenz ausgelegte Architektur auch schon recht ordentlich auf max. zwei Module und Taktfrequenz zurechtstutzen, um überhaupt einigermaßen im TDP-Budget der Notebooks bleiben können.
 
Effe schrieb:
Wenn Entwickler Spiele bzw. Anwendungen immer noch wie vor 5 Jahren programmieren sind sie schlicht dumm und verschenken Resourcen.

Nö, die sind clever, wenn sie mit Minimalaufwand von der x-Box portieren, weils gekauft wird.
Dumm sind die Konsumenten, die einen i7 o.ä. daheim stehen haben und Konsolenports spielen, die ein Bruchteil des auf dem Desktop möglichen abliefern, aber dennoch CPU und GPU aufgrund miserabler Umsetzung fordern.

Wenn die next gen Kosolen mit 8 Kernen wirklich kommen sollten wird es vllt. einen Anreiz geben auf Mehrkernprozessoren optimiert zu portieren.
 
Effe schrieb:
Bei Metro 2033 klappts doch auch mit Multkernunterstützung. Da ist ein Zambezi gleichauf bzw sogar schneller als die Sandys.
Wäre mir neu - verlinke bitte mal Benchmarks.

Effe schrieb:
Ich wäre nicht glücklich einen starken 4-Kerner zu besitzen und von einem CPU-fordernden Spiel wie SC2 oder Skyrim auf 2 Kerne limitiert zu werden und wenns abgeht die FPS abstürzen zu sehen. Das ist einfach nicht zeitgemäß.
Natürlich ist es nicht zeitgemäß, aber auf einem 3570K performen beide Titel weitaus besser als auf jeder AMD-CPU. Mit "Fps abstürzen" hat das wenig zu tun.

Herdware schrieb:
Ich gehe jede Wette ein, dass AMD da in Sachen CPU-Leistung noch schlimmer abstinken wird, als bei den Desktop-Bulldozern, wo sie durch eine höhere TDP den Rückstand wenigstens noch etwas verringern können. Der einzige Trumpf bleibt da die integrierte GPU.
CPU-seitig chancenlos, die iGPU wird wohl kaum schneller als eine HD 4000. Den Treiber-Vorteil sowie die Optimierungen dürften es im Mittel aber rausreißen. Nur zu gerne würde ich mir ein Zenbook Prime mit ULV-Trinity zulegen, aber das ist wohl nur ein Traum ...
 
Fragt euch auch mal, ob es tatsächlich möglich ist, jedes Spiel so gut zu parallelisieren. Spieleengines sind hochkomplexe Software, die viele Dinge berücksichtigen müssen, die ein Anwendungsprogramm so nicht hat. z.B. Konsistenz des ganzen Geschehens von der Eingabe über die Berechnungen auf der CPU bis hin zur Ausgabe auf der GPU. Nicht jede Engine bzw. jedes Spiel sind da gleich.
 
y33H@ schrieb:
Wäre mir neu - verlinke bitte mal Benchmarks.
Gut vielleicht nicht besser, aber gleichauf, weil die Engine mit steigender Threadzahl skaliert: http://www.anandtech.com/show/4955/the-bulldozer-review-amd-fx8150-tested/8

Natürlich ist es nicht zeitgemäß, aber auf einem 3570K performen beide Titel weitaus besser als auf jeder AMD-CPU. Mit "Fps abstürzen" hat das wenig zu tun.
Ich meinte ja hauptsächlich Intel. Die Spiele fressen übel Taktfrequenz, sieht man ja bei der Übertaktungsskalierung und das Einbrechen der minFPS. Das finde ich, angesichts der mehr und mehr verbreiteten 4-Kerner, nicht zeitgemäß.
Aber bis sich das durchgesetzt hat, gibts wohl keine Desktoprechner mehr. :freak:
 
Herdware schrieb:
Dass auf hohe Taktfrequenzen statt auf mehr Leistung pro Takt gesetzt hat, war nunmal die Eigenschaft, die dieser Architektur das Genick gebrochen hat.
Andere Aspekte, wie die verbesserte Sprungvorhersage oder Hyperthreading usw. haben nachher ja auch nach und nach wieder Einzug in die folgenden Architekturen gefunden, aber die lange Pipeline und die angestrebten hohen Taktfrequenzen waren halt der entscheidende Knackpunkt von Netburst.

Bei Netburst hat sich Intel 5GHz und langfristig sogar mehr versprochen. Dann hätte es sein volles Potential ausgespielt. Ich weiß nicht, wo die angestrebten Frequenzen von Bulldozer liegen, aber sicher ebenfalls nicht unter 5GHz.
Jetzt kommt es darauf an, ob Global Foundries schafft, was Intels Fertigung damals nicht geschafft hat. Bisher sieht es nicht sehr gut aus. :rolleyes:
Ja, es war eine negative Eigenschaft, da die Fertigung keine so hohen Mhz garantieren konnte, ohne die Spannung an zu heben und den Stromverbrauch explodieren zu lassen.
Aber wo ist der direkte Vergleich mit AMD? Setzt AMD jetzt eine Netburst-Architektur auf oder wie? Das ist doch schwach davon einen direkten Vergleich ab zu leiten, nur weil es einige Gemeinsamkeiten im Moment gibt.
AMDs Ziel war es sowohl ordentliche ST-Performance, als auch MT auf die Beine zu stellen. Für MT hat jeder Thread seinen eigenen Integer-Core und für ST, werden alle anderen Module abgeschaltet und der zweite Integer-Core ebenfalls und man begegnet der geringeren ALU Anzahl mit 4 Decodern, der ganzen FPU, Cache etc. + Turbomodus.
Bulldozer war auch nicht so konzipiert, dass am Ende die IPC so viel schlechter sein würde. Das Ziel war laut Architekten eine gleiche bzw. leicht bessere IPC.
Bulldozers Pipeline soll, wenn ich mich recht erinnere, 30% länger geworden sein. PhenomII hatte wie viele Stages? 12? Und jetzt sind es mit Bulli 16? Core2 hatte 14, Nehalem 2 oben drauf und ich weiß jetzt auch nicht ob bei Sandy noch eine dazu gekommen ist. Aber von Netburst mit 20-31 Stages sind doch beide Architekturen weit entfernt, jedenfalls von Prescott und Cedar Mill (31).
 
Zuletzt bearbeitet:
Eben, zum P4 hin wurde die Pipeline mehr als verdoppelt, zum Bulldozer hin gab es nichtmal eine 50%ige Steigerung. Nicht nur deshalb ist der Vergleich mit Netburst vollkommen abwegig! Intel hatte damals sogar 10 GHz angestrebt.
 
Effe schrieb:
Gut vielleicht nicht besser, aber gleichauf, weil die Engine mit steigender Threadzahl skaliert: http://www.anandtech.com/show/4955/the-bulldozer-review-amd-fx8150-tested/8
...

Ich sehe da eher eine glasklare GPU-Limitierung mit darunterliegendem leichten Vorteil für AMD-CPUs (sowohl K10 als auch Bulldozer).

Da skaliert doch offensichtlich gar nichts mit mehr Threads. Der Phemon II X4 ist genauso schnell wie ein 6-Core Thuban und ein 8-Core-FX und bei Intels das selbe Bild, der i7 ist trotz HT kein Stück schneller als die i5.

Edit: Argh! Ich hab auf den Civ5-Benchmark geschaut. Ich nehme alles zurück!

@ DinciVinci
Wenn die Sprungvorhersage bei Bulldozer daneben geht, kassiert er dank seiner langen Pipeline die selben 20 "Strafzyklen", wei ein alter Netburst-Pentium4.
Beim K10 sind es nur 12, beim Core2 15 und Sandy Bridge 14-17 (aber da verhält es sich dank µop-Cache etwas anders).

Klar kann man daran allein nicht die IPC festmachen, aber Bulldozer ist von diesem Verhalten her ohne Zweifel die Netburst-ähnlichste CPU seit dem P4.

Neben hohem Takt setzt AMD dabei auch noch auf viele Cores/Threads statt Singlethread-Leistung, was die Sache bei vielen Softwareanwendungen nicht gerade besser macht. Da addieren sich dann die Schwächen.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Selbst ein alter i5-750 im 45-nm-Verfahren ist schneller und sparsamer als ein FX-4170 oder ein FX-6200 in 32 nm. Es nur auf die Fertigung zu schieben, ist also nicht korrekt.
Man muss halt verstehen, dass die Fertigungsqualität nicht durch die Größe sondern durch die eingebauten Technologien (Dual Stress, HKMG x-Generation) bestimmt wird.

Laut deiner Aussage hätte z.B: AMD damals in 45nm durch ULK keinen großen Effizienz-Gewinn von fast 30% ermöglicht, welches im Thuban 2 zusätzliche Kerne ermöglicht.


Auch im mobilen Bereich, Stichwort Trinity, ist der CPU-Part den Sandy Bridge bei Perf/Watt kaum gewachsen -
Ich konnte letztens zeigen, dass selbst Llano gegen Core i7 @ 35W-TDP eine gleiche Perf/Watt besitzt. Man muss halt nur die AKku-Größen dazurechnen.
Und eine Architektur wird jetzt auch nicht schlechter, wenn Intel den Vorteil der Fertigung dazurechnet.

nur im Server-Segment war dies bis zum Erscheinen der Xeon E5 der Fall. Das Pochen auf Effizienz kommt also im Markt kaum an - selbst gegen zwei Jahre alte Chips tut sich AMD schwer.
Ja so ist es.
Erst mit speziellen Server-E5-Chips konnte Intel wieder AMDs Bullldozer überholen. AMD hat eben noch nicht das Geld für jeden Markt spezielle Chip-Konfigurationen herzustellen. Umsoschwieriger wird es dann, die Fähigkeiten der Architektur zu bewerten

Herdware schrieb:
Zunächstmal wäre es für AMD wohl taktisch nicht besonders klug, den Desktop- und Notebook-Mart zugunsten des Server-Marktes zu vernachlässigen, denn bei Servern sieht AMD schon lange kein Land mehr.
1. Bulldozer wurde für Server & Notebook und nicht nur Notebook entwickelt.
2. Ist es falsch was du sagts, weil der Desktop-Markt nicht nur der Game-Markt ist.
Im Desktop-OEM (Office & Home) ist Trinity ein sehr intessantes Produkt und AMD hat das nichts vernachlässigt.
Wer die AMD-Welt mit FX-8150 beschreibt ist bisher schon sehr falsch gelegt, weil Trinity eine bessere statt viel schlechtere Effizienz als Llano besitzt sowie AMD in keine operativen Mega-Verluste von hunderten Mio. $ stürtze.

AMDs CPUs spielen mit weniger als 5% Marktanteil bei Servern praktisch keine Rolle mehr.
Das ist aber schon mit K10 passiert und nicht mit Bullldozer.
Der Erfolg eines Produktes wird immer mit dem Vergleich zum Vorgängen gezählt. Und da hat Bulldozer zumindestens den Abwertstrend abgehalten.

Bulldozer ist jetzt erst 8 Monate am Markt. Es hat damals 6 Monate gedauert, bis der K10-B3 mit Bug-fix draußen war. Dann dauerte es nochmal 7 Monate bis das K10-C-Stepping draußen war, welches nur so +5% IPC-Steigerung brachte.

Der schlechte Ruf von Bulldozer kommt auch aufgrund der hohen und schnellen aufhol-Erwartungen. Damals ging das alles viel langsamer. Genauso wie die AMDs-GPU seit HD 3000 stetig über Jahre Schritt für Schritt gingen.

Bulldozer zeigt seine geringe Leistung pro Takt doch auch im Vergleich mit den alten Phenoms, die sogar noch in älteren Fertigungsverfahren produziert sind.
Falsch, falsch und nochmals Falsch

Llano vs. Trinity zeigt schon, dass Bulldozer effizienter ist.
Die Qualität von Fertigungen wird nicht durch die Struktur-Größe sondern durch Technologien bestimmt. Alt kann genauso erfahren und ausgereifter bedeuten und in diesem Fall stimmt das auch, weil 45nm ULK besitzt und 32nm-non-ULK.

Würde man 45nm-non-ULK und 32nm-Non-ULK @ Desktop vergleichen, dann versteht man mich.

Warten wir mal ab, wie gut sich die 17W-Trinitys schlagen werden, im Vergleich mit Intels 17W-Ivy Bridge.
Ein Falsch-Aussage wird jetzt nicht richtig, wenn man mit einem Anderen Vergleich daherkommt.
Und ich verstehe nicht, warum immer die 22nm-Fertigung hergehalten werden muss, damit Bulldozer schlechtgeredet wird.
Der Vergleich Sandy-Bridge vs. Llano @ 32nm ist das schon besser, auch wenn es unterschiedliche 32nm-Fertigungen sind.

Ich gehe jede Wette ein, dass AMD da in Sachen CPU-Leistung noch schlimmer abstinken wird, als bei den Desktop-Bulldozern, wo sie durch eine höhere TDP den Rückstand wenigstens noch etwas verringern können.
Der einzige Trumpf bleibt da die integrierte GPU.
Man sollte halt wissen, dass die35W-TDP Core i3 bei auf Multi-Thread-Chinebench auf höhe von Trinity-35W ist. Das wird nichts abstinken Außer die Core i3 bei Spielen.

Simon schrieb:
Gut mithalten ist relativ.

Außer in ein paar optimierten HPC-Anwendungen sehen die "Interlagos" Opterons gegen die Xeon E5-2600 oder gar 4600er auch nur mit Mühe noch die Rücklichter. Da geht es nur über den Preis.
1. Existierte Interlagos viele viele monate, wo Xeon E5-2600 nichts zu sehen war.
2. Reichen bisherige Dies nicht aus, um auch im Server-Markt AMD etwas überholen zu können. Es musste ein Spezial-Server-Die her, der nicht umsonst 9-12 Monate nach seinen Brüder kommt.

Also, wer für die Bulldozer-Architektur nur den Zeitraum vergleich in den E5-2600 und nur diesen Spzial-Chip den Durchnschitt aller vergleicht, der macht einen klassischen Rosinen-Vergleich um sich die Welt schön zu reden.

Oder anders gesat. Wenn man extra einen Server-Chip braucht um an AMDs Server-Chip vorbeizukommen, dann ist die Intel-Architektur eben nicht sooooo überlegen, wie es manche hier tun.
(Wenn man eh schon die bessere Fertigung ignoriert)
 
Zuletzt bearbeitet:
Und nochmal: Die Pipeline ist viel kürzer als beim P4! Und der Flush bei einer falschen Vorhersage ist auch nicht vorrangig das Problem! Du kannst nicht nur von einer etwas längeren Pipeline und einem hohen Takt auf Netburst schließen! Die Microarchitektur des Bulldozers ist eine ganz andere und deutlich komplexer als dieser blöde P4!
 
Zuletzt bearbeitet:
aylano schrieb:
Man muss halt verstehen, dass die Fertigungsqualität nicht durch die Größe sondern durch die eingebauten Technologien (Dual Stress, HKMG x-Generation) bestimmt wird. Laut deiner Aussage hätte z.B: AMD damals in 45nm durch ULK keinen großen Effizienz-Gewinn von fast 30% ermöglicht, welches im Thuban 2 zusätzliche Kerne ermöglicht.
Intels 45 nm und GFs 32 nm ... letzterer ist besser, der Zambezi dennoch ineffizienter als Lynnfield.

aylano schrieb:
Ich konnte letztens zeigen, dass selbst Llano gegen Core i7 @ 35W-TDP eine gleiche Perf/Watt besitzt. Man muss halt nur die AKku-Größen dazurechnen.
Und eine Architektur wird jetzt auch nicht schlechter, wenn Intel den Vorteil der Fertigung dazurechnet.
Ich habe das damals nicht kommentiert, weil offensichtlich war, dass da was nicht passt. Ein Llano ist bei 35W CPU-seitig einem i7 nicht gewachsen.

aylano schrieb:
Man sollte halt wissen, dass die35W-TDP Core i3 bei auf Multi-Thread-Chinebench auf höhe von Trinity-35W ist. Das wird nichts abstinken außer die Core i3 bei Spielen.
CPU-seitig ist der i3 in Spielen und Singlethread idR schneller, iGPU der Trinity und Multithreading auf ähnlichem Niveau. Ich tendiere hier im Gesamtpaket zu Trinity.
 
Zuletzt bearbeitet: (GF statt TSMC natürlich)
Kasmopaya schrieb:
Ein Bulli mobile CPU versagt immer noch da ja noch weniger IPC vor liegt durch den niedrigen Takt.


Kleiner Tipp an dich, IPC heißt "Instructions per cycle", also Befehle pro Taktzyklus. Die IPC einer Architektur ist immer gleich egal wie der Takt ist.
 
Intels 45 nm und TSMCs 32 nm
Zambezi wird aber von GF produziert. Und aylano hat es schon erwähnt, beherrscht die 32nm Fertigung wesentlich weniger Feinheiten und Tricks.

Ein Llano ist bei 35W CPU-seitig einem i7 nicht gewachsen.
Was stimmt, doch was ich sehr störend finde, man hat es bis heute nicht geschafft, eine APU mal als Einheit zu sehen.
Solange das nicht geschieht wird man auch nicht die Vorteile einer APU verstehen können.
Eventuell will man das auch nicht, denn wenn man das Teil auf seine Schwachstellen reduziert, ist es eben wie viele sagen, weder Fisch noch Fleisch. Ja es ist eventuell Tofu :O

Matzegr
Wurde schon oft genug erwähnt. Ich kann es nur so verstehen. IPC ist das neue Modewort, genauso wie es davor Ghz war.
Dass eine ausgewogene Kombination wichtig ist, will scheinbar keiner wissen.
Intel hat hier eine Ausgewogenheit, weil sie einen hohen Takt dank der Fertigung generieren können.
Wie schon mal gesagt, wäre gespannt was wäre wenn man mit 95 watt tdp nur 3 GHz mit ähnlicher GF 32nm Fertigung erreicht hätte. Dann würde Bulli aufeinmal anders dastehen.
Oder was wäre wenn der Bulli eine hohe IPC hätte, aber gerade mal so 3 ghz erreichen würde.
Dann hätte man das, was man damals bei Phenom I hätte. Eine Architektur, die dann erst von einem Shrink profitieren würde und im server markt aber abgekackt hätte. Notebook wäre dann zwar Llano gewesen, aber für Trinity hätte man dann eventuell ein shrinke gebraucht.

Ich glaub AMD hat es schon richtig gemacht. Einen gewagten Schritt für eine neue Innovation, die übrigens meist anfangs schlechter ist als sein Vorgänger.
Etwas was übrigens oft passiert, bei vielen großen Firmen aber gut vermarktet wird.

Wieso AMDs Bulli kein Netburst ist, habe ich bereits auch schon mal gesagt. Intel hat geziehlt, die Pipes immer zu verlängern und durch die Fertigung den Verbrauch zu kompensieren.
AMD hat anfangs auf einen höheren Takt geziehlt, und hat ja jetzt die pipes nicht erhöht (zumindestens gibts hier noch nichts konkretes) Im Gegenteil, man spricht davon die IPC zu verbessern. Auch bei Steamroller will man die IPC verbessern.

Da man aber soweit wie möglich vorstossen möchte, setzt man halt momentan auf 125 watt tdp. Was übrigens im Desktop zu kühlen ist.
Dank neuen Taktgeber konnte man sogar den Verbrauch senken, somit konnte man für die 125 watt tdp version den Takt anheben. Man hat also rein durch die Architektur schon geschafft, das Teil effizenter zu machen.

Wenn als Vishera, eine bessere IPC hat, mehr Takt ermöglicht, besseren Turbo hat. Wieso ist dann hier kein Fortschritt ?
SB vs IB hat nicht mehr geleistet (CPU technisch)

Intel hat übrigens auch gemerkt, dass es eigentlich genug CPU Performance gibt. Deshalb gibt es auch die K-Variante, weil diese die SB-E mit mehr cores nicht schaden würde.
Man ist auf den Zug von AMD gesprungen, die schon früher die Black Edition im Mainstream gut vermarktet hat.
Doch zeigt IB, dass es ihnen egal ist, wie hoch der User seine CPU übertakten kann. Und mich würde es nicht wundern wenn bei Haswell der core part noch mal schrumpft (da man ja die igp anwachsen möchte) und das OC nicht besser werden wird.

Wer also glaubt Intel bietet den User das was er will, schneidet sich ins eigene Fleisch. Im Gegenteil, Intel verkauft seine CPUs teuer, auch wenn sie uns günstiger als in der Vergangenheit vorkommen. Das hat hauptsächlich mit der Fertigung und dessen Pläne zu tun.
Intel macht im Endeffekt das, was sie damals mit Netburst gemacht haben. Nur machen sie das gleiche Spiel mit AMDs Errungenschaften. Somit gibt es die Gefahr, dass Intel hier wieder etwas verpassen könnte.
aylanohat ja schon hingewiesen. Intel musste ein spezielles Design auf den markt bringen. Und so schnell wie jeder tut haben sie das auch nicht hinbekommen. (zu zum Thema wenn AMD was gefährliches auf den Markt bringen, sind sie morgen mit was besseren da...)

Wer übrigens AMDs Vorstellung von kleinen und vielen Cores belächelt, sollte man Intels MIC belächeln, was ja im Abstand genauso Richtung Parallelisierung geht, und höchstwahrscheinlich mal im Desktop wieder finden könnte.
Interessanter weise wird das MIC hier mehr akzeptiert als die ähnliche Technologie der APU.
Im Endeffekt, ist es nicht AMD alleine die die Entwicklung aufhält. Es ist auch Intel die auch nicht bemüht sind multicore zu pushen. Wieso auch, wenn sie die Masse mit paar cores futtern kann, und allen das egal ist.
Als selektiver Käufer könnte man genauso argumentieren, ich verzichte um paar Prozent mehr Performance und investiere in mehrere Cores. Also in die Zukunft und bringe somit die Software und Hardware Szene dazu, endlich mehr cores zu befeuern. Man sagt zwar immer die CPU Bauer bei AMD ect sind kA unfähig, wie schaut es dann bei den Software-Entwicker aus ?

Die FX käufer oder i7 werden belächelt, sobald aber dann 8 threads super befeuert werden, hat man dessen Vorreiter-Position schon wieder längst vergessen.
 
Zuletzt bearbeitet:
Zu sagen, dass der Prozessor nicht schneller ist, weil man die alten übertakten kann, setzt ja nur vorraus, dass der neue nicht übertaktbar ist.

Die Frage ist, wie weit der schon am Limit ist
 
pipip schrieb:
Was stimmt, doch was ich sehr störrend finde, man hat es bis heute nicht geschafft, eine APU mal als Einheit zu sehen. Solange das nicht geschieht wird man auch nicht die Vorteile einer APU verstehen können. Eventuell will man das auch nicht, denn wenn man das Teil auf seine Schwachstellen reduziert.
Wo hast du denn diese Einheit? CPU und iGPU können in ein paar Programmen/Benchmarks OCL parallel berechnen, das war's abseits von Spielen dann aber schon mit der Einheit.

Wo siehst du weitere Vorteile für sagen wir Trinity, die ein Ivy-Chip samt iGPU nicht hat (mal von den Treibern abgesehen)?
 
DinciVinci schrieb:
Und nochmal: Die Pipeline ist viel kürzer als beim P4! Und der Flush bei einer falschen Vorhersage ist auch nicht vorrangig das Problem! Du kannst nicht nur von einer etwas längeren Pipeline und einem hohen Takt auf Netburst schließen! Die Microarchitektur des Bulldozers ist eine ganz andere und deutlich komplexer als dieser blöde P4!

Klar ist Bulldozer eine ganz andere Architektur als Netburst/Pentium4, sonst würde Intel AMD sofort in Grund und Boden klagen. ;)

Aber man kann die Parallelen einfach nicht verleugnen. Vor allem die, dass sowohl Netburst als auch Bulldozer erst mit hohen Taktraten ihr Potential ausschöpfen würden, die sie (bisher) aber nicht erreichen. Das Problem ist dabei nicht nur die Pipline (der anders als SB kein µop-Cache zur Seite steht, falls eine Sprungvorhersage mal daneben geht), sondern z.B. auch die latenzbehafteten Caches.
Das geben sogar AMD-Insider zu und schimpfen auf GFs enttäuschendes Fertigungsverfahren.

Bulldozer krankt also zum Teil an den selben Schwächen, wie Netburst.
Dazu kommen noch einige andere mehr oder weniegr schwerwiegende Schwächen, die Bulldozer je nach Anwendungsfall ausbremsen und oft genug sogar hinter die K10 zurückfallen lassen können. Nicht nur auf dem Desktop, sondern auch in Servern und Notebooks.

@ aylano
Schon Llano mit den ollen Stars-Cores hat den großen Sprung bei der Energieeffizienz der AMD-Mobil-CPUs gebracht, nicht erst Trinity. Die CPU-Leistung blieb gleich, aber der Verbrauch ging dramatisch runter. besonders im Leerlauf.

Trinity hat nur das kleine Wunder vollbracht, sich demgegenüber trotz Piledriver-Modulen nicht wieder zu verschlechtern, aber die Rechenleistung pro Takt und Core ist immer noch schlechter als bei K10.
Bulldozer-Cores der ersten Generation in einer Mobil-APU sind uns zum Glück erspart geblieben.

Dass Intels Mobil-CPUs immer noch deutlich effizienter sind als AMDs APUs, zeigt sich um so mehr, je niedriger die TDP angesetzt ist. Schon die Sandy-Bridge-ULVs liefen Kreise um die kleinesten Llanos und das mit halb so viel TDP.

Damit die 17W-Trinitys auf Augenhöhe mit den SB-ULVs sind, müssten sie die CPU-Leistung der 35W-Llanos verdoppeln und gleichzeitig den Verbrauch halbieren.
Und dann hätte Intel immer noch Ivy Bridge um AMD trotzdem eine lange Nase zu drehen.

Und ja, auf Desktops wird nicht nur gespielt. Die allermeisten PCs sind Bürorechner oder schlichte Surfmaschinen.

Aber für Office & Co. braucht es überhaupt keine modernen CPUs und erst recht keine APUs. Da wäre man prinzipiell mit alten C2D oder Athlon X2 + Chipsatzgrafik noch immer gut bedient, oder halt mit den kleinsten aktuellen CPUs, die es zu kaufen gibt.
Da ist es weiß Gott kein Ruhmesblatt, wenn dafür auch Trinitys ausreichen. Wobei deren starker GPU-Teil dann chronisch unterfordert brach liegt, weil für Office und Co. schon ne olle Intel GMA-Grafik locker ausreicht. Nicht umsonst war Intel schon vor den jüngsten Fortschritten bei den iGPUs der größte GPU-Hersteller vor AMD und Nvidia.

Entwickelt AMD seine neuen CPUs und APUs wirklich dafür? Das könnten sie sich dann auch ganz sparen und einfach weiter Athlons und Semprons auf K10- oder gar K8-Basis bauen.
Zum Upgrade eines alten Rechners bewegt man damit aber niemanden.
 
y33H@
Schau und genau das meine ich. Dank Intel mit ihrer Dirt Integration (irwie so nennt es Krautmaster) kann AMD die eigentliche Idee der APU nicht auf den Markt bringen.
AMD möchte die APUs von der 1 bis zur letzten Generation schrittweise zur Einheit führen.
Wenn man aber immer die CPU und igp getrennt betrachtet, wird die Masse das Konzept nie verstehen, auch wenn man bereits die fertige APU anbietet.

ein paar Programmen/Benchmarks OCL parallel berechnen
Ein paar reicht schon aus um das zu unterstreichen. die igp wird hier als co-prozessor verwendet, obwohl wie bereits gesagt, Llano das erste Konzept ist. Trinity zeigt aber schon mit seinem Turbo dass man mehr oder weniger immer das beschleunigt was gerade gebraucht wird.

Naja abwarten, vllt ändert sich bei Steamroller endlich der Blickwinkel.

Worauf ich eigentlich auch noch hinauswollt, war auch die allg Computer-Beurteilung. Man sprach von Preis und Performance ect.
Wie schon bereits erwähnt, viele im Forum reduzieren ihren PC scheinbar auf die CPU.
Wenn ich ein APU-System habe, habe ich in einem bestimmten Budget, die beste Preis-Leistung, sobald ich alles machen kann was ich will und die Games zocken kann die ich will. Wenn ich also aber das APU System auf die CPU reduziere und dann mit einem Intel-System mit einem gleich teuren CPU vergleiche, dann vergleiche ich bei einem das komplettes Konzept, bei dem anderen Rechner betrachte ich aber dann nur das halbe Konzept.

Herdware
Jetzt mal nur kurz noch ein Kommentar zu Netburst. Kann gut sein dass damals die Zeit für Netburst noch nicht gekommen war. Nur es mal anders zu betrachten.
Denn mir fallt auf, es wird was das Thema angeht viel schwarz-weiß-Malerei betrieben.
Nicht alles was damals schlecht war ist heut immer noch schlecht.
Für mich ist das bsp Spinat !
 
Zuletzt bearbeitet:
aylano schrieb:
Ja so ist es.
Erst mit speziellen Server-E5-Chips konnte Intel wieder AMDs Bullldozer überholen. AMD hat eben noch nicht das Geld für jeden Markt spezielle Chip-Konfigurationen herzustellen.

1. Existierte Interlagos viele viele monate, wo Xeon E5-2600 nichts zu sehen war.
2. Reichen bisherige Dies nicht aus, um auch im Server-Markt AMD etwas überholen zu können. Es musste ein Spezial-Server-Die her, der nicht umsonst 9-12 Monate nach seinen Brüder kommt.

Also, wer für die Bulldozer-Architektur nur den Zeitraum vergleich in den E5-2600 und nur diesen Spzial-Chip den Durchnschitt aller vergleicht, der macht einen klassischen Rosinen-Vergleich um sich die Welt schön zu reden.

Oder anders gesat. Wenn man extra einen Server-Chip braucht um an AMDs Server-Chip vorbeizukommen, dann ist die Intel-Architektur eben nicht sooooo überlegen, wie es manche hier tun.
(Wenn man eh schon die bessere Fertigung ignoriert)
Wenn der Xeon E5 (Jake Town) ein spezieller Server-Ableger von Sandy Bridge ist, was ist dann bitte der "Interlagos"?

Vor ein paar Jahren hat AMD noch über Intel "gelacht", als man zwei Dual-Cores zusammengeklebt hat, um einen vermeintlichen Quad-Core zu erhalten. Heute muss AMD selbst zwei Bulldozer je vier Module zu einem MCM zusammenpanschen und du bezeichnest den E5 als speziellen Server-Prozessor? :lol:

Der Interlagos war grob ein halbes Jahr vor den Xeon E5 im Retail-Markt erhältlich. Wenn man bedenkt, dass die Interlagos in Real-World-Apps im Schnitt auch nur etwa auf dem Niveau der alten Xeon 5600er liegen, die deutlich über ein Jahr früher am Markt waren, ist das auch kein Wunder.
 
Heute muss AMD selbst zwei Bulldozer je vier Module zu einem MCM zusammenpanschen und du bezeichnest den E5 als speziellen Server-Prozessor?

Achso willst du eine 2mal 350 mm^2 DIE Chip + eigene Maske herstellen xD ?? Kann mir gut vostellen. Hier wird das aufgrund der Fertigung, weniger des Könnens gemacht ^^

Vllt hätte man den dann auch auf den Desktop-Markt bringen können :)
 
Zurück
Oben