News Carrizo: Neue AMD-APU zeigt sich in Benchmarks

Mr.Kaijudo schrieb:
Da hätte auch einfach eine Kooperation zwischen Grafikherstellern und AMD genügt um APUs zu bringen, anstatt sich gleich mit einem Kauf zu übernehmen.

Das müsste dann schon eine extrem enge Kooperation sein.
Außerdem sind die APUs, wie wir sie heute haben, ja nur eine Übergangslösung. Letztendlich wird es gar keine Trennung mehr geben, zwischen CPU-Teil und GPU-Teil. Spätestens dann würde eine Kooperation zwischen zwei Entwicklungsabteilungen in verschiedenen Unternehmen nicht mehr ausreichen.
evolving2.jpg

(Heute dürften wir uns irgendwo in Step 2 befinden.)
 
Zuletzt bearbeitet:
pipip schrieb:
Voyager10
Es gibt immer zwei Seiten einer Medaille. Ebenso könnte ich fragen, wozu brauche ich eine stärke CPU für Office ?
Key ist dann wohl eher, bis auf die paar Nischen die du angesprochen hast, noch der embedded Markt dazu, bsp Spieleautomaten, Medizinische Apparate, Überwachungssysteme die von HSA APUs profitieren könnten und AMD offensichtlich erfolgreich ist, eben beim Desktop-Notebook-Tablet hauptsächlich Multimedia und Gaming in Frage. Starke CPUs machen auch nur dort richtig Sinn, denn wer von euch braucht einen i7 für MS Word ?

Da sollten wir mal auf dem Boden der Tatsachen bleiben :-) Medizinprodukte sind fest in Intels und Nvidias Händen - daran wird sich auch nichts ändern, da die Innovationszyklen im medizinischen Bereich deutlich geringer sind, da die Zertifizierungskosten deutlich höher sind und genau diesem Grund auch keine Experimente gemacht werden.
In vielen klassischen Embedded-Anwendungen braucht man keine hohe Performance und und schon garnicht braucht man da Anwendungen die stark von viel parallen Ausführungseinheiten profitieren.
In beiden Bereichen liegen die typischen Innovationszyklen bei 7 Jahren, mindestens jedoch bei 5 und durchaus auch mal >=10. D.h. Hinzu kommt, dass dieser Markt sehr konservativ ist. D.h. selbst wenn AMD eine tolle Plattform bringen würde, würde es mindestens (!!) 5 Jahre dauern bis diese dann überhaupt mal in diesem Bereich vorgestellt wird. Im klassischen Embedded-Markt ist Arm eher die Konkurrenz zu Intel aber sicher nicht AMD.
AMD hat eher gute Chance in Bereichen wie Digital Signage, POS, Spieleautomaten (wie Du schon gesagt hast). Das sind aber alles Bereiche in denen die Margensituation auch ganz anders ist. Aber selbst hier hat Intel die bessere Lobby.
Es wird Jahre dauern bis AMD das wieder raus holt was die in den letzten Jahren im professionellen Bereich vergeigt haben - selbst wenn die eine ganz tolle Architektur bringen.
 
Whoozy schrieb:
Wenn 20nm bei GF dann aber nicht in Dresden.

Wieso nicht?

Kumpel hat im Sommer bei GF gearbeitet und düfte Wägelchen mit Wafern rumschieben, die nur mit "XXX" beschrieben waren. Das könnten durchaus die ersten 20nm Xone Versuche gewesen sein.
 
Zuletzt bearbeitet:
Mr.Kaijudo schrieb:
Klar deswegen sind AMDs Bulldozer ja auch so aufgeblasen, wegen der besseren IPC :lol:
Bulldozer ist vor allem wegen dem riesigen Cache "aufgeblasen" (war er zumindest damals), sollte man wissen. Zudem hat der Bulldozer Kern, bzw das Modul eine vergleichsweise kleine IPC und die Kerne , bzw der einzelne Kern, ist auch eher schlank.

Der Bulldozer 8 Kern hat 1,2 M Transitoren
http://www.tomshardware.de/CPU-Prozessor-AMD-Bulldozer-Transistor,news-246660.html

ergo / 8 nur etwa 150 M / Kern
(ein Modul kommt ügrigens nur auf 213 M also 107M / Kern)
A "module" has 213 million transistors in an area of 30.9 mm² (including the 2 MB shared L2 cache) on an Orochi die.
http://en.wikipedia.org/wiki/Bulldozer_(microarchitecture)


Hasswel EP hat in der 8 Kern Version
LCC – 4/8, 354mm2, 2.6 Billion
http://www.pcper.com/reviews/Processors/Haswell-E-Intel-Core-i7-5960X-8-core-Processor-Review

ergo 2600 M Transistoren -> / 8 also etwa ca 325 M / Kern

Über den Daumen ist also ein Haswell EP Kern mindestens doppelt so schwer wie ein Bulldozer Kern.

Wie oft soll den der Turbo noch optimiert werden?

Der Turbo wird fortlaufend optimiert. Das ist weniger einfach als du denkst. Es gilt ja im richtigen Anwendungsfall die Jobs auf entsprechnede Kerne zu verlagern, ein gutes Gleichgewicht aus GPU + CPU Performance zu finden.

Grob gesagt war die Optimierung so:

Schritt 1 (das erste mal GPU + CPU auf einer DIE) - zb Llano
-> 2 Separate TDPs geben eine gesamt TDP, GPU / CPU durch die jeweilige Teil TDP limitiert
Schritt 2 - zb Sandy Bridge
-> Taktraten auf einzelne Kerne, diese können die der CPU zur Verfügung stehende TDP besser ausnutzen, ergo taktet zb ein Kern auf 3 Ghz während die anderen pennen
Schritt 3 zb IB U
-> Es gibt eine Gesamt-TDP, die dynamisch zwischen GPU und CPU zugeteilt werden - bei wenig CPU Last darf die GPU hochtakten
Schritt 4 zb Haswell Y / Beema / Temash
-> Kurzzeitig darf die Gesamt-TDP über den typischen Verbrauch hinausfahren um kurze Lastspitzen abzufedern, eine 15W APU also zb kurzzeitig 25 W brauchen.
Schritt 5 usw...
-> Optimierung der vorangegangenen Schritte, sowohl GPU als auch CPU können mehr als 100% der eigentlichen TDP abschöpfen, extrem hoher Single Core Turbo bei kleiner Gesamt-TDP (siehe i5 / Temash). Und so gehst weiter...

Es geht beim Turbo ja darum die zur Verfügung stehende Maximale Leistungsaufnahme / Abwärme bestmöglich an die jeweilige Anforderung zuzuteilen. Das ist eine Wissenschaft für sich.
Gäbe es das nicht, hätten wir bei 10W TDP zB maximal 1,0 Ghz Baseclock CPU und 400 Mhz auf GPU Seite
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Ich kann beim akuellen PC mich jetzt nicht beklagen, vielleicht weil ich keine 200 MP JPEGs öffne aber die normalen gehen ruck zuck. Wenn es mit OpenCl vielleicht nicht gefühlt schneller, aber effizienter geht - her damit.

Bei JPG's gibts solche und solche. Bei heutigen MP Flut kann ein JPEG gerne mal über 10mb haben und da merkt man das "durchscollen" schon, selbst mit SSD(500read) und einem 4Ghz i7. Zumindest merke ich das. Das gleiche in stromsparend und flüssiger, wäre doch was.

Das ganze Thema HSA kränkelt natürlich an der Inteldominanz die zum Teil durch Marktmissbrauch von damals immer noch zu spüren ist.
 
Amüsant, was man hier alles so liest:

30 Watt weniger TDP?
D.h. der Carrizo produziert Strom (der A10-7300 hat ein TDP von 19 Watt)

alte 28nm Fertigung? Wenn es überhaupt stimmt, was spricht dagegen? Mein 65nm Laptop-Prozessor hat damals noch jeden günstigen 45nm-Prozessor weggesteckt.

DDR3-1600 spricht gegen eDRAM? Wieso? Die XBoxOne hat auch beides.

....
 
Die XBone hat ESRAM - das ist anders als eDRAM. Weiter vorne ist ein Artikel über den Unterschied in einem Beitrag zu finden.
 
Preis und Ausstattungspolitik gerade bei den Notebooks verhindern aber eher nennenswerten Erfolg, wodurch die APUs aber nicht automatisch "schlecht" sind. In meinen Augen besteht Nachholbedarf gar nicht so sehr bei den Produkten sondern bei der Vermarktung. So ganz nebenbei dürfte in den meisten privaten Notebooks eher der Massenspeicher die bremsende Komponente sein, den ein Leistungswunder sind so Sachen wie ein i5-4200x auch nicht.

Da muss ich widersprechen! Die Ausstattungspolitik bei AMD ist vorbildlich - dort hat meines Wissens nach jede CPU jeden möglichen Befehlssatz freigeschalten. Zum Release hatten selbst die kleinsten Kabini Prozessoren Befehlssätze, die Yintel teilweise erst ab i3/i5 freigeschalten hat.

Intel verkrüppelt ja bekanntlich heftig, weil sie es eben können. Die kleinen Celerons haben ja wirklich alles deaktiviert was geht und in der Mainstream Plattform gab es bis Devils Canyon keinen Prozessor der alles bot. Man durfte sich dann z.B. zwischen besserer Virtualisierung und freien Multi entscheiden. Seit Sandybridge waren die K CPUs um jeweils 2 professionelle Befehle beschnitten.
Virtualisierung bekommt man bei AMD durch die Bank weg.

Was Du eher meinen dürftest, ist die miserable Ausstattungspolitik seitens der OEM, die den Notebooks immer einen bewussten Pferdefuß verpasst (Single Channel RAM, mieser Akku, bleiernes Gehäuse (ernsthaft - wieso und wie machen die OEMs AMD Notebooks so schwer?!), laute Lüfter, mieses Display, nutzlose d-GPU etc.).
Das macht die Notebooks unattraktiv. Deswegen wird es auch dringend mal Zeit, für Referenzplattformen von AMD, die zeigen, wie eine APU gescheit verbaut werden soll.
Mit den Kaveri FX (7600p z.B.) könnte man erstaunliches bauen aber es kommt einfach nichts.

Und @Pipip:
Du kannst so viele gute Folien und Erklärungen posten, wie du willst - manche wollen HSA absichtlich nicht verstehen.

Ich lese deine Beiträge allerdings recht gern :)
 
[F]L4SH schrieb:
Und @Pipip:
Du kannst so viele gute Folien und Erklärungen posten, wie du willst - manche wollen HSA absichtlich nicht verstehen.

Ich lese deine Beiträge allerdings recht gern :)
Ja das geht bei einigen einfach nicht runter. HSA ist da und im Einsatz auf vielen Ebenen im System. Kaveri Benchmarks zeigen dies deutlich, sofern denn auch Benchmarks für HSA gemacht wurden. Aber dies sind auch schon mehrfach in diversen Threads gepostet worden.
 
5@n!töt3r schrieb:
30 Watt weniger TDP?[/I] D.h. der Carrizo produziert Strom (der A10-7300 hat ein TDP von 19 Watt)
DDR3-1600 spricht gegen eDRAM? Wieso? Die XBoxOne hat auch beides.

TDP ist nicht der Stromverbrauch, vielleicht mal nachschlagen?!
Die Xbone nutzt ESRAM, kein eDRAM und man sieht ja wie super das da funktioniert^^

Hast schon recht, sehr amüsant was man hier so liest :freak:
 
Daedal schrieb:
...Kaveri Benchmarks zeigen dies deutlich, sofern denn auch Benchmarks für HSA gemacht wurden. Aber dies sind auch schon mehrfach in diversen Threads gepostet worden.

du meinst das Benchmark zb OpenCL nutzt?

Sicher, hier ist Kaveri mit der starken GPU deutlich überlegen und sicher, es gibt einzelne Anwendungen die davon Profitieren (welche waren das noch gleich?).

Welche "HSA" Benchmarks sollte man den eurer Meinung nach verwenden?

... da gibt es Stand heute ja fast mehr Anwendungen die von Quicksync profitieren dessen Einsatzgebiet noch deutlich beschränkter ist als OpenCL / HSA allgemein.

Wenn eine Anwendung von "HSA" bzw GPU Computing profitiert wie das

amd_jpg_decoder_1.png

(würde ich gern mal real sehen)

dann muss meine AMD GPU im Desktoprechner ja direkt das Diagramm sprengen.

Wie gesagt, der Ansatz ist ist richtig die GPU für mehr, zb gerade grafische Dinge wie Rendering von JPEG / PDF ... zu verwenden. Man muss sich eher fragen wieso man das bisher nicht gemacht hat. Zudem hält eine <50€ GPU im Desktop Segment ohne das Unwort "HSA" zu verwenden hier quasi alle APU in Schach, HSA hin oder her.

Wichtig sind diese Optimierungen vor allem im Umfeld wo es diese klassischen GPU nicht gibt, zb im Tablet / Ultrabook. Bei der Leistung eines ATOM/Temash haut diese JPEG Rendering Optimierung deutlich mehr rein als im Desktoprechner.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Über den Daumen ist also ein Haswell EP Kern mindestens doppelt so schwer wie ein Bulldozer Kern.
Ja und ist bei Performance pro Watt überlegen.

Der Turbo wird fortlaufend optimiert. Das ist weniger einfach als du denkst. Es gilt ja im richtigen Anwendungsfall die Jobs auf entsprechnede Kerne zu verlagern, ein gutes Gleichgewicht aus GPU + CPU Performance zu finden.

Grob gesagt war die Optimierung so:

Schritt 1 (das erste mal GPU + CPU auf einer DIE) - zb Llano
-> 2 Separate TDPs geben eine gesamt TDP, GPU / CPU durch die jeweilige Teil TDP limitiert
Schritt 2 - zb Sandy Bridge
-> Taktraten auf einzelne Kerne, diese können die der CPU zur Verfügung stehende TDP besser ausnutzen, ergo taktet zb ein Kern auf 3 Ghz während die anderen pennen
Schritt 3 zb IB U
-> Es gibt eine Gesamt-TDP, die dynamisch zwischen GPU und CPU zugeteilt werden - bei wenig CPU Last darf die GPU hochtakten
Schritt 4 zb Haswell Y / Beema / Temash
-> Kurzzeitig darf die Gesamt-TDP über den typischen Verbrauch hinausfahren um kurze Lastspitzen abzufedern, eine 15W APU also zb kurzzeitig 25 W brauchen.
Schritt 5 usw...
-> Optimierung der vorangegangenen Schritte, sowohl GPU als auch CPU können mehr als 100% der eigentlichen TDP abschöpfen, extrem hoher Single Core Turbo bei kleiner Gesamt-TDP (siehe i5 / Temash). Und so gehst weiter...

Es geht beim Turbo ja darum die zur Verfügung stehende Maximale Leistungsaufnahme / Abwärme bestmöglich an die jeweilige Anforderung zuzuteilen. Das ist eine Wissenschaft für sich.
Gäbe es das nicht, hätten wir bei 10W TDP zB maximal 1,0 Ghz Baseclock CPU und 400 Mhz auf GPU Seite

Einer von diesen Zwischenschritten soll nun 20% gebracht haben. :lol:
 
[F]L4SH schrieb:
Da muss ich widersprechen! Die Ausstattungspolitik bei AMD ist vorbildlich - dort hat meines Wissens nach jede CPU jeden möglichen Befehlssatz freigeschalten. Zum Release hatten selbst die kleinsten Kabini Prozessoren Befehlssätze, die Yintel teilweise erst ab i3/i5 freigeschalten hat.

Ich meinte die Geräte als solches nicht die APUs, und die Notebooks mit APUs sind selbst innerhalb der Serien eines Herstellers nicht vergleichbar ausgestattet. Hast du ja selbst aufgezählt, woran es da so klemmt. Den Preis sehe ich allerdings auch mit als Problem, den bereits erwähnten I5-4200(M oder U) findest du in jedem 2. Billigheimer, den Kaveri muss ich 1. mit der Lupe suchen und 2. teuerer bezahlen.
 
Mr.Kaijudo schrieb:
Einer von diesen Zwischenschritten soll nun 20% gebracht haben. :lol:

20% ist doch keine Kunst wenn zb an Schritt 4 denkst. Nun darf die APU vllt bei 10W TDP kurz bis 15W gehen, schwubs hast du bis 50% mehr, je nach Workload. Gerade bei kurzen Lastspitzen.

Schau dir den Performance Gap zwischen i3 und i5 an. (im ULV Bereich). Allein durch den Turbo gewinnt man da mehr als 20%. Deutlich mehr.

Edit:

http://www.ocaholic.ch/modules/smartsection/item.php?itemid=930&page=2

i3-4000U -> kein Turbo -> 1,7 Ghz Baseclock -> 15W TDP
i7-4650U -> Turbo -> 1,7 Ghz Baseclock und bis 3,3 Ghz Turbo. -> 15W TDP

meinst da liegen keine 20% dazwischen? Wohl eher 70%

Schau dir die IB Modelle gehen Haswell an. im Y Bereich. Beide 22nm, selbe TDP und genau wegen dem Optimierten Turbo hat Intel in dem Segment mit Haswell viel gerissen.
 
Zuletzt bearbeitet:
bis zu 20%

von Turbooptimierung zum Vergleich mit kein Turbo :rolleyes:
 
Zuletzt bearbeitet:
Krautmaster
Was auch immer für ein Performance Schub kommt, wobei ich mich bei den Vorgänger orientiere und die Abstände immer ca gleich waren, sage ich dir, dass Excavator Cores, sicherlich nicht mehr jene Cores sind, die man damals eventuell in FX Modelle geplant hatte.
Eventuell sprechen die insgesamt 2 MB L2 Cache schon eine deutliche Sprache. Diese Chips sind für den Notebook/Tablet-Markt und die Desktop Variante soll ja nur bis zu angeblich 65 Watt tdp (also was ich bin jetzt immer gelesen habe) gehen.
Ich erwarte mir einen 7850k Performance mit einer 65 watt tdp und in einem SoC. Glänzen wird das Teil aber nicht im Desktop sondern im Notebook Sockel.
Ich hoffe zu mindestens, dass OEM Carrizo eher verbauen werden, weil bei einem SoC nicht viel am Board optimiert werden muss und nur einen Kühler für die APU bereitstellen muss.

Ich finde das schon amüsant, wie 20 % Performance lächerlich gemacht werden, besonders wenn man bedenkt, dass der genützte Prozess nicht einmal der CPU freundlichere ist, aber man trotzdem bei Kaveri die 4GHZ erreicht. Will mir nicht vorstellen wie die APU in 22nm FinFet aussehen würde.

Was Stromsparmechanismen und Turbo angeht, wirst du dich ja dann bei Zen freuen dürfen, wenn dieser eine optimale Mischung aus Bulldozer und Cat Family sein soll, die auch Powergating ect können.
 
Zuletzt bearbeitet:
Super Benchmark, echt, vor allem weil man da ja auch voll den
Unterschied zur Konkurrenz und den Sprung auf die nächste
Generation sieht. Wem genau nützen denn die Werte jetzt was?

Hat denn irgendjemand hier Vergleichswerte zu diesen Benchmarks im Kopf?
 
Klar ist das schön für den Kunden, wenn AMD auch in den billigen CPU's/APU's alle Befehlssätze anbietet. Ist das aber auch schlau von AMD? Letztendlich will und muß AMD ja auch Geld verdienen. Wenn ich Futures in einer 50 Euro CPU anbiete, die es bei der Konkurrenz erst für den doppelten Preis gibt und trotzdem Minus mache, dann darf man doch einmal Fragen, ob das Marketing von AMD überhaupt richtig tickt.
Auch denke ich, das Befehlssätze wie AES oder Virtualisierung für den Massenmarkt unwichtig sind. Wie viele OEM Kunden gehen in den Laden und fragen ob der neue 0815 Rechner auch AES kann? Derjenige der danach fragt soll das Future auch bezahlen und nicht geschenkt bekommen.

Immer noch in 28nm ist schon traurig. Intel ist hier bei 14nm angekommen.

Bitte weckt mich auf, wenn es HSA zu kaufen gibt und ich davon im Alltag auch etwas merke.
 
Zurück
Oben