News AMDs „Jaguar“: Scharfe Krallen und Zähne auf 3,1 mm²

@[F]L4SH & LoRDxRaVeN

Ich denke die FCH also Sb wandert vollständig in die DIE, eventuell mit ca 1:1 der technischen Daten. Das macht schon sinn, vereinfacht den Aufbau des Mainboards und reicht heute für fast alles aus. Wenn man Speziell noch was braucht bindet man es über PCIe an.

Über die Integration kommt man von etwa 35m² in 65nm un d~ 4,7W TDP sicher weiter runter. Angesichts der 3,6W TDP des kleinsten Temash auch nötig. Der Umstieg zu 28nm und im Fall von Temash eventuell eine deutliche Verschlankung des FCH würde im Verhältnis eine gute Ersparnis bringen, zudem den Aufbau durch SOC vereinfachen. Mit 3,6W wäre direkt ein MinimalSystem Powered by USB kein Problem ;)

@Lost_Byte

Joa, mit 25% rechne ich locker. naja, abh. davon ob AMD auf GCN oder setzt oder eventuell eine abgespeckte Form. Eventuell verschlankt man hier den Shaderaufbau um eine besseres Leistungsverhältnis zu erreichen.

Cape-Verde hat 640 GCN ALUs, auf 123 mm² wovon etwa 50mm² der DIE ausmachen dürften.

capeverdedieshot2itk0g.jpg


Jetzt kann man spekulieren wie viele GCN Cluster auf einen 50-100mm² Chip passen würde wenn die FCH ca 5-10mm² braucht, 4x Jaguar etwa 12mm² + ca 9mm² 2MB L2 (etwas weniger wie der Kern siehe Brazos Kern / Cache Verhältnis). Zusammen also Kerne + L2 Cache + FCH etwa 30mm² in 28nm.

Hat die Plattform nun L3 oder nicht?

CB textet:

Die einzelnen Teile des L2-Caches gehören auch zum neuen Stromsparmodus, den AMD CC6 tauft. Jeder der vier Teile kann wie auch jeder Prozessorkern separat schlafen gelegt werden. Schlafen beispielsweise drei der vier Kerne, kann darüber hinaus alternativ der letzte verbliebene auf die vollen 2 MByte L3-Cache zugreifen – dies wiederum soll ebenfalls die IPC erhöhen. Steht der letzte „Jaguar“-Kern kurz vor dem Einschlafen, ist es seine abschließende Aufgabe, den gesamten L2-Cache zu leeren, damit dieser beim Aufwecken wieder vollständig zur Verfügung steht.

müsste das nicht L2 heißen?

Ich denke entscheidend ist die Generation der APU.
Hier spricht AMD von Gen2 bei Trinity als auch bei Kabini und Temash. Ich denke aus Effizienz und Platzgründen setzt Kabini und Temash auf 4D während Kaveri sicher auf GCN setzen wird.

Trinity hat bis zu 384 Shader (4D 32nm). Ich tippe bei Kabini auf

96 Shader (24x4D) bis 128 Shader (32x4D) bei etwas kleinerer DIE als Brazos.

:P
Ergänzung ()

Lost_Byte schrieb:
Wie sollen die das denn sonst machen, wenn nicht durch deaktivierung/lasercut und Takt? Die müssten dann ja eine komplett neuen Chip nehmen und so hoch, dass sich das auch nur ansatzweise rentieren könnte, sind die gewünschten Stückzahlen an x86Tablets sicher nicht. Man könnte vielleicht noch alle möglichen Erweiterungen raus werfen...


Ja klar, darum ging es ja. Ich kann mir beides vorstellen. AMD ist generell recht sparsam was Masken angeht, demnach hat aylano vermutlich schon recht, Teildeaktivierung. Kann man ja vllt. sogar auf FCH + Shader / Kerne erweitern.

Bei Brazos hatte man ja auch 5W - 18W Spielraum, und das nur über Takt und Volt.

Ausgehend davon könnten in 28nm schon gut 3,6W -25W ohne jegliche Teildeaktivierung gehen, wobei es die dann geben muss da AMD 2-4 Jaguar kerne angibt.

Ich gehe auch davon aus, dass Temash und Kabini ein und derselbe Chip ist.
 
Zuletzt bearbeitet:
3,6W-25W sollten schon gehen denke ich. 2 Kerne sowie Grafikshader deaktivieren, dazu den Takt runter und schon ist man bei 3,6.
AMD hätte dann wie heute schon 3 Masken am laufen. Mehr würde wohl finanziell und Fertigungstechnisch schwer werden.
Kaveri für Desktop und Mobil
Kabini/Tamesh für Tablets/Notebooks
XY auf Piledriver Basis für FX und Opteron. Evtl 2012 noch mit Steamroller Kernen.
 
Das sind wirklich interessante Die-Shots. :)

Wenn man sieht, wie riesig der Platzanteil der GPUs in den APUs ist, dann versteht man, warum AMD dieses Potential auch unbedingt für andere Zwecke als nur schnöde Bilddarstellung nutzen will.

Andererseits relativiert sich irgendwie auch wieder die vielfache Leistung einer GPU bei bestimmten Anwendungsfällen gegenüber einer CPU. Würde man z.B. den FPU-Teil einer gewöhnlichen x86-CPU auf ähnliche Größenordnungen aufblasen, wie so eine GPU, dann würde die sich im Vergleich wahrscheinlich gar nicht mehr so schlecht schlagen.

Wobei das wahrscheinlich in der Praxis nicht so einfach möglich wäre.
Aber irgendwie vergisst man leicht, dass auch GPUs nur mit Wasser kochen und dass die beeindruckenden "FLOPs"-Zahlen auch daher kommen, dass aktuelle GPUs auch einfach riesige Monster sind.
Ein IvyBridge-Quadcore z.B. ist (inklusive iGPU und sonstigem "Offcore"-Kram) nur 160mm^2 groß. Eine Tahiti-GPU ist mit 365mm^2 schon mal mehr als doppelt so groß und eine GF110 sogar über 500mm^2 (allerdings noch in "groben" 40nm).
 
@Krautmaster: Da zuvor nur von L2 Cache die Rede war und ich im Internet (gleichbedeutend mit google Suche) keine weitere Meldung zu L3 Cache gefunden habe: wahrscheinlich nur ein Schreibfehler und kein L3-Cache. Wobei nen L3 Cache für CPU+GPU was hätte^^

Deine Rechnung mit ~30mm² für den Prozessorteil der APU scheint zu passen. Dann wären also noch, wenn man die aktuelle Größe beibehalten würde ~50mm² für den Grafikpart über. Genug für eine geshrinkte HD6670^^ Die Grafikleistung würde mir definitv reichen^^ (1,6GHz Quad mit Turbo auf 2,2GHz und der Leistung einer HD6670 bei max 30W Verbrauch wär schon ziemlich :volllol: )

@Herdware: Bei der entsprechenden Anzahl an Kernen könntest du aber noch mal 50% für die Ansteuerung/Verwaltung drauf rechnen. Außerdem sind GPUs in der größe leichter herzustellen als CPUs.
 
Zuletzt bearbeitet:
bensen
512MB eDRAM ist viel zu teuer für so einen Lowcostchip. Sowas wäre interessanter für Kaveri
Das ist mir ja klar ^^ wollte nur klar machen, falls, dann würde man wesentlich weniger benötigen ^^
Da aber Dual Channel ca eine Speicherbandbreite einer HD 6450 entspricht, und die igp besten falls ähnlich schnell wie ein A4 ausfallen dürfte, vllt noch ein A6, was ich aber schon für zu stark finden würde, bräuchte man sowas einfach nicht.
Naja abwarten ob es dieses mal Dual-Channel gibt, oder ob das einfach zu viel Platz benötigen würde.

Platzgründen setzt Kabini und Temash auf 4D während Kaveri sicher auf GCN setzen wird.
Kann ich mir nicht vorstellen, denn genau Thesma und Kabini wären die wahren Verbreiter für HSA weil sie eben mit höchster Wahrscheinlichkeit mehr die Masse erreichen würden, und somit GCN im Chip hätte als die Anzahl der Cores zum bsp.
Also falls die igp zu groß geworden wäre, hätte man auch weiter dual Cores auf den Markt bringen können.
Ich vermute Krishna und Wichita hätten VLIW4 verwenden sollen und hätten ja auch mit Trinity kommen sollen. Bekanntlich wurden die aber gestrichen.

Meine Annahme, dass für Temash und Kabini zwei Masken zum Einsatz kommen könnten, basierte auf dem TDP Range von 3.6W - 25W TDP.
Wieso ?
AMD selbst spricht davon, dass mit „Jaguar“ nicht weniger als eine über 15 Prozent höhere IPC sowie ein um über zehn Prozent gesteigerter Takt als noch mit „Bobcat“ möglich ist.
Weiteres könnte man ja auch den L2cache verringern/deaktivieren. 2 der cores deaktivieren und ein teil der gpu veringern.
Nimmt man mal den Vorgänger.
AMD Z-01 2 1.0GHz Radeon HD 6250 80 276Mhz 5.9W

oder Embedded-G-Serie
http://de.wikipedia.org/wiki/AMD_Bobcat#Bobcat

T16R 0,615 1 512 kB AMD Radeon™ HD 6250 LV DDR3-1066 2,3W

zwar nur 600 Mhz aber mit Trinity modul (teildeaktiviert)
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Ich denke aus Effizienz und Platzgründen setzt Kabini und Temash auf 4D während Kaveri sicher auf GCN setzen wird.
Nein, alle drei nutzen GCN - was seit vielen Monaten bekannt ist.

Einfach die offizielle Roadmaps anschauen *klick mich*

AMD-Financial-Analyst-Day-2012-Roadmap-Client-2013.jpg AMD-Financial-Analyst-Day-2012-Client-Graphics-Roadmap-2012-2013.jpg
 
Oracle schrieb:
Hier ist AMD Intel weit voraus, das Problem ist nur, dass sie nicht die Marketing Möglichkeiten haben.

Das ist nicht dein Ernst, oder? dass ein Kern sich bei Bedarf den ganzen L2-Cache schnappen kann hat Intel bereits mit dem C2D eingeführt. Ich hab eher das Gefühl als ob AMD sich architekturmäßig wieder an intel annähert. Als nächstes führen sie auch wieder den L3 Cache ein, woll'ma wetten?
 
Apt Pupil
Das macht kein sinn bei so einer kleinen Chip. Weiteres hat AMD einer der wenigen als erstes den L3 Cache verwendet (nahe am Sockel dann integriert)
Intel bezeichnet übrigens den L3 cache als last level Cache. Deshalb weil man damit irwie Energiesparmodi besser verwenden kann keine Ahnung. AMD bindet ja den L2 cache nicht wie üblich an, sondern ermöglicht ja auch deren Deaktivierung oder Aktivierung für multi oder single Thread ect.
Etwas was Intel nicht verwendet, sondern eher wie bei NV Tegra bekannt ist (Core aktivieren, deaktivieren ect)
Der l2 cache von AMD ist mehr oder weniger genauso potent wie intels l3 cache, und macht den wohlmöglich einfach unnötig.
Falls ich mich irre lasse ich mich gerne verbessern ^^
 
Last Level Cache deshalb weil die iGPU darauf mitzugreift und seit Ivy Bridge die iGPU einen eigenen dedizierten L3 zusätzlich hat.

Und wieso sollte AMDs L2 (im Falle von Jaguar) so gut sein wie der L3/LLC von Intels Ivy Bridges? Erstens ist er das mit Sicherheit nicht und zweitens hat Jaguar keinen L3, weil das bei dem Design viel zu Platz kostet und eher wenig bringt.
 
Warum seid ihr euch so sicher, dass es nur eine Maske gibt? Sogar Ontario und Zacate hatten schon extreme Stückzahlen. Es ist also nicht so, dass eigene Masken hier schon "Einzelstücke" wären.
Es geht hier ja auch nicht um die teure GF SoI Fertigung - sondern TSMC Massenfertigung. AMD hat bei TSMC auch viele verschiedene Designs laufen. Für fast jede Klasse ein eigenes und bei 28nm auch schon 3 Chips.
Warum sollte man für die billigen Chips daher nicht zwei Masken nehmen?
 
Krautmaster schrieb:
@aylano

lol mach kein Fass auf, ich habe schon bewusst "eventuell" geschrieben. Natürlich kann AMD über Teildeaktivierung kleine Modelle ausprägen, oder eben über eigen DualCore Jaguar Masken.
Wie wäre es, wenn du mal nicht dauern Fässer aufmachst und mal nicht über Sachen "herumredest", wo es nichts zu reden gibt. Diskussionen basierend auf nichts bringt einfach nichts.

Was für ein Märchen gabs da? Ich komme nicht mit >.<
Es ging um die Dual-Core-Llano-Gerüchte, die einmal Online-News herumschwirrten.
Die waren deshalb so lächerlich, weil AMD damals große Fertigungs-Schwierigkeiten mit ihren Quad-Llano hatten. Und man wusste ja, dass es mindestens bis zum Jahresende Engpässe gibt. Dazu wusste man von Trinity, der relativ gleich nachdem kommt, wenn die Fertigungs-Probleme von Llano behoben sind.

Ein Dual-COre-Llano machte von Anfang an keinen Sinn, aber nicht wenige Spekulierten davon. Aber auch hier wurde die Diskussion auf Basis von Nichts (= Nichtbetrachtung der Fertigungs-Probleme) geführt

Mir ging es nicht darum ob AMD für nen 2 Kern Jaguar ne eigene Maske hat, sondern eventuell noch einen kleineren Chip als die Kabini / Temash APU bieten wird. Medfield Konkurrenz.
Soll ich jetzt in deinem Unwissen raten, wo ein 4-Core-Maske-Kabini jetzt dem Medfield so unterlegen sein soll, dass eine neue kleiner Kabini-Mini-Maske nötig ist. Keine Ahnung was du jetzt wieder meinst.
Lern einmal genau das Problem zu definieren. Dann wird selbst du mit einer dazugehörigen Recherche vielleicht schon selber auf die "Lösung" draufkommen, bevor du die dann hier "ansprichst".

Meine Annahme, dass für Temash und Kabini zwei Masken zum Einsatz kommen könnten, basierte auf dem TDP Range von 3.6W - 25W TDP. Meiner Meinung nach fast zuviel um rein über Teildeaktivierung und Takt zu agieren.
Offensichtlich weißt du schon wieder nicht, dass AMD heute genauso einen 4,5W-TDP Chip (0,6 Ghz-Single-Core) hat. Gerade ab so 5 W-TDP dürfte die kritische Grenze sein, wo Spannung & Takt massivst gesenkt werden muss , um etwas weniger Strom verbrauchen zu müssen, da bei 5,9 W-TDP schon ein 2-Core @ 1,0 Ghz geht.

Da Kabini ein SoC geht, würde es logisch, wenn dieser Kritische Punkt sowohl absolut als auch relativ weiter unten wäre, da schließlich durch den SoC z.B. der Bus-Link zwischen APU und Southbridge fehlt. Dazu sind im Kabini wegen SoC generell weniger nativ verbaute SATA & USB & Co nötig, da sie keine Southbridge brauchen, die auch für High-End-PCs produziert werden.
Also, wegen dem SoC-Chip sinkt der Stromverbrauch sowieso und die 25W-TDP sind jetzt auch nicht viel mehr als die AFAIK 22-23W-TDP, die AMD mal für die Zacate-Plattform angegeben hat.

Wenn man das wüsste & vieles anderes, braucht man nicht dauernt ein Fass aufzumachen und etwas herumzureden, über das es nichts zu diskutieren braucht.
Du kannst auch erklären, warum AMD umbedingt zusätzliche Chips benötigt, wo sie jetzt praktisch nicht einmal vertreten sind. Wenn du solche Aussagen nicht ständig ignorieren würdest, hättest du dir auch schon einige Themen selbst beantworten können, ohne Recherchieren zu müssen.
Und ja Kabini ist mit 5-10 Mio. Stück pro Quartal wichtiger als Tamesh, wo AMD bei erfolgreichen 5% trotzdem nur so 375-500.000 Stück verkaufen würde.

Es zahlt sich xxx-mal mehr aus, sich nach Kabini voll auf den Nachfolger zu konzentrieren. Vorallem, wenn man mit diesen Kabini genauso einen Erfolgreichen Einstieg im Tablet-Markt machen kann. Die Tablet-Industrie hat jetzt mehrere Jahre gebraucht, um einen Halbwegs großen Absatz zu erreichen, der nicht teil des Apple-Marktes ist.
Warum sollen sich dann viele sofort auf AMD stürtzen, die im Tablet-Markt sehr geringe Erfahrungen haben?

Mich würde es nicht wundern, wenn der Embedded-Markt vorerst viel wichtiger ist als Tablet, weil AMD wenigstens im Embedded-Markt etwas erfolgreich ist, auch wenn man hier kaum/nichts davon hört.
 
@Lost_Byte

naja, so wie ich das sehe ist X86 auf Tablets demnächst ja erst der Anfang, Windows 9 etc ... alles wird folgen und wenn AMD Richtung X86 auf Smartphones gehen will wie Intel es auch macht, dann wird man unter 3.6W kommen müssen.

Ich denke die nächsten 5 Jahre werden zunehmen X86 in diesem LowPower Segment Verbreitung finden. Und die Jaguar Kerne haben sicher auch das Potential dazu.

Viel würde gar nicht fehlen um zB auf Medfield aufzuschließen, mit 28nm wäre man auch fertigungstechnisch gut dabei und die Architektur effizienter als die des ATOM.

Nicht, dass es wie bei Netbooks läuft und man Intel 3 Jahre die Führung in einem recht einfach für sich entscheidbaren Markt überlässt.

aylano schrieb:
Soll ich jetzt in deinem Unwissen raten, wo ein 4-Core-Maske-Kabini jetzt dem Medfield so unterlegen sein soll, dass eine neue kleiner Kabini-Mini-Maske nötig ist. Keine Ahnung was du jetzt wieder meinst.

aylano, es ging darum dass man mit 3.6W auf Tablets sicher eine super Position hat, aber bis zu den

in der Spitze soll diese unter 0,8 Watt liegen

http://www.chip.de/news/Medfield-Intels-Atom-fuer-Smartphones_53750750.html

eines Medfield ist es noch ein gutes Stück, mit der Maske eines Kabini welcher bis auf 25W geht kaum denkbar. Die JaguarKerne mit 3,1mm² bieten dennoch eine gute Grundlage für eine Konkurrenz. Wie du ja selbst festgehalten hast ist das "drumrum" entscheidend.

Wo habe ich den geschreiben, dass Kabini Mini Maske (so mini ist die nicht) Medfield unterlegen ist? Die wird sicher xFach schneller sein, aber der Markt ist ein komplett anderer.
Einen Medfield 1,6 Ghz Singelcore ATOM mit 0,8W TDP in 32nm kann man nicht gegen einen Quad mit vermutlich 70-100mm² und 3,6W-25W TDP vergleichen, weswegen ich in den Raum stellte, ob AMD nicht noch einen Chip eine Klasse darunter entwickeln wird, kein Smartphone wird die GPU oder den FCH Umfang eines Kabini Chips benötigen, und kein Kabini DIE wird bei <1W agieren.

Was faselst du übrigens von Problem definieren? Es geht um keinerlei Problem an sich! Wie kommst du darauf?

Es ging um reine Spekulation ob ein noch kleinerer Chip auf Basis Jaguar oder einer Abwandlung davon vllt schon zeitnahe angedacht sein könnte, Temash eventuell gerade als 2 Kern eine eigene Maske bekommt, vllt gerade weil mit Kürzungen andererseits eine Medfield Konkurrenz entstehen könnte. Im Interesse AMDs übrigens ^^

Intel ist genauso bzw fast genauso wenig im Smartphone Umfeld vertreten wie AMD (jetzt 2 gegen 0 Geräte). Bei den kleinen Tablet mit <5W bisher auch kaum, das ändert sich mit Win 8.
AMD hat meiner Ansicht nach schon die Netbooks verschlafen und AMD hat meiner Ansicht nach das Zeugs wie Intel mit wenig Aufwand abgewandelte X86 Chips mit 1W vorzulegen. Intel hier die Stirn zu bieten.

Das ist weit einfacher als Bulldozer im High End Segment gegen IB E und zu fit zu machen.
Ergänzung ()

Lost_Byte schrieb:
Deine Rechnung mit ~30mm² für den Prozessorteil der APU scheint zu passen. Dann wären also noch, wenn man die aktuelle Größe beibehalten würde ~50mm² für den Grafikpart über. Genug für eine geshrinkte HD6670^^ Die Grafikleistung würde mir definitv reichen^^ (1,6GHz Quad mit Turbo auf 2,2GHz und der Leistung einer HD6670 bei max 30W Verbrauch wär schon ziemlich :volllol:

;) naja das wäre dann doch etwas überoptimistisch ist ja aber von der finalen Chipsize abhängig.

Wenn es wie y33H@ klar gestellt hat, GCN ist, dann könnte ich wetten dass die DIE eher n gutes Stück zunimmt.

Dass bei einem 25W chip in 28nm ganz gut Leistung rauskommen sollte, sollte klar sein. ;)

@y33H@

danke =) übersehen.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Und wieso sollte AMDs L2 (im Falle von Jaguar) so gut sein wie der L3/LLC von Intels Ivy Bridges?
Weil L2 Cache schneller als L3 Cache ist und so ein Ivy Bridge auch gerade malß,25MB L2 Cahe/Kern hat und 3MB L3Cache (ich habe jetzt mal die neu raus gekommenen Dual Cores genommen)

@Krautmaster: Es hängt ja noch um einiges mehr in den 25W TDP als nur die APU.
Wo liegt derzeit eigentlich so ein Ontario Kern von der Leistungsaufnahme her? Gibt es da irgendwelche Zahlen?
 
@Lost_Byte

Klar hängt da noch mehr drin, wobei die CPU und vor allem die GPU ein Großteil von ausmachen werden. Auf was war aber die Aussage bezogen?
 
Krautmaster schrieb:
Cape-Verde hat 640 GCN ALUs, auf 123 mm² wovon etwa 50mm² der DIE ausmachen dürften.
Typisch Krautmaster
Nix wissen
Alles Ignorieren
Nix Nachmessen

1) Ich sagte schon, dass der Un"Core"-Bereich mehr ausmacht als die "GCN-ALUs".
2) Spekulieren ist eh schon schwer genug und das kann man nicht mit völlig falschen Zahlen herumreden.
Nix da kleiner.

1 CU macht so 5mm² aus. Bei 10 Stück hätte man 50mm². Somit mach bei Carp Verde der Uncore-Bereich schon mal 60% ausmacht.
Wie ich schon sagte. Der Uncore-Bereich ist bei kleinen Chips der größte Anteil.
Bei einem Low-End-GPU mit einem CU wäre dieser Anteil eventuelle sogar >90%.

Und da wir den Uncore-Bereich nicht kennen, ist es völlig sinnlos darüber zu diskutieren, wenn der absolut die Mehrheit ausmacht im Kabini-Die.

Und welche Front-End-GPU AMD verwendet ist völlig ungewiss. Bei Ontario konnte sie ja den von Cedar verwenden. Bei 28nm gibts ja keinen und da müssen sie eventuell einen neuen extra für Kabini entwickeln. Und einen zweiten neuen GPU-Frontend extra für Kabini Mini schon garnicht.

Jetzt kann man spekulieren wie viele GCN Cluster auf einen 50-100mm² Chip passen würde wenn die FCH ca 5-10mm² braucht, 4x Jaguar etwa 12mm² + ca 9mm² 2MB L2 (etwas weniger wie der Kern siehe Brazos Kern / Cache Verhältnis). Zusammen also Kerne + L2 Cache + FCH etwa 30mm² in 28nm.
Aber wie Sinnlos es ist, kann ich dir meinetwegen Zeigen.

1 CU macht 5mm².
10 CU machen 50mm²
30mm² + 5mm² = 35mm²
30mm² + 50mm² = 80mm²
Also, sind wir wieder zwischen 50-100mm² so wie ich es schon sagte. Aber da du ja deinem Unwissen ohne Recherche mehr glaubst, hast du für dich sicher eine sinnvolle Spekulation geführt.
Denn das 10 CU völlig unrealistisch ist, weiß man nur, wenn man die 100-fache GPU-Performance dieser 10 CU gegenüber eines Medfield kennt.
Und mit einem CU wird man schwer auf die 100mm² kommen. Vielleicht wegen der integrierten Southbridge, aber eine Southbridge hat nie viel strom bei großer Fläche gebraucht.

Krautmaster schrieb:
aylano, es ging darum dass man mit 3.6W auf Tablets sicher eine super Position hat, aber bis zu den
http://www.chip.de/news/Medfield-Intels-Atom-fuer-Smartphones_53750750.html
In Zukunfts sags doch gleich, welches Problem dich genau beschäftigt, auch wenn du es Technisch vorne und Hinten nichteinmal verstehst.

eines Medfield ist es noch ein gutes Stück, mit der Maske eines Kabini welcher bis auf 25W geht kaum denkbar. Die JaguarKerne mit 3,1mm² bieten dennoch eine gute Grundlage für eine Konkurrenz. Wie du ja selbst festgehalten hast ist das "drumrum" entscheidend.
Wieder völliger Unsinn.
Wäre Ontario ein 2-Core wäre der sogar etwas kleiner als Medfield, aber trotzdem hätte so ein 2-Core x-fach mehr Stromverbrauch als so ein 0,8W-Medfield.
Du begreifst offensichtlich nicht, dass Ontario mit 80 GFlops 15-mal mehr Grafik-Power hat als Intel mit 6,4-Gflops. Vielleicht könnte AMD diese Power ums 10-Fache reduzieren. Aber das senkt eben nicht die Grundlast eines Dies.
Kein Mensch versteht, warum du immer wieder mm² mit 25W vergleichst.

Wo habe ich den geschreiben, dass Kabini Mini Maske (so mini ist die nicht) Medfield unterlegen ist? Die wird sicher xFach schneller sein, aber der Markt ist ein komplett anderer.
Du redest ständig, dass Kabini Medfield unterlegen ist, indem du mit 0,8W vs 3,6 Watt vergleichst.

Einen Medfield 1,6 Ghz Singelcore ATOM mit 0,8W TDP in 32nm kann man nicht gegen einen Quad mit vermutlich 70-100mm² und 3,6W-25W TDP vergleichen,
Unwissenheit^2
Wie willst du 100mm² zusammenbringen, wenn eine CU nur 5mm² groß ist?
Vielleicht mit 10 CUs, aber wozu braucht Kabini dann 2 Fache GPU-Trinity-Performance?
Bzw. was willst dann mit 100-Fache Medfield-GPU-Performance?

Mit einem CU wird Kabini vielleicht sogar eine geringere Die-Fläche haben als Medfield.
Aber das ist ja das Problem. Du siehst in einer kleineren Die-Fläche die Lösungs des Problems. Kein Mensch weiß warum.

Ontario wurde entwickelt, wo Tablet noch kein Thema war. Krishna war es IMO ähnlich und einer der Gründe warum Dirk Mayer gehen musste.
Kabini wirkt so, dass man in Kurzer Zeit noch etwas im Design für Tablets optimiert hat.

Aber das Problem ist, dass der Uncore-Bereich von Ontario & Kabini IMO nie für einen Tablet auf jenen hohem Niveau gedacht war, wie es die Smartphone-Hersteller jetzt machen. Der Tablet-Markt kam per iPad sehr Plötzlich und hat eben einige Hersteller am falschen Fuß erwischt.

Weswegen ich in den Raum stellte, ob AMD nicht noch einen Chip eine Klasse darunter entwickeln wird, kein Smartphone wird die GPU oder den FCH Umfang eines Kabini Chips benötigen, und kein Kabini DIE wird bei <1W agieren.
Unwissenheit^3
Wie viel Strom spart es ein, wenn man 2-Kerne deaktiviert, die man eh schalfen legen kann?
Nur ein Tipp, der x-fach größere Uncore-Bereich ist viel schwieriger Schalfen zu legen.

Das Problem ist eben, dass man die CU nicht Teildeaktivieren kann.
Blödes Problem, wenn die GPU 10-fach zu stark ist, der eben nur 5mm² klein ist.

Was faselst du übrigens von Problem definieren? Es geht um keinerlei Problem an sich! Wie kommst du darauf?

Es ging um reine Spekulation ob ein noch kleinerer Chip auf Basis Jaguar oder einer Abwandlung davon vllt schon zeitnahe angedacht sein könnte, Temash eventuell gerade als 2 Kern eine eigene Maske bekommt, vllt gerade weil mit Kürzungen andererseits eine Medfield Konkurrenz entstehen könnte. Im Interesse AMDs übrigens ^^
Spekulieren tut man immer auf basis von Wissen und nicht Unwissenheit.

Der Vergleich mit Medfield ist lächerlich. Denn das ist schon der 3. echte Smartphone-Chip, der extra für den Smarpthone-Markt entwickelt wurde. Genasuo wie Intels 1. echter Smartphone-Chip (und sogar Tablet-Chip) im Markt völlig versagte, wird auch AMDs erster, wenn sie jetzt einen machen würden.

Einfach die Cores zu reduzieren (wobei das nur für CPU gilt, GPU geht ja nicht) bringt nichts, wenn die interenen Verbindungen im Uncore-Bereich für hohe Leistungen des GPUs & Co ausgelegt sind. Und da dieser Uncore-Bereich der absolut größte ist und am schwierigsten zum Schlafenlegen ist, bzw. im Idle den höchsten Stromverbrauch aufweißt (siehe Kritischer Punkte @ Ontario um 5W), hat es vorne und hinten keinen Sinn über einen Kabini-Mini zu diskutieren.

Grundsätzlich verstehe ich nicht was du hast.
Die TDP wird mit Kabini von 4,5 W-TDP auf 3,6W-TDP gesenkt.
Die Grundlast wird wahrscheinlich noch deutlicher gesenkt werden, weil mit SoC einige Sacher erspart werden kann. Es passiert eh schon verdammt viel.
Das Problem, du nimmst vielleicht an, dass der Sprung Kabini --> Kabini-Mini viel größer ist als Ontario --> Kabini. Aber das ist völlig lächlich. Wo sollte AMD da größere Einsparungen erreichen als bei non-SoC zu SoC und C6 --> CC6, wenn bei Kabini und einen "Kabini-Mini" die selben Energie-Spartechniken verwendet werden.

Schöne Diskussion um nichts. Denn das wichtigste steht eh schon im ersten Beitrag in dieser Richtung drinn.




naja, so wie ich das sehe ist X86 auf Tablets demnächst ja erst der Anfang, Windows 9 etc ... alles wird folgen und wenn AMD Richtung X86 auf Smartphones gehen will wie Intel es auch macht, dann wird man unter 3.6W kommen müssen.

Ich denke die nächsten 5 Jahre werden zunehmen X86 in diesem LowPower Segment Verbreitung finden. Und die Jaguar Kerne haben sicher auch das Potential dazu.

Viel würde gar nicht fehlen um zB auf Medfield aufzuschließen, mit 28nm wäre man auch fertigungstechnisch gut dabei und die Architektur effizienter als die des ATOM.

Nicht, dass es wie bei Netbooks läuft und man Intel 3 Jahre die Führung in einem recht einfach für sich entscheidbaren Markt überlässt.[/QUOTE]
 
aylano schrieb:
Typisch Krautmaster
Nix wissen
Alles Ignorieren
Nix Nachmessen

1) Ich sagte schon, dass der Un"Core"-Bereich mehr ausmacht als die "GCN-ALUs".
2) Spekulieren ist eh schon schwer genug und das kann man nicht mit völlig falschen Zahlen herumreden.
Nix da kleiner.

1 CU macht so 5mm² aus. Bei 10 Stück hätte man 50mm². Somit mach bei Carp Verde der Uncore-Bereich schon mal 60% ausmacht.
Wie ich schon sagte. Der Uncore-Bereich ist bei kleinen Chips der größte Anteil.
Bei einem Low-End-GPU mit einem CU wäre dieser Anteil eventuelle sogar >90%.

Und da wir den Uncore-Bereich nicht kennen, ist es völlig sinnlos darüber zu diskutieren, wenn der absolut die Mehrheit ausmacht im Kabini-Die.

was laberst schon wieder?

Ich sag dass bei Cap Verde die eigentlichen GCN-ALUs ca 50mm² der 123mm² ausmachen, und du sagst dass 60% Uncore ist? :rolleyes:

123mm² * 0,4 = 49mm² -> ich hab also übern Daumen genau mit deinen 60% Uncore spekuliert...
Deshalb der DIE Shot mit eingezeichnetem roten Rechteck.

Wenn ich von 50m² bei Cap Verde für 640 ALUs ausgehe ist das weniger als die Hälfte. Natürlich macht Uncore folglich mehr aus...

Wie sieht denn deine Rechnung zu 1 CU = 5mm² aus, klär mich auf.

Du sprichst selbst von 60% Uncore bei Cap Verde, genau wie ich, und dass sich hier 640 GCN also 40% der 123mm² = ~50mm² teilen.

Wie kommst du auf 1CU = 5mm² in 28nm?

Erkläre mir mal was du hier mit "CU" meinst...

Wieder völliger Unsinn.
Wäre Ontario ein 2-Core wäre der sogar etwas kleiner als Medfield, aber trotzdem hätte so ein 2-Core x-fach mehr Stromverbrauch als so ein 0,8W-Medfield.

hä? Was das wieder für eine schwammige Aussage die vorne und hinten stinkt. Wäre Ontario ein 2 Kern? Die meisten Ontario sind 2 Kerner :freaky:
Und was soll die sinnbefreite Aussage danach? Ich kanns noch so oft lesen kapier aber nicht auf was sich das beziehen soll und was du mit dem Vergleich Dualcore Ontario vs. Medfield erreichen willst?!

Du begreifst offensichtlich nicht, dass Ontario mit 80 GFlops 15-mal mehr Grafik-Power hat als Intel mit 6,4-Gflops. Vielleicht könnte AMD diese Power ums 10-Fache reduzieren. Aber das senkt eben nicht die Grundlast eines Dies.
Kein Mensch versteht, warum du immer wieder mm² mit 25W vergleichst.

o.O du hast hier angefangen Leistungen von Medfield und Ontario zu vergleichen was Schwachfug genug ist. Noch dazu... was soll der Vergleich mm² und 25W? Wann hab ich den Vergleich mm² zu 25W gemacht, Zitat bitte? :freak:

Du kommst vllt mit einem wirren Zeugs daher, das ja ohne Worte. Falls dus immer noch nicht begriffen hast, es geht nicht um den Vergleich Medfield / Temash / Kabini, auch nicht um Medfield vs. Ontario :p - schon gar nicht um pro kontra beider Produkte. Du versuchst hier irgendwie ein "gut/schlecht" aufzustellen, bzw unterstellst mir ich würde vermutlich ein AMD Produkt schlechter reden als es ist, dabei bist du derjenige der den ganzen Scheiß in den Raum wirft, Leistungen hier, Leistungen da... auf Basis dessen dass weder bei Temash noch bei sonst einer neuen APU auf Jaguar Basis überhaupt bekannt ist wie groß die DIE final wird und wie z.B. die FCH aussieht.

Ich habe nicht gemacht außer in den Raum gestellt ob AMD auf Basis Jaguar noch einen SOC zusammenstellt, die eben weniger "Grundlast/Uncore " als die 3.6W bis 25W Ableger bieten. Um eine Spekulation, dass sich Jaguar ja auch für einen SOC eignen würde, der im Smartphone Umfeld Medfield angreift.

Dabei ging es um keinerlei Performancedaten :rolleyes: und noch weniger um ein gut / schlecht.

Ich meine du gehst hier so weit mit irgendwelchen GFlop Daten rum zu werfen oder Parallelen von der GPU Leistung Kabinis zu Trinity zu treffen (lol) - was versprichst du dir davon? Natürlich wird Kabini keine 2x Trinity Performance bieten :freak:, mal abgesehen davon, dass es darum in keinster Weise ging war die einzige Spekulation meiner Seits dass die die Kabini / Temash DIE (vllt dieselbe, vllt nicht) eventuell 96-128GCN Shader bekommen könnte.

Vielleicht drück ich mich aber auch einfach so undeutlich aus... alles was anstellte war reine Spekulation. Geht auch gar nicht anders, außer GCN, den Jaguar Kernen (2-4), den Prozess (28nm) und den TDP Range (3,6W - 25W) als auch der FCH Integration sind ja keine weitere Fakten bekannt. Man kann also nur annehmen dass die DIE zwischen 50mm² und 100mm² für Kabini liegen wird (für die habe ich dann die eventuelle Anzahl der GCN ALUs spekuliert), ob Temash ne eigene DIE bekommt ist auch rein spekulativ, ich denke es wird eine DIE sein.

Meine Spekulation ging weiter indem ich lediglich in den Raum stellte, ob AMD eventuell einen SOC gegen Medfield in Planung hat, ausgehend davon, dass die Jaguar Kerne eigentlich perfekt dafür wären.

Allen anderen Quark den du hier irgendwie dazu gibst dient nur dazu irgendwas zu verdrehen oder irgendwas anlasten zu wollen, eventuell irgendwie einen Vergleich gut / schlecht / blödes AMD / gutes AMD anzuzetteln was fern jeder vernünftigen Argumentation ist. :mad:


Edit:

Viel würde gar nicht fehlen um zB auf Medfield aufzuschließen, mit 28nm wäre man auch fertigungstechnisch gut dabei und die Architektur effizienter als die des ATOM.

vllt. haste diese Aussage von mir in falschen Hals bekommen, das "aufschließen" war nicht auf Leistung bezogen, sondern dass man mit eigener DIE, Jaguar Kern, abgespecktem Uncore / FCH, den neuen C States eben diese Low Power SOC bis 1W eventuell in Planung schicken könnte oder eventuell auch AMD dahingehend entwickelt. Bezogen auf niedrige TDP also aufschließen. Du sagst vollkommen richtig, dass hier die Idle Aufnahme bis auf wenige mW gesenkt werden muss, hier der Uncore Bereich entscheidend ist und natürlich macht dieser dann bei so einem Chip gern 75% Anteil aus.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Meine Spekulation ging weiter indem ich lediglich in den Raum stellte, ob AMD eventuell einen SOC gegen Medfield in Planung hat, ausgehend davon, dass die Jaguar Kerne eigentlich perfekt dafür wären.

Allen anderen Quark den du hier irgendwie dazu gibst dient nur dazu irgendwas zu verdrehen oder irgendwas anlasten zu wollen, eventuell irgendwie einen Vergleich gut / schlecht / blödes AMD / gutes AMD anzuzetteln was fern jeder vernünftigen Argumentation ist. :mad:
Nö, es geht wie immer darum, du deine Spekulation auf Unwissenheit führst, aber du glaubst alles zu Wissen bzw. deine Aussagen irgendeinen Sinn ergeben. Der Grund warum Medfield u.a. soo viel effizienter ist als der Vorgänger & AMD, ist weil er mit PowerVR SGX 540 und anderen Techniken jetzt viel effizienter sein kann.
Für dich mag es Unfug sein die Performance zu vergleichen, aber für Intel selber war es nicht Unfug und sie setzten eine deutlichst langsamere & effizientere Smartphone- & Tablet-Übliche GPU ein.

Man könnte genauso die Frage in den Raum stellen, und mit so einer Spekulation in vielen Threads herumlabern, ob AMD nächstes Jahr mit Steamroller 8-10 Ghz erreicht. Das ist sicher eine Realistische Frage, wenn man von CPU & Fertigungs-Technik nichts versteht.
Da es viele bisher-Technik-Uninteressierte Leute gibt, erlaubt es die Meinungsfreiheit diese Sinnlosen Diskussionen zu führen, wenn so einer das Bedürfnis hat, so eine Meinung/Gedankengang in den Raum zu stellen.

Da AMD die Jaguar-Kerne abschalten kann und die eh praktisch nichts verbrauchen, hat es überhaupt keinen Sinn eine Maske mit 2 Kernen zu machen.

Technisch müsstest du mal erklären können, wie AMD mit ihren 10mal schnelleren GPU-Einheit Stromsparend bekommt, die übrigends die meisten Fläche im Die ausmacht.
Einfach in deiner üblichen Manier dieses Problem zu ignorieren, mag für dich die Möglichkeit bieten weiter zu spekulieren, aber wenn man es nicht in Ansatz erklären kann, dann hat eine Spekulation vorne und hinten keinen Sinn. Einfach an den Weihnachtsmann glauben, der das Wunder nächstes Jahr bringt, hat einfach keinen Sinn.

Ich betone es nocheinmal. Die-Größe (ob 50 oder 100mm²) und Core-TDP hat quasi Null Bedeutung !!!!!!!
Selbst der Atom-Kern (9,7mm² @ 45nm) ist fast doppelt so groß, wie der Bobcat Kern (4,6 mm² @ 40nm) und trotzdem schafft der Atom-Kern @ 32nm angebliche stolze 0,8 W.
Und was sagt eine Die-Größe aus?
Was soll jetzt ein Kabini-Mini mit 20% geringere Die-Größe, wenn die CPU-Kerne der Konkurrenz 100% größer sind?
Achja, die ARM-Kerne sich ja noch deutlich kleiner als die von Bobcat/Jaguar.

Das Problem, der Transistor (@ mm² und W) ist nicht gleich Transistor.

Das Know-How der Smartphone-Technik steckt eben in der Uncore-Technik (non-CPU & CU).
Und dabei ist auch die Video-Technik gemeint.
Intel relies on two more IP blocks from Imagination Technologies: the VDX385 and VDE285 for 1080p video decode and encode.

Intel hat eben viele Techniken Lizensiert, weil sie mit ihrer bisherigen Viedo-&-Uncore-Technik (Bis auf Atom-Kern und vielleicht den Connections & Co) in der 1. & 2. Smartphone-Atom-Generation versagt hatten.

Wenn man eben weiß, welche Technischen Fortschritte/Änderungen gemacht werden muss bzw. Intel in den letzten 4 Jahren gemacht hat, um relevante Verbesserungen zu erreichen, weiß man, wie lächerlich deine Argumente sind, wenn AMD eine angeblichen Smartphone-Die mit bestehender Uncore-& Stromspar-Technik von Kabini macht.

PS1:
Falls AMD einen Smartphone-SoC machen sollte, dann nur weil sie so einen entwickeln.
Der hätte aber mit Kabini nicht viel gemeinsam außer dem Jaguar-Kernen & GCN-GPU, weil die ganze Uncore-Technik extra für die Tablet-&-Smartphone-Markt überarbeitet werden muss.

Sowas ist sicher in den Bereich der Möglichkeit, aber man kann es nicht von Kabini ableitet.
Diese Möglichkeit wäre genauso realistisch, als ob AMD nächstes Jahr eine Jaguar-Mega-Die rausbringt, der mit 50-Kerne @ 225W-TDP sich gegen Xeon-Phi positioniert.
So einen 50-Kern-Jaguar kann man genauso nicht von Kabini ableitet, weshalb so eine Diskussion über viele Seiten völlig sinnlos wäre.

PS2:
4,5W-TDP @ APU ist nicht gleich ein Verbrauch von 4,5 W oder mehr
http://www.eteknix.com/wp-content/uploads/2012/08/AMD_hondo.jpg

Alleine Hondo (4,5W-APU und ?W-FCH) braucht nur mehr 2 Watt im Durchschnitt.
Wenn wenn wenn Kabini es auf 1 Watt schafft, dann wäre das schon eine Spitzen-Leistung, weil sie es schon als High-End-Tablet verkaufen können, wo Akku-Idle-Zeiten vielleicht nicht ganz so wichtig sind.
 
@aylano

es ging ja nicht darum auf 2 der 4 Kerne zu verzichten sondern generell um ein nach sparsameres Modell als ATOM Konkurrenz bis ~1W. Natürlich mit Abspeckungen in jeder Hinsicht, du sagst ja wie ich, dass die Kerne allein den Brei nicht fett machen, Uncore, GPU etc ist weit größer im Anteil.
Minimum 3,6W TDP ist eben noch ein Stück davon entfernt zB im Smartphone Umfeld interessant zu werden, AMD fokussiert offensichtlich auf den Tabletmarkt mit den kleinen Temash / Kabini während Intel darüber hinaus seinen ATOM zusammen mit PowerVR für den Smartphone Markt anpasst / optimiert.

Falls AMD einen Smartphone-SoC machen sollte, dann nur weil sie so einen entwickeln.
Der hätte aber mit Kabini nicht viel gemeinsam außer dem Jaguar-Kernen & GCN-GPU, weil die ganze Uncore-Technik extra für die Tablet-&-Smartphone-Markt überarbeitet werden muss.

;) genau das stelle ich ja in den Raum. Ich würde mir nicht anmaßen zu behaupten, dass AMD an so etwas arbeitet, ich halte es nur prinzipiell für denkbar, dass AMD auch in diese Richtung gehen könnte, eventuell noch ne Generation weiter hinten. Man wird ja erstmal sehen wie sich X86 überhaupt auf dem SmartphoneMarkt machen wird. Schwer die bestehenden Strukturen da aufzuweichen. Intel Medfield macht sich ja gar nicht so übel (den wenigen Reviews nach) und Konkurrenz belegt das Geschäft.

Ich halte den Markt für sehr interessant da diese Smartphones sicher weiter verbreitet sind und bleiben als Tablets. Zudem meist an 24 Monatsverträge gekoppelt, die Halbwertszeit ist also recht kurz.

Ich würde AMD gerne mit einem weiteren SOC aufschlagen sehen, der eben diesen Markt angreift. Ob man die Technik und die Lizenzen dafür hat sei jetzt mal außen vor. Die @ Topic vorgestellten Jaguar Kerne sehen ja nicht übel aus für sowas, dass hier jeglicher Uncore-Bereich wenig mit Temash und Kabini zu tun haben wird, die GPU deutlich kleiner ausfallen würde ist logisch.

Naja, man wird sehen wies weiter geht.
 
Krautmaster schrieb:
@aylano

es ging ja nicht darum auf 2 der 4 Kerne zu verzichten sondern generell um ein nach sparsameres Modell als ATOM Konkurrenz bis ~1W. Natürlich mit Abspeckungen in jeder Hinsicht, du sagst ja wie ich, dass die Kerne allein den Brei nicht fett machen, Uncore, GPU etc ist weit größer im Anteil.
Du begreift ja immer noch nicht, dass wenn es nur um den Uncore-Bereich geht, dass AMD es nicht nötig hat einen extra Die zu machen, wenn die selben Stromspartechniken eines "Smartphone-Chips" genauso in den Tablet-Chips verwendet werden können.

Dass AMD irgendwann mit den Chips vom Tablet-Markt in den Smartphone-Markt rutschen wird, sollte doch jedem lange klar sein. So eine Diskussion wäre genauso unnötig zu diskutieren, ob AMD jemals 14nm nutzen wird, nur weil sie es noch in keiner Roadmap angekündigt haben.



;) genau das stelle ich ja in den Raum. Ich würde mir nicht anmaßen zu behaupten, dass AMD an so etwas arbeitet, ich halte es nur prinzipiell für denkbar, dass AMD auch in diese Richtung gehen könnte, eventuell noch ne Generation weiter hinten.
Dass du nicht den Technischen Unterschied von Tablet und Smartphone-Chip kennst, ist schon bermerkenswert, aber typisch für dich.
Und zwar, dass es keinen gibt.
Was dich verwirrt ist, dass AMD nur sagte keine Smarpthone-Chips bauen zu wollen. Aber sie sagten nicht, dass dies für immer gilt.

Man wird ja erstmal sehen wie sich X86 überhaupt auf dem SmartphoneMarkt machen wird. Schwer die bestehenden Strukturen da aufzuweichen. Intel Medfield macht sich ja gar nicht so übel (den wenigen Reviews nach) und Konkurrenz belegt das Geschäft.
Intel ist ein Beispiel das zeigt, wie lange es selbst für einen Riesen dauert, bis man auf die ARM-Konkurrenz reagieren kann. Und das dauert einige Jahre. Genauso wird es bei AMD einige Jahre dauern, bis die ganzen Techniken da sind, die für die Smartphone-Markt nötig sind. Bis dahin wird höchstwahrscheinlich schon 20nm vorhanden sein, sodass AMD schon in den Smartphone-Markt einsteigen kann.

Ich würde AMD gerne mit einem weiteren SOC aufschlagen sehen, der eben diesen Markt angreift. Ob man die Technik und die Lizenzen dafür hat sei jetzt mal außen vor. Die @ Topic vorgestellten Jaguar Kerne sehen ja nicht übel aus für sowas, dass hier jeglicher Uncore-Bereich wenig mit Temash und Kabini zu tun haben wird, die GPU deutlich kleiner ausfallen würde ist logisch.
In einem Fachforum ist es üblich, über das Technische zu diskutieren, und nicht was man von Weihnachtsmann gerne sehen würde.
AMD wird es wohl besser wissen, wie hoch ihre Chancen im Smartphone-Markt sind.
Aber das ist ja das Problem, wenn du ohne Technischen Einblick (Siehe Uncore) Sachen oft besser siehst als andere (z.B. AMD), die genau wissen was los ist.
 

Ähnliche Themen

Zurück
Oben