News AMDs „Jaguar“: Scharfe Krallen und Zähne auf 3,1 mm²

[F]L4SH schrieb:
Oracle erweist sich als wahres... Nun Orakel.

Noch gewagter die Aussage mit den Dualcores... Dabei habe ich doch erst gestern hier eine Folie gesehen, die von zwei Kernen gesprochen hat. Und das durch alle Klassen hinweg - CPU mit GT1, GT2 und die Ultrabook Sparte mit GT3 GPU - überall wird es Dualcores geben.

Nein, gleiche Quelle wie oben: Intel lässt Desktop Dualcores sterben. Ihr scheint das, was ich schreibe nicht ernst zu nemen, aber ich bin hier scheinbar fast der einzige, der recherchiert, bevor er schreibt, was man von den Intelfanboys wahrlich nicht sagen kann. Ich bitte euch: Gehirn einschalten.

[F]L4SH schrieb:
Und auf den Excavator wirst du wohl noch eine Weile warten müssen. Und es soll ja Leute geben, die schon jetzt oder in einem Jahr eine neue CPU brauchen :rolleyes:

Das stimmt, trotzdem wird das (zumindest für mich) die erste interssante Architektur seit langem.
Ergänzung ()

y33H@ schrieb:
Die Aussage, "es wird wohl keine Dual Haswells geben" ist dennoch falsch. Die DCs kommen im Desktop später, aber ULT von Anfang an ... du solltest deine Aussagen vll mal präziser treffen - so wie es Nico bei Golem tut.

Zitat Tomshardware:
"Dualcore-CPUs würden dann ab der kommenden Generation ausschließlich in Notebooks verbaut werden, bei denen der Strombedarf von größerer Bedeutung ist als im Desktop-Bereich."

Da von Servern gesprochen wurde, ging ich nicht vom ULV aus. Falls ich irgendetwas falsch verstanden habe, hier noch mal ganz deutlich: Es wird gar keine Dual Haswells Desktops geben. BASTA. Sie kommen nicht, wie zuerst angenommen später, sondern wurden ganz gestrichen.
 
Zuletzt bearbeitet:
@Oracle

lol, selten son Quark gelesen, klar Intel lässt Dualcores sterben ^^ um dann die Kurve zu bekommen, dass es nur um Desktop geht ;)

Sinn?

Deswegen gibts heute auch noch SingleCore Celerons auf SB Basis und vermutlich auch auf IB Basis. Dualcores gabs von Anfang an bei Notebooks und diese kommen 1:1 für Desktop.

Ich bin mir fast sicher, dass es zumindest Haswell Pentium und Celeron Dualcores auch für Desktop geben wird.

Haswell ist nach wie vor 22nm mein Lieber, und auch da macht es kostentechnisch einen Unterschied ob man eine kleine DIE verkaufen kann.
Wenn es DualCores im Notebook gibt ist die DIE ohnehin vorhanden und wird sicher nicht einfach mal bei Desktop außen vor gelassen.

Edit:

Excavator ... is noch nen weit weit weiter Weg dahin. Aber ja. Bis dahin bin ich dann hoffentlich verheiratet und hab Kids, muss mich dann nicht mehr um diesen Krams hier kümmern :D
 
Zuletzt bearbeitet:
dir ist klar, dass die Quelle Fudzilla ist?

This can change if necessary but we believe that Intel is drifting from dual-cores to quad-cores in this market segment, leaving duals to the more TDP sensitive notebook market.

believe ist englisch und heißt "glauben"

Passend dazu dein Komment:

Es wird gar keine Dual Haswells Desktops geben. BASTA.

:lol:

Edit:
Genug OT. Danke.
 
Zuletzt bearbeitet:
Oracle schrieb:
Nein, gleiche Quelle wie oben: Intel lässt Desktop Dualcores sterben. Sie kommen nicht, wie zuerst angenommen später, sondern wurden ganz gestrichen.
Oracle schrieb:
Die Quelle (die übrigens sehr aktuell ist) sagt etwas anderes aus.
Die Quelle ist nicht THW, sondern der gute Fuad. Und der schreibt erstens viel wenn der Tag lang ist und in diesem Fall zudem wie so oft sehr vage:

Fuad schrieb:
"it looks like Haswell is coming to the desktop space only as a quad core processor"

"we believe that Intel is drifting from dual-cores to quad-cores in this market segment"

Es sieht so aus oder der Autor glaubt etwas? Nicht unbedingt ein Fakt :rolleyes: Zudem keine i3, keine Pentium, keine Celeron mehr? Unwahrscheinlich, sehr sogar.

EDIT
Schön, Krautmaster kann auch english ... Oracle offenbar nur orakeln ;-)
 
Irgendwoher habe ich den Verdacht, dass ich recht habe (wie schon beim Samsung Urteil, bei Bulldozer, bei Phenom I, bei Fermi, nur nicht bei der HD7).
 
Die Quellen spechen aber nur eine Sprache, nämlich dass es keine Dualcores geben wird. Nenne mir eine aktuellere Quelle, dass es welche geben wird und ich bin selber zufriedener.
 
Die Quelle (eine! nicht Plural) glaubt etwas und dann ist's auch noch Fuad. Wie gesagt - alle i3, Pentium und Celeron sind DCs (oder SCs auf Basis deaktivierter DCs), da wird Intel wohl kaum während der gesamten Haswell-Ära im Desktop-Segment diese nur auf Ivy-Basis in den Handel schicken.

Ich will die Möglichkeit nicht ausschließen, glaube es aber, Fuad liegt daneben. Den üblicherweise sehr gut informierten Jungs von CPU-World nach, kommt Haswell als Dualcore für den LGA 1150 *klick mich* denen glaube ich mehr als Fuad.
 
https://www.computerbase.de/2012-08/kommt-intels-haswell-cpu-in-sieben-verschiedenen-varianten/
Ergänzung ()

zudem:

Intel-M-Series-Ivy-Bridge-Haswell.jpg


7s.jpg


6s.jpg


8s1.jpg


=> Folie 2 stellt 2C / 4C für Desktop klar dar.

http://wccftech.com/intel-haswell-d...-launching-q2-2013-core-gpu-details-revealed/

kam das eig schon bei CB?

Edit: Die erste Folie bezieht sich auf Mobile, aber man kann annehmen dass bei der Quelle auch folgender Satz stimmt:

Desktop parts would come in Quad Core and Dual Core packages with TDP’s ranging from 95W to 65W.

Edit2:

Damit dürften so ziemlich alle Infos zu Haswell offen liegen. Auch ES sind im Umlauf.
Ergänzung ()

Da geht noch mehr :

cpus.png


All chips are 4-Core with HT. Ivy Bride die size is 162 mm*2, Haswell die size is +/- 185 mm*2.

als auch ein Screenshot eines 2 Kern Desktop (Desktop da offensichtlich ein 4:3 TFT xD)

Von April übrigens ;)

3-1080.593665143.jpg


https://www.computerbase.de/2012-04/haswell-neue-informationen-und-lauffaehige-cpus-gesichtet/


Spätestens die brandaktuellen Folien sprechen für den LGA Desktop Sockel von 2Kernen, wie spekuliert von 65W und 95W für die Quads. Ich geh jede Wette ein dass es diese geben wird. Fudzilla hat da einfach keine Hausaufgaben gemacht. (wie so oft)
 
Zuletzt bearbeitet:
Es wird keinen Hashwell Dualcore geben! Punkt!

Wen interessieren schon Intel Folien, CPU-World News und sogar Folien von CB, wenn man Fudzilla hat?! :lol:

Ontopic:

Danke Krautmaster einige von den Folien kannte ich noch gar nicht :)
 
naja =) gut jetzt, BTT. Hier is Jaguar Thema, nich Haswell oder Excavator.

In meinen Augen sieht Jaguar vor allem als Quad sehr vielversprechend aus. AES ist sehr löblich. Hoffentlich kommt er mit ordentlichem Turbo der dann 4 Kerne Separat takten kann, zumindest aber bei kaum GPU Last die Kerne gut beschleunigt die ja nur einen kleinen Teil & der DIE & des Verbrauchs ausmachen sollten.

Die GPU is noch die große Unbekannte.

Edit:

@ Fudzilla & deren News:
http://www.fudzilla.com/home/item/28524-top-haswell-chipset-is-z87
:lol: wär häts gedacht, dass auf Z77 Z87 kommt, Hammer :D
 
Zuletzt bearbeitet:
@Krautmaster: Bei der GPU gehe ich von ähnlichen Steigerungen aus wie Llano->Trinity->Kaveri und da liegen die Zuwächse vorraussichtlich jeweils bei ~25%. Demnach wär die Leistung auf dem Niveau der A4 Llano. Evtl. sogar auf dem A6 Llano Niveau.
 
Krautmaster schrieb:
Gilt das auch für die Steamroller APUs oder deute ich das Bild insofern richtig, dass diese Punkte rechts zu den Klammern gehören? o_O

^^

Ich interpretiere dies auch so und hätte auch noch nie davon gehört, dass auch in Kaveri eine SB integriert wird. Allerdings verstehe ich es nicht ganz, warum man das nicht macht. Eine kleine Basis-SB die jetzt zwei SATA, zwei oder drei USB3.0 und sonstige Standardschnittstellen bereit stellt, mit der eine große Anzahl von Notebooks auskommen würde (weil sowieso nicht mehr verbaut wird), dürfte vermutlich nur ein paar Quadratmillimeter aufweisen und das Mainboarddesign weiter verschlanken.
Aber wird schon seine Gründe haben...

LG
 
Lordxraven:

Verstehe ich das so, dass du es so verstehst, dass Krautmaster es so versteht, dass Kaveri also doch kein vollständiger SoC wird und eine SB extra dazu kommt?
Dachte bisher immer es wir alles unter einer Haube geben. Gab es nicht Folien die irgendwas in Richtung SoC behaupteten? Aber immerhin ein Fortschritt - die antiquierte Northbridge, die immerhin ein wenig Stromverbrauch bringt ist jetzt auf den Chip gewandert und wird auch in 28nm gefertigt. Deshalb auch 20 statt 18W TDP - trotzdem weniger Verbrauch am Ende.
Southbridges sind ja generell zu vernachlässigen.

Mich wundert nur eines - für Bobcat hat AMD gefühlte 10 Jahre zwischen erster Ankündigung und Release gebraucht. Nun gerade mal zwei Jahre später kommt eine deutliche Weiterentwickling.

Die GPU is noch die große Unbekannte.

Sagte es ja bereits - der Speichercontroller wird die große Unbekannte. Man könnte 1:1 die aktuelle GPU verbauen und hätte 20% Mehrleistung. Dazu erwarte ich von der GCN GPU eine deutliche Steigerung, da sie sicherlich einfach besser mit der CPU zusammenarbeiten wird und generell von der Architektur besser ins das APU Konzept passt.

Was ich mir nur wünschen würde, wären 512MB GDDR5 VRAM on package mit einer eigenen Speicheranbindung. Was dann über 512MB hinausgeht (wird ja bei diesem Ding nicht so oft vorkommen) kann ja dann immernoch in den RAM geschrieben werden. DAS würde Leistung bringen.
 
Krautmaster schrieb:
@aylano

Mir ist schon klar dass Tablets gut GPU Power brauchen. Hier reicht die Leistung eines Jaguar Cores auch absolut aus. Die Frage ist ob "so viel" GPU Leistung nötig ist. Ich weiß nicht ob AMD hier nur eine Maske nutzen wird (4 x Jaguar + GPU) oder ob es auch diverse Masken mit unterschiedlichen GPU Ausprägungen geben wird.

Imho muss man hier zwischen Kabini und Temash unterscheiden. Hier dürfte dann eventuell eine eigene Maske zum Einsatz kommen, mit eventuell weniger GPU Anteil als bei den Kabini Netbook Ablegern die bei TDP 9 W anfangen.

Die GPU die mit Jaguar kombiniert wird ist ja noch die große Unbekannte.
Nicht nur, dass su offensichtlich nicht verstanden hast, was ich schrieb.
Du tust ja so, als ob es keine Teildeaktivierungen gäbe.
Das Märchen kam ja auch bei Llano, wo viele "dachten", dass ein Dual-Core-Llano mit weniger SIMD und Kernen soooo viel Fläche einspart.

lol was heißt hier nicht wissen, ich hab 2 Posts vor dir genau das gepostet, mit Bild ;)

Die Frage ist eben ob die ganze DIE von der Größe ähnlich bleibt (bei 70-80mm²) und somit der Anteil der GPU/Rest im Verhältnis zur CPU weiter zunimmt, oder ob das Verhältnis in etwa gleich bleibt.
Wennst meinen Text verständen hättest, dann hättest du erkannt, dass in deinem geposteten Bildchen keinen SIMD eingezeichnet sind. Ich finde es immer witzig, wenn du anderen etwas erklärst, was aber für dich komplettes Neuland ist.

Und deine Fragen sind komplett sinnlos, da wir neben der neuen GPU-Architektur, von der wir das Front-End noch schwerer einschätzen können, da es keinen Low-End-GCN-GPU gibt, eben auch Verbesserungen in Richtung HSA gibt.

Ob der Non-SIMD und Jaguar-Anteil steigt, ist völlig irrelevant, wenn die SoC von AMD die selben Größen hat wie die Tablet-SoC-Konkurrenten.
Nicht vergessen, dass ist eine SoC, wo dann Kabini keine 40-80mm² Southbridge @ 55nm benötigt. Und dann kommt noch die Trust-Unit hinzu. usw

Es ist irrelevant wie groß der Chip ist. Das Problem, warum AMD bisher nicht in den Smartphone-Markt einsteigen konnte, waren die Technischen Voraussetzungen und der Stromverbrauch. Man kann annehnmen, dass Kabini ohne integrierten LTE nicht die Plattform-Elite der kommenden Tablets darstellen wird. Daher wäre es ein Risen Erfolg, wenn AMD da "nur" den Einstieg mit paar guten Desgin-Wins schafft.

PS: Mometan ist der Tablet & Smartphone-Markt noch ein Extrem-Wachsender Markt. Da gibt es momentan aufgrudn der stark Wachsenden absoluten Stückzahlen noch keine Preiskämpfe, sodass die Größe des Dies jetzt völlig egal ist. In dieser Wachstums-Phase ist die Technik (Technik-Features, absolute CPU & GPU-Performance, CPU & GPU-Performance-pro-Watt)

Hier ist auch die Frage ob man für Temash für die ganz kleinen Chips ne eigene Maske mit weniger GPU Anteil fährt, die dann in Summe vllt auf 50 mm² oder darunter kommt. Imho wird die GPU auch einen großen Batzen des Verbrauchs / der TDP geschuldet sein.

Da mir die GPU Leistung eines Bobcat schon mehr als ausreicht, wären mir 4 Jaguar Kerne mit möglichst kleiner iGPU am liebsten. Wenig GPU Ballast also ;)

Aber ja, ich denke AMD ist auch einem sehr guten Weg im bereich dieser Kleinst APU.
Wenn du begreifst, dass SIMD und CU (bzw. der Kern) den geringsten Anteil an der Die-Größe/GPU-Anteil im Low-End-Bereich haben und wie wenig ein 50mm² oder gar 100mm²-Chip in der Herstellung kostet und weißt, wie teuer jetzt ihrer Konkurrenz ihre SoCs verkauft, erkennst du wie unnötigt es ist eine zweite Maske zu machen.
Vorallem, wenn man in einen Neuen etablierten Markt betritt, wo eben nicht aller Tablet-OEMs zu AMD laufen und 100 Mio. Stück pro Jahr von AMD verlangen.

Es hat viel mehr Sinn auf den Kabini-Nachfolger zu konzentrieren, der dann für Tablet weiter optimiert wird (und vielleicht erstmals für den Smartphone-Markt vorbereitet wird, wo eventuell dann ein Einstieg möglich ist)
 
[F]L4SH
512MB GDDR5 VRAM on package
Theoretisch würden auch wie bei inte, 64 oder 128 MB reichen.
Ich hab gelesen dass selbst der Llano A8 nicht einmal eine 256 MB DDR3 Speicherresevierung voll ausnützt.
Naja werd das sicherheitshalber noch mal durchlesen, aber auf einer Seite wird das sogar empfohlen, da es kaum oder gar keine Vorteile bringt.
 
Oracle schrieb:
Nein, gleiche Quelle wie oben: Intel lässt Desktop Dualcores sterben. Ihr scheint das, was ich schreibe nicht ernst zu nemen, aber ich bin hier scheinbar fast der einzige, der recherchiert, bevor er schreibt, was man von den Intelfanboys wahrlich nicht sagen kann. Ich bitte euch: Gehirn einschalten.
Tja im Gegensatz zu dir können andere sehr wohl recherchieren und schauen sich die Ursprungsquelle an. Da steht klipp und klar das es ne Vermutung ist.
Und wenn man jetzt noch das Hirn anschaltet und auf das Datum schaut, dann weis man auch auf welcher Basis Fudzilla diese Vermutung bringt. Nur wurde bei denen mal wieder nicht zu Ende gedacht. Klar zeigen die geleakten Roadmaps nur Quad-haswells auf der Roadmap, denn die Roadmap geht auch nur bis Q2 2013. Wenn die Ivy-Dualcores im Desktop erst Q4 2012 kommen, gibts Q2 2013 garantiert nicht schon den Nachfolger.

@pipip, [F]L4SH
512MB eDRAM ist viel zu teuer für so einen Lowcostchip. Sowas wäre interessanter für Kaveri.
Ich bin zumindest gespannt wie das in Zukunft gelöst wird. Das Speichermanagement ist das wichtigste, wer da die beste Lösung findet ist klar im Vorteil. Da bringt die beste Architektur nichts wenn die GPU verhungert.
 
Zuletzt bearbeitet:
@aylano

lol mach kein Fass auf, ich habe schon bewusst "eventuell" geschrieben. Natürlich kann AMD über Teildeaktivierung kleine Modelle ausprägen, oder eben über eigen DualCore Jaguar Masken.

Du hast schon recht, vermutlich wird teildeaktiviert, aber das wird man ja sehen ;)

Das Märchen kam ja auch bei Llano, wo viele "dachten", dass ein Dual-Core-Llano mit weniger SIMD und Kernen soooo viel Fläche einspart.

Was für ein Märchen gabs da? Ich komme nicht mit >.<

Im Übrigen schreibst du doch nichts anders als ich, dass der CPU Part nen sehr kleinen Anteil der DIE hat, als auch dass die FCH von den heute 35mm² in übrigens 65nm (nicht 40-80mm² und 55nm) direkt mit auf die DIE wandert, dort vermutlich ~ 10mm² brauchen dürfte.

Mir ging es nicht darum ob AMD für nen 2 Kern Jaguar ne eigene Maske hat, sondern eventuell noch einen kleineren Chip als die Kabini / Temash APU bieten wird. Medfield Konkurrenz.

Der spannende Part ist weniger der Jaguar Kern an sich, eher die GPU drum rum. Wie du schon sagst sind hier 50mm - 100mm² drin, die vermutlich teil deaktiviert dann Temash werden. Den Smartphone Markt erschließt man damit aber nicht. AMD fokussiert aber auch auf Tablets was auch okay ist im Sinne von Windows 8 etc wo kleine, sparsamer x86 Chips gebraucht werden.

Edit:

Meine Annahme, dass für Temash und Kabini zwei Masken zum Einsatz kommen könnten, basierte auf dem TDP Range von 3.6W - 25W TDP. Meiner Meinung nach fast zuviel um rein über Teildeaktivierung und Takt zu agieren.
 
Zuletzt bearbeitet:
Wie sollen die das denn sonst machen, wenn nicht durch deaktivierung/lasercut und Takt? Die müssten dann ja eine komplett neuen Chip nehmen und so hoch, dass sich das auch nur ansatzweise rentieren könnte, sind die gewünschten Stückzahlen an x86Tablets sicher nicht. Man könnte vielleicht noch alle möglichen Erweiterungen raus werfen...
 

Ähnliche Themen

Zurück
Oben