Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsTSMC und ARM: 10-nm-SoCs mit Tape-out Ende 2015
TSMC und ARM haben heute eine ambitionierte Roadmap für die kommenden Jahre vorgelegt. Aufgrund der bisherigen Erfahrungen sowie der Zusammenarbeit wird auch in Zukunft TSMC einer der wichtigsten Auftragsfertiger für ARM-Produkte bleiben, was man mit 10-nm-Chips und einem Tape-out-Termin Ende 2015 beweisen will.
a) ARM-CPUs sind normale CPUs
b) wer sagt denn das man mit anderen CPUs nicht ebenso schnell wie mit ARM-CPUs auf 10nm gehen kann?
c) ARM ist vermutlich besonders motiviert die hohen Aufwände (mit) zu bezahlen, da deren Funktionsblöcke ja an Lizenznehmer weiter verkauft werden. Multiplikator also. AMD versucht ebenfalls in diesem Bereich Fuß zu fassen, aber die roten haben sich mit ihrem Konzept, Doppelnutzung der GPU/CPU als Elektroheizung, bisher noch nicht am Markt durchsetzen können und leiden dem Vernehmen nach unter Geldmangel.
Ich würde den Zeitpunkt des Wechsels eher auf den Größenunterschied und Komplexität legen, eine ARM-CPU ist da halt wesentlich einfacher. Das ist genaus, dass für die ersten Testchips immer simple SRAM Zellen Verwendung finden.
Intel hat es "3-D Tri-Gate" genannt... und das ist eben etwas anderes als das, was ursprünglich mit FinFET bezeichnet wurde. Mittlerweile wird der Begriff aber allgemeiner verwendet, so dass "3-D Transistor" ein Synonym ist und "Tri-Gate" ein Spezialfall. Und eigentlich ist das doch alles belanglos.
c) ARM ist vermutlich besonders motiviert die hohen Aufwände (mit) zu bezahlen, da deren Funktionsblöcke ja an Lizenznehmer weiter verkauft werden. Multiplikator also. AMD versucht ebenfalls in diesem Bereich Fuß zu fassen, aber die roten haben sich mit ihrem Konzept, Doppelnutzung der GPU/CPU als Elektroheizung, bisher noch nicht am Markt durchsetzen können und leiden dem Vernehmen nach unter Geldmangel.
Sorry, aber was schreibst du für ein Müll?
Die APU's von AMD sind klasse. Da gibt es von Intel nix, um Welten, besseres. Bei den CPU's sieht die Welt anders aus.
Ich bin gespannt was noch so kommt. Auch der AMD Prozz mit ARM zusammen klingt interessant.
Hoffe das spart ordentlich Energie. So groß meine Begeisterung für schnelle Hardware wie SGS5 auch ist, die Ladezeiten für die riesigen Akkus, speziell über USB am Computer, finde ich nicht schön.
Sorry, aber was schreibst du für ein Müll?
Die APU's von AMD sind klasse. Da gibt es von Intel nix, um Welten, besseres. Bei den CPU's sieht die Welt anders aus.
Ich bin gespannt was noch so kommt. Auch der AMD Prozz mit ARM zusammen klingt interessant.
Er hat doch ledigklich geschrieben, dass es sich bisher am Markt nicht durchgesetzt hat. Das stimmt ja eigentlich auch, betrachtet man nur den PC-Markt.
Bezieht man die Konsolen mit ein, sieht es aber schon besser aus für AMD.
ehm, leute, irgendwie..irgendetwas versteh ich nicht.
Intel ist doch immer noch im Zeitplan vorneweg. Die 14nm Großserie wird bei Intel vor den 16nm TSMC Chips laufen. Und bis 2017(eher 2018) 10nm Chips von TSCM kommen ist intel doch auch schon wieder weiter...TSMC sind und sie bleiben wohl hinterher.
AMD versucht ebenfalls in diesem Bereich Fuß zu fassen, aber die roten haben sich mit ihrem Konzept, Doppelnutzung der GPU/CPU als Elektroheizung, bisher noch nicht am Markt durchsetzen können und leiden dem Vernehmen nach unter Geldmangel.
Nun vielleicht hat AMD sich nicht durchgesetzt, doch das Konzept mit Sicherheit. Welche Mediamarktrechner sind denn noch mit einer reinen CPU ausgestattet ohne iGPU? Im Consumer Markt gibt es gar nichts anderes mehr, und bei Ultramobilen Geräten wie Tablets und Phones ist es sowieso Standard. Notebooks haben auch alle iGPUs mitlerweile, selbst wenn noch sinnloserweise eine dGPU mit verbaut wird. Wüsste gerne wo sich CPU/GPU Doppelnutzung noch durchsetzen muss am Markt.
Intel kommt ja bald mit 14nm - also von da her. Die Umsetzung in kleinere Strukturen bereiten bei Energie intensiven Chips eben größere Probleme, zum Beispiel fressen immer größere Leckströme die höher werdende Effizienz fast vollständig wieder auf. Dieser Umstand ist bei Chips die sehr wenig verbrauchen nicht in der Form gegeben.
Die immer kleiner werdende Kühlfläche kommt ja auch noch dazu bei Chips die richtig was ziehen können.
Also ich würde das ganze ja einfach auf die Grösse der ARM SoC schieben!
Gibt ausser par Atoms nicht viel in der grösse.
Und da Atoms bisher sowieso immer nur so produziert wurden wo noch Kapazität übrig war und nicht in der aktuellen Fertigung.
Wattwanderer schrieb:
Hoffe das spart ordentlich Energie. So groß meine Begeisterung für schnelle Hardware wie SGS5 auch ist, die Ladezeiten für die riesigen Akkus, speziell über USB am Computer, finde ich nicht schön.
Na logisch wenn der Computer auf 500mA limitiert!
WandTrafos (wobei das ja eigentlich gar keine Trafos mehr sind...) geben zwischen 1.5A bis 2.1A.
Und wie dir vielleicht aufgefallen ist sinkt die Ladezeit der Smartphones von Generation zu Generation. Zbsp die 3200mAh meines Z2 lassen sich in 2.5h beinahe vollständig laden.
Das bestimmen die benötigten Taktraten. Bisher waren x86 CPU Kerne nicht für max. 2 GHz Fertigungen ausgelegt. Und auch jetzt sind dies lediglich die neue Core-M Serie von Intel, welche wohl den Atom beerbt und die Jaguar/Puma+-Serie von AMD. Allerdings taktet kein x86 Design im Bereich 200-500 MHz bei Höchstlast. Sie sind jedoch viel stärker abhängig von den Produktionskosten, da deren Dies deutlich größer sind und deren Verkaufspreis sehr wenig Spielraum bietet. Damit steigen sie erst später in eine Fertigungen ein, je komplexer der Chip ist. Es gibt aber sehr simple ARM Designs, die auch nur sehr wenig Diefläche benötigen und somit auch mit höheren Fehlerraten beim Einstieg in die neue Fertigung wirtschaftlicher sind. Darunter fallen z.B. Netzwerkrouter Chips wie sie Cisco oder Broadcomm in Ihren Routingzentren oder DSLAMs einsetzen.
Vor den ARMs kommen allerdings erstmal SRAM Chips, da diese als Referenz für Packungsdichte und andere Eckewerte herhalten und noch simpler sind vom Design.
"Vor 2017 ist deshalb mit 10-nm-Chips in größerer Ausbeute von TSMC nicht zu rechnen."
Es wäre schon, würde sich die Redaktion angewöhnen den Namen eines Prozesses von dessen Strukturbreite zu unterscheiden.
"16nm-FinFET" ist 20nm Strukturbreite mit FinFET; entsprechend wird man bei "10nm-FinFET" eine Strukturbreite von ca. 14nm annehmen müssen.
Also vor 2017 ist von TSMC ganz sicher gar keine Ausbeute an 10nm-Chips zu erwarten.
Aus einem willkürlichen Beispiel...z.B Atoms und Jaguars in den ersten Produkten. Auch ARMs takten noch meist darunter. Hängt vom Sweetspot des Designs ab. GPUs brauchen z.B. deutlich weniger Takt als CPUs.
a) ARM-CPUs sind normale CPUs
b) wer sagt denn das man mit anderen CPUs nicht ebenso schnell wie mit ARM-CPUs auf 10nm gehen kann?
c) ARM ist vermutlich besonders motiviert die hohen Aufwände (mit) zu bezahlen, da deren Funktionsblöcke ja an Lizenznehmer weiter verkauft werden. Multiplikator also. AMD versucht ebenfalls in diesem Bereich Fuß zu fassen, aber die roten haben sich mit ihrem Konzept, Doppelnutzung der GPU/CPU als Elektroheizung, bisher noch nicht am Markt durchsetzen können und leiden dem Vernehmen nach unter Geldmangel.
Hör auf so einen Stuss zu schreiben, das hat einfach mit der Chipfläche und auch dem Takt zu tun. Diese ARM Handy SOC's sind im Gegensatz zu GPU's und APU's winzig. Auf einen Wafer hast du dann mal eben 1000 Chips. Das bedeutet, anhand der weniger problematischen Yield gegenüber einer "normalen" AMD APU erreicht man eine bessere Wirtschaftlichkeit.