calluna schrieb:
@Aylano
Wenn HSA die Zukunft ist, wie wichtig ist denn dann die Implementierung von Intels Alternative in Form von AVX 1&2? (Zumal AVX2 der eigentlich interessante Part ist, da erst mit dieser Version verschiedene GPU Techniken implementiert wurden.).
Natürlich gibt es seitens Intel auch Entwicklungen/Verschmelzungen @ AVX & Larrabee.
Aber genau diese & HSA-Entwicklungen drängen CPU-Performance noch weiter zurück als es jetzt eh schon im PC-Markt längst ist.
Es macht die CPU jedenfalls wesentlich komplexer. Von daher ist es sinnvoll verschiedene Designs je nach Anwendungsgebiet zu entwickeln. Wenn sich das ein Unternehmen aufgrund begrenztem Budget nicht leisten kann... das ändert doch nichts an der technisch gesehen vermutlich besten Lösung.
Grundsätzlich richtig, aber dann hätten ja auch alle Atom-Netbooks vorallem 2011 verschwinden müssen, wo der 45nm-Atom dem 40nm-Ontrio völlig unterlegen war. Und in fast den letzten 2 Jahren war trotzdem noch Ontario den Atom in Sachen Technik (DX11, Flash-fähigkeit) sowie GPU-Performance deutlich voraus.
Was nahezu schon lächerlich ist, dass hier Leute Temash mit einem Produkt vergleichen, welches sich ja noch nichteinmal im Markt bewiesen hat. Auch wenn die Zahlen (mit eingeschränkter sicht auf CPU-Only) gut ausschauen, muss ich Intel auch erst im Markt beweisen sowie mal von seinen 600 Mio. $ Verlust wegzukommen. Hauptkonkurrenz ist immer noch ARM und da hat AMD mit AVX & DX11 & Co etliche stärken.
YforU schrieb:
Das Intel unterschiedliche Bay Trail Designs produziert ist sehr unwahrscheinlich. Dafür sind die Differenzen bei den SKUs zu gering -> Binning und Deaktivierung je nach Zielsegment.
Ich nehme man an, dass du mit Bay-Trails unterschiedliche Tablet-Desgin nimmst.
So war es nicht gesagt, denn Intel hat immer schon so 3 Atom-Designs (eines für Tablet/Smartphone, eines für Embedded und eines für Consumer) gemacht.
Vor 2015 wird es nach aktuellen Roadmaps keinen 20nm Jaguar SoC geben. Macht dann mindestens 1,5 Jahre mit einem Design welches bei 28nm nicht gerade für ultra-mobile geeignet ist. Das ist kein Vorteil sondern ein Nachteil und dabei gibt es nun wirklich nichts zu beschönigen.
a) Zu 2015 sind es bis auf 10 Tage 1,25 Jahre
b) Selbst 1,5 Jahre ist trotzdem kürzer als die fast 3 Jahre des Atom 1.0 vs Bobcat und tortzdem wurde Atom in größeren Massen verkauft.
c) Hatte ich schon erklärt, dass AMD momentan wegen non-integrierten Funk wenig Chancen hätte, weshalb es viel sinnvoller ist, Jaguar für die Zukunft zu entwickeln.
d) Innerhalb der 1,5 Jahren wird noch eingeführt. Dann würde HSA-Temash und 20nm-HSA-Temash-Nachfolger so im 9 Monats-Rythmus kommen, was für OEMs schon Grenzwertig ist.
e) Vor 2-3 Jahren musste ich Bobcat verteidigen, dass dieser nicht zu spät kommt, weil ja der achsowichtige Netbook-Markt rückläufig war. Heute wird am Bobcat-Nachfolger kritisiert, dass er nicht sowohl den Intels-Fertigungs-Vorteil @ Atom 2.0 und sowie auch nicht ARM übertrumpfen kann.
Aufgrund der gleichen Plattform (Windows 8) ist der Vergleich obligatorisch da am einfachsten. Kannst dir aber gerne die Arbeit machen das in Relation zu S800, Exynos 5420 oder Apple A7 zu stellen. Sind alles aktuelle 28nm ARM SoCs mit höherer Effizienz und höherer CPU Performance als ein DC Jaguar bei 1Ghz.
Damit disqualifizierst du DICH, dass du nicht fähig bist Temsah für den entsprechenden Markt richtig zu bewerten. Und erst recht, wenn du mir die "Beweislast" bzw. Bewertungslast übergibts.
Temash tritt im Tablet-Markt gegen die herschenden ARM-Androids an und Intel ist im Tablet bisher genauso unwichtig wie Microsoft.
Mircosoft muss sich erst durchsetzen und dann ist es eh wieder halb so schlimm, wenn Temash mit dem 28nm-Handicap herumläuft.
Im Segment der x86 Tablets gibt es abseits von Intel wie viele Mitbewerber ?
Welche Relevanz hat x86 und Microsoft aktuelle im Tablet-Markt?
Das AMD den Fokus nicht vollständig auf ultra-mobile legen kann versteht sich von selbst. Trotzdem muss die Low-Power Architektur zumindest halbwegs konkurrenzfähig in dieses Segment skalieren und das ist nicht der Fall - auch nicht gegenüber aktuellen ARM SoCs
2010-11 ... 2x 1,0 Ghz @ 9,0 Watt + so 3W Southbridge ... C50
2011-06 ... 2x 1,0 Ghz @ 5,9 Watt + so 3W Southbridge ... Z-01
2012-11 ... 2x 1,0 Ghz @ 4,5 Watt + so 2W Southbridge ... Z-60
2013-06 ... 2x 1,0 Ghz @ 3,9 Watt externe ohne Southbridge ... A4-1200 (wobei +30%-IPC und +100%-GPU)
Also, was gibt es dazu auszusetzen, dass AMD nicht viel tut, und dabei war noch C50 bei der Einführung in bezug auf Effizienz eine große Überraschung.
Hingegen versucht schon Intel seit 2008-04 mit der Z-Serie in diesen Markt (damals noch MID = Mobil internet Device) zu kommen.
AMD kann einen 2,5 Jahren rückschritt nicht innerhalb 2,5 Jahre komplett wegmachen.
AMD war früher in diesen Markt wesentlich schlechter unterwegs und bei den 2x 1,0 Ghz @ 3,9 W-TDP läuft nicht der Turbo-Modus. Damit verbraucht AMD bei CPU-Only Multi 2,0 W und Single so 1,0 W
Also, so wie ich es sagte. Die Entwicklung halte ich für richtig.
Wer nur bei Intel vergleicht, sieht halt jetzt nur die Verfälschung wegen den Fertigungs-Vorteil.