News Intels „Bay Trail“ bereits ab Ende August

RuhmWolf
http://www.notebookcheck.com/Im-Test-AMD-A6-1450-APU-Temash.92206.0.html
Prime95 + FurMark (~0,85 GHz CPU): 21,9 Watt
22 Watt mit Western Digital Scorpio Blue 500 GByte, Display auf Max ect.

Die TDP ist zwischen 8 und 15 Watt je ob man diesen Docking-Mode nimmt oder Tablet Mode. Man sieht aber dass bei Prime 21,9 Watt wahrscheinlich die TDP jeweils einhalten kann. Man bedenke HDD, Bildschirm auf Max, Wlan.
Der Verbrauch unter Last ist doppelt so hoch, doch fragt sich wie die GPU Performance zu vergleichen ist.

Falls man aber nicht Prime95 und FurMark laufen lässt hast du laut Notebookcheck andere Werte
Energiesparmodus, minimale Helligkeit, WLAN aus: 5,3 Watt
ausbalanciert, maximale Helligkeit, WLAN aus: 6,8 Watt
Höchstleistung, maximale Helligkeit, WLAN an: 10,3 Watt
und in der Single Thread Anwendung:
Cinebench R11.5 Single (~1,4 GHz CPU): 13,7 Watt

Man soll bedenken, dass ein Notebook einfach der größerer Verschwender ist. Es zeigt aber, dass der Atom eben eine niedrigere TDP hat, klar, aber der Chipsatz auf dem Mainboard verbraucht eben auch etwas. Der ist beim Kabini SoC integriert.

Fairerweise muss man sagen, dass der eigentliche Gegner der A4-1200 2 1,0 / – GHz 1 MB HD 8180 128 225 / – MHz DDR3L-1066 3,9 W ist.

Die 128MB eDRAM sind vergleichsweise billig da etwas kostengünstiger zu produzieren als ein Mainstream SoC welcher für unter 20$ verkauft wird.
Interessant, deshalb sind die MCM Chips von Intel mit l4 Cache so günstig :)
 
pipip schrieb:
Interessant, deshalb sind die MCM Chips von Intel mit l4 Cache so günstig :)

Listenpreise:
4702EQ (HD4600) 378$
4750HQ (Iris Pro 5200): $440

Dabei ist der 4702EQ der günstigste mobile Quadcore.

Zum Vergleich: Ein i7-4500U (MCM mit ICH, 15W TDP) liegt bei 398$

Das die Preise also nicht so ganz der Realität (EK OEM) entsprechen sollte verständlich sein. Intel nimmt für die Kombination aus GT3 + eDRAM laut Liste 60$ und damit tendenziell eher weniger als insgesamt für eine dedizierte Lösung wie GT 640M + DDR3 und aufwändigere Kühlung fällig wäre.

Die Preise werden primär durch das Marktumfeld definiert und nicht durch die Herstellung. Der Witz an der Geschichte ist das Intel den eDRAM alles andere als verschenken muss sondern eine sehr ordentliche Marge herauskommt. Genau den Vorteil hat auch nur Intel denn alle anderen Mitbewerber müssen den Speicher zu kaufen - egal ob GDDR5 oder eDRAM.
 
Zuletzt bearbeitet:
RuhmWolf schrieb:
@aylano

also ein 32nm Intel Atom Z2760 1.8 GHz (Intel Atom) im Acer W510 mit Intel Graphics Media Accelerator (GMA) 3650 kommt auf:
CB10 Rendering Single 32Bit 1004 Punkte

Natürlich Cherry Picking, aber das hat aylano mit einem 1,5 Jahre altem N2800 ja auch schon ganz schön hinbekommen ;)
Bitte kontrolliere doch die anderen 7 Tests mit dem Atom Z2760. Die haben alle 600 und nicht 1004 Punkt.
Mit Zahlen ungehen zu können, heißt es auch sie zu kontrollieren anstatt einen offensichtlich fehlerhaften Wert (falsch eingetippt?) zu verwenden. Mit logischen Gedankengängen hättest du auch erkennen dann der Z2570 @ CB10 Rendering Multi 32Bit mit 1685 Punkte nicht mindestens das doppelte ist wie 1004 Punkte. Die 1685 Multi-Punkte entsprechen übrigens auch den anderen 7 Tests.

Das alter sagt nichts aus, weil die Fertigung nicht durch das alter besser wird sondern durch R&D-Ressourcen. Es dieser Vergleich ist halt nur ein Blick in die Zukunft, wenn Intels 14nm und TSMC & GF - 14nm nahezu gleichzeitig rampen sowie in 22/20nm den 3D-Transistor bzw. FinFET-Vorteil verliert.

YforU schrieb:
Baytrail-T: Z3770 mit 4C Silvermont, 2,4 Ghz und 2W SDP. Von mir aus also bis zu 4W TDP. Nehmen wir als oberstes Limit für ein passives Tab 5W und dann bekommt AMD gerade so 4*Jaguar bei 1,0 Ghz unter.
Gegen-Temash hat man den Nachteil der geringen Grafik-Performance und gegen ARM die non-integrierten Funkttechnik.

Was die IPC angeht legt Intel in jeden Fall einen deutlich größeren Schritt hin als AMD von Bobcat zu Jaguar.
Was bei einer 3 mal schlechteren IPC ja auch kein Wunder ist.
Beachtlich ist, dass Jaguar ohne 3. ALU und sonst wirgendwas trotzdem +30% zulegen konnte, während Intel mit OoO (was an sich ein sehr großer Sprung ist) laut Intel eigentlich nur 50% zulegt.

In diesem TDP Bereich hat AMD nicht die geringste Chance. Zum einen weil Silvermont im Gegensatz zu Jaguar eine echte ULP Architektur ist und zum anderen sind weder Kabini noch Temash Wunder der Effizienz. Das liegt durchaus auch in der Fertigung begründet. Hier hat Intel natürlich Vorteile aber es ist nicht so das TSMC für dieses Segment (LP) keine ordentliche Lösung gehabt hätte -> siehe Qualcomm S800, 28nm HPm.
Atom tritt da in volle Konkurrenz gegen ARM, während sich Jaguar deutlich drüber steht.
Und du vergleichst auch nur 22nm-Atom gegen 28nm-Qualcomm. Nur weil Qualcomm & Co jetzt schon nicht ständig den Markt mit Marketing-Folien unterhalten, heißt es nicht, dass sie jetzt auch kurz davor stehen 20nm-Quad-A15 oder 20nm-Quad-A57 rauszubringen.

AMD lässt sich da halt mehr Zeit, bis sie auf 20nm umsteigen.

Ganz am Rand hat es AMD zusätzlich zum n-ten mal geschafft keinen ordentlichen dynamischen Turbo zu implementieren. Viel zu spät, wie so oft nicht bis ins letzte Detail komplett und oben drauf wäre bei der Fertigung durchaus mehr möglich gewesen. So kann man nicht mit Intel konkurrieren aber das sind eben die Fakten.
Was soll das Märchen mit den Turbo-Modus.
Komischerweise höre ich das immer nur von CPU-Only-Denkenden Leuten, die im Zweifelnsfall wenn Intel doch nicht davonziehen kann, dann mit den Technik-Wunder Turbomodus kommen, aber dann die Folgen im Stromverbrauch @ TDP ignorieren.

Wenn dein erweihnte 4W-TDP Atom mittels Turbo-Modus den vollen TDP-Rahmen ausnützt, dann entspricht das übrigens eh den 8W-TDP-Temash, der ohne Turbo dann eben die hälfte (=4W) benötigt, wie es AMD darstellte.

ARM-CPUs haben übrigens auch kein Turbo-Modus und sind trotzdem extrem erfolgreich.

Etwas Offtopic: Da wird über HSA geschrieben (ab Kaveri) und Intel verbaut bei Haswell (GT3e) 128MB eDRAM als gemeinsamen L4 für CPU und GPU. Genaugenommen ist Intel somit schon weiter denn es wurde gleichzeitig eines der elementarsten Probleme zu einem signifikanten Teil gelöst: mangelnde Speicherbandbreite.
Schonmal überlegt, dass mit HSA die internen Wege deutlich reduziert werden, wodurch interne Cache-Kapazitäten deutlich schneller frei werden, weil sie dann schneller abgearbeitet werden.

eDRAM ist keine Architetkur sondern kommt aus der Fertigung. Globalfoundries hat genauso TSV für 20nm angekündigt.

WinnieW2 schrieb:
SMT fällt zwar weg, aber im Gegenzug verdoppelt sich die Anzahl der Kerne. Einen Atom-Vierkerner gab es bislang nicht, mit Bay Trail dann schon. Laut Intel steigt die IPC um ca. 50% von Saltwell auf Baytrail.
Natürlich.
Aber der IPC-Gewinn muss erst aucheinmal den SMT-Zugewinn ersetzten können, der auch so bei 50-60% liegt.
Damit der Atom mit dem Quad-Core den 1,0Ghz-Quad-Kabini schlägt, braucht muss der Atom auch seine hohen Takte halten können, um erstmals in Multi-Core gleichziehen zu können. Und dann bleibt noch das Problem der deutlich schlechteren GPU-Performance, die jetzt laut 3Dmark 06 ums so 6 Fache zurückliegt, was AFAIK auch den GFlops-Unterschied entspricht.

Bay Trail beinhaltet eine neue GPU.
Hab ich auch nicht wiedersprochen. Genauso die CPU-Steigerung. Aber die neue GPU muss auch erst einmal den Rückstand aufholen, um erstmals gleichziehen zu können. Von Alt aussehen des Quad-1,0-Ghz ist da noch lange nicht die Rede.

-----

Fazit:
Der 22nm-Atom wird jetzt kein schlechter Chip, sondern er kommt vom Katastrophalen Zustand in einen Konkurrenz-Fähigen Zustand.
Den das was Intel bis jetzt ist auch nicht mehr als was Nvidia Tegras in ihren Zenit erreichte. Wenn ich mich nicht irre, dann sind die großen Atom-Desgin-Wins je, die Nvidia mit Tegra hatte.

Der Atom ist jetzt noch nicht im Smartphone etabliert und es muss ich Zeigen, ob sie überhaupt standhalten können. Denn die größten Konkurrenten sind einerseits Qualcomm & Samsung und vorallem die Chinesischen Hersteller (MediaTeK, HUWEI, Allwinner, Rockchip) die eben Quad-Modelle mit Funktechnich mittlerweile um 18$ statt 20$ verkaufen und so den Markt kräftig unter Druck setzen.

Und diese haben, wie schon erwähnt, Funkt-Technik was wahrscheinlich der Bay-Trail erstmals nicht haben wird.

Langsam sehe ich es von Vorteil, dass sich Jaguar mit ihrer IPC nicht in der nähe von ARM liegt, so wie es der ATOM ist, sondern sich noch deutlich absetzen kann. Denn mit der deutlich höheren IPC müssen sie nicht so über Takt gehen, während die Konkurrenten da schon auf die Taktgrenzen stoßen können. Bis es soweit ist (vielleicht schon 14nm), bis dahin müsste AMD den Rückstand einer nichtvorhandenen Funkttechnik durch Lizensierung oder sonst was beseitigen, falls sie es doch vorhaben irgedwann in diesen Markt zu gehen.
 
Zuletzt bearbeitet:
pipip schrieb:
Man soll bedenken, dass ein Notebook einfach der größerer Verschwender ist. Es zeigt aber, dass der Atom eben eine niedrigere TDP hat, klar, aber der Chipsatz auf dem Mainboard verbraucht eben auch etwas. Der ist beim Kabini SoC integriert.


Beim Atom ebenso.
 
aylano schrieb:
B
Gegen-Temash hat man den Nachteil der geringen Grafik-Performance und gegen ARM die non-integrierten Funkttechnik.

Bezogen auf die GPU wäre ich mir bei einer TDP um 5W nicht so sicher. Die Radeon 8180 des A4-1200 (3,9W) taktet nur noch mit 225 Mhz. Die Skalierung ist auch bei Trinity/Richland ein großes Problem denn die 17W Varianten sind nicht in der Lage die GPU Performance der Intel Modelle zu erreichen.

Funktechnik in relevanten Maßstab hat exakt Qualcomm integriert (ergo praktisch gesamtes Portfolio). Ist vor allen für Smartphone SoCs relevant und wird Intel mittelfristig machen müssen.

Atom tritt da in volle Konkurrenz gegen ARM, während sich Jaguar deutlich drüber steht.

Temash trifft in der jetzigen Form den TDP Bereich der Tablets nicht sonderlich gut. Ist analog zu A15 in Smartphones.

Und du vergleichst auch nur 22nm-Atom gegen 28nm-Qualcomm. Nur weil Qualcomm & Co jetzt schon nicht ständig den Markt mit Marketing-Folien unterhalten, heißt es nicht, dass sie jetzt auch kurz davor stehen 20nm-Quad-A15 oder 20nm-Quad-A57 rauszubringen.

Adreno 420 als erste DX11.1 kompatible GPU in einem Qualcomm SoC (genaugenommen ARM allgemein) kommt in 28nm HPm Q1/2014 (S800 Refresh). Für mich sieht "kurz davor" anders aus. Endgeräte in größereren Volumen auf Basis von 20nm TSMC -> eher Richtung Mitte 2014.

AMD lässt sich da halt mehr Zeit, bis sie auf 20nm umsteigen.

In einem Markt der erheblich härter umkämpft ist als das "alte" PC Segment kann man sich sowas nicht erlauben.

Was soll das Märchen mit den Turbo-Modus.
Komischerweise höre ich das immer nur von CPU-Only-Denkenden Leuten, die im Zweifelnsfall wenn Intel doch nicht davonziehen kann, dann mit den Technik-Wunder Turbomodus kommen, aber dann die Folgen im Stromverbrauch @ TDP ignorieren.

Welche Folgen sind das denn wenn die CPU den gegebenen TDP Spielraum in allen Lebenslagen ausnutzen kann und deshalb der gesamte SoC früher im Tiefschlaf landet ? -> Race to Sleep.

Wenn dein erweihnte 4W-TDP Atom mittels Turbo-Modus den vollen TDP-Rahmen ausnützt, dann entspricht das übrigens eh den 8W-TDP-Temash, der ohne Turbo dann eben die hälfte (=4W) benötigt, wie es AMD darstellte.

Der hat 2W SDP und damit keine 8W TDP.

ARM-CPUs haben übrigens auch kein Turbo-Modus und sind trotzdem extrem erfolgreich.

Das ist falsch. Der Begriff Turbo steht für nichts anderes als die dynamische Verteilung der verfügbaren TDP. Den vollen CPU Takt machen recht wenige aktuelle ARM SoCs bei voller GPU Last mit (TDP Limit). Im Gegensatz zu Intels Implementierung ist das aber vergleichsweise primitiv umgesetzt und mit Drosselung lässt sich im Marketing schlecht arbeiten ;)

eDRAM ist keine Architetkur sondern kommt aus der Fertigung. Globalfoundries hat genauso TSV für 20nm angekündigt.

AMD müsste zukaufen, Intel lastet damit eigene Fabs aus und das ist eben ein großer Luxus (rein zufällig ist es eine Abwandlung des 22nm LP für Silvermont SoCs). So wie es aktuell aussieht werden früher oder später alle in diesen sauren Apfel beißen müssen denn es gibt auf absehbare Zeit keine Alternative. Im Zuge der vollen Integration der GPU ist eine massive Erhöhung der verfügbaren Speicherbandbreite unumgänglich.

Der Atom ist jetzt noch nicht im Smartphone etabliert und es muss ich Zeigen, ob sie überhaupt standhalten können. Denn die größten Konkurrenten sind einerseits Qualcomm & Samsung und vorallem die Chinesischen Hersteller (MediaTeK, HUWEI, Allwinner, Rockchip) die eben Quad-Modelle mit Funktechnich mittlerweile um 18$ statt 20$ verkaufen und so den Markt kräftig unter Druck setzen.

Qualcomm und die chinesischen Hersteller im Low-Cost Bereich ja. Samsung (als SoC Entwickler, LSI) ist vorerst ziemlich abgeschrieben denn deren größter Abnehmer (Samsung Mobile) hat nach den jüngsten Unzulänglichkeiten den Fokus auf externe SoC Lieferanten geändert.

Und diese haben, wie schon erwähnt, Funkt-Technik was wahrscheinlich der Bay-Trail erstmals nicht haben wird.

Nicht integriert aber Intel hat ansonsten das gesamte Paket (inkl. globaler Multimode LTE Baseband, XMM 7160). Intel hat 2010 mit Infineon Wireless praktisch das einzig kaufbare Schwergewicht der Branche übernommen. Das ist in so weit von Relevanz da hier die nötigen Strukturen vorhanden sind denn eine Baseband zu entwickeln ist nur ein Teil der Arbeit. Validierung und Zertifizierung in Zusammenarbeit mit Herstellern und Netzbetreibern gehört ebenfalls dazu. Das ist aufgrund der schieren Anzahl im globalen Maßstab keine triviale Aufgabe.
 
Zuletzt bearbeitet:
So. Und ich hätte dann gerne eine NUC-Einheit mit Celeron N2910, 2 GB RAM, M.2 SSD und Android 5.0. °_°
 
YforU schrieb:
Bezogen auf die GPU wäre ich mir bei einer TDP um 5W nicht so sicher. Die Radeon 8180 des A4-1200 (3,9W) taktet nur noch mit 225 Mhz. Die Skalierung ist auch bei Trinity/Richland ein großes Problem denn die 17W Varianten sind nicht in der Lage die GPU Performance der Intel Modelle zu erreichen.
Kannst du ach was erzählen, dass irgendjemand nachvollziehen kann?
Mein gut nah, der 3,9W-Modell taktet nur 225 statt 400 Mhz und du tust so, dass der ganze 6 Fache 3DMarkt-06 Vorsprung gegenüber Atom-GPU aufeinmal weg ist, weil er angeblich in eure Welt in der 17W-TDP-Klasse vielleicht nicht das ganze GPU-Potential ausschöpfen kann.

Temash trifft in der jetzigen Form den TDP Bereich der Tablets nicht sonderlich gut. Ist wie aktuell A15 in Smartphones am Limit.
Ja eh, ist mit A15 am Limit. Aber mit den niedrigen Takten von 1,0 Ghz stehen sie auch am Anfang mit ihrer Architektur und nicht mit 1,8/2,3 Ghz am oberen Takt-Ende. Außerdem sind beide noch in 28nm.

Adreno 420 als erste DX11.1 kompatible GPU in einem Qualcomm SoC (genaugenommen ARM allgemein) kommt in 28nm HPm Q1/2014 (S800 Refresh). Für mich sieht "kurz davor" anders aus.
Natürlich, weil in deiner Welt du Jaguar/Temash mit einen noch nicht exisiterenden Z3770 verglichen wird, deren Modelle auch erst im 4Q 2013 kommen soll. Wo da jetzt das eine Quartal so entscheidend ist, ist mir jetzt ein Rätsel. Natürlich kann Intel mit Z3770 schneller am Markt kommen. Mit den wenigen Desgin-Wins ist es auch schneller als von Qualcomm die momentan in 28nm & Co hundert Design-Wins oder so haben.

In einem Markt der erheblich härter umkämpft ist als das "alte" PC Segment kann man sich sowas nicht erlauben.
Erstens, sollte man wissen dass man in Essential-PC & -Notebook-Markt nicht mit den teursten 20nm-Wafern in beschränkten Stückzahlen antretet. Wenn du deine Aussage ernst nehmen müsstest, dann müsstest du Intel schon längst kritisiert haben, die noch in Großen Mengen 32nm-Wafern produziert.
Zweitens, ist Kabini gerade erst herausgekommen. Produkt-Zyklen kann man nicht einfach wahllos kurz durchfüren.

Man sollte schon beim Topic bleiben.
Und AMD ist noch nicht im Tablet-Markt etabliert. Abgesehen davon haben sie noch andere Baustellen sowie fehlende Techniken (Funk) und da macht es keinen Sinn, viel wichtiger Märkte [GPU Markt (Profi & Game)] zu benachteiligen um krampfhaft einen Markt zu kämpfen, wo sie nur verlieren können. Intel kann momentan nur im Smarpthone & Tablet-Markt generell wachsen. AMD kant noch viel potential in allen anderen Märkten.

Welche Folgen sind das denn wenn die CPU den gegebenen TDP Spielraum in allen Lebenslagen ausnutzen kann und deshalb der gesamte SoC früher im Tiefschlaf landet ? -> Race to Sleep.
Außer diesen 0815-Sprüchen, kannst wohl nichts liefern oder?
Schon mal auf die Idee gekommen, dass der Turbo-Modus erhöhten relativen Stromverbrauch wegen erhöhten Spannung hat, sodass kaum ein Vorteil draus gezogen hat. Tu bitte nicht so, als ob Turbo-Modus so wahnsinnig wichtig wäre, wenn man es in den letzten 5 Jahren im Smartphone-Markt nicht gebraucht hatte, wo Intel bisher nicht schritthalten konnte.

Das ist falsch. Der Begriff Turbo steht für nichts anderes als die dynamische Verteilung der verfügbaren TDP. Den vollen CPU Takt machen recht wenige aktuelle ARM SoCs bei voller GPU Last mit (TDP Limit). Im Gegensatz zu Intels Implementierung ist das aber vergleichsweise primitiv umgesetzt. Mit Drosselung lässt sich allerdings im Marketing schlecht arbeiten
Mein gott na,
Nur weil es seit kurzem primitives Turbo-Modus gibt, brauchst du Intel damit nicht verherrlichen.
Vorallem nicht mit einer CPU, die es vorne und hinten nicht am Markt gibt. Blöderweise ist auf den Preis-Listing von Juni keine CPU aus der Z-Serie aufgelistet.

AMD müsste zukaufen, Intel lastet damit eigene Fabs aus und das ist eben ein großer Luxus (rein zufällig ist es eine Abwandlung des 22nm LP für Silvermont SoCs). So wie es aktuell aussieht werden früher oder später alle in diesen sauren Apfel beißen müssen denn es gibt auf absehbare Zeit keine Alternative.
Witzig, wie du Nachteile als Vorteile siehst. Schon mal auf die Idee gekommen, dass Fabriken & Fabriks-Auslastung auch eine Menge Geld kaostet?

Im Zuge der vollen Integration der GPU ist eine massive Erhöhung der verfügbaren Speicherbandbreite unumgänglich.
Das ist unsinn, weil es nicht mit der vollen Integration der GPU zu tun hat. Es hat was mit der Größe zu tun. Und wenn man mit HSA die Internen Wege deutlich reduzieren kann und die Speicherbandbreite entlastet, kann man dann größere iGPUs einbauen, ohne gleich ans Speicherbandbreiten-Limit zu gelangen.

Qualcomm und die chinesischen Hersteller im Low-Cost Bereich ja. Samsung (als SoC Entwickler) ist vorerst ziemlich abgeschrieben.
Wie darf man das verstehen?
Qualcomm ist mit S600 und S800 nur Low-Cost?
Samsung ist abgeschrieben?

Interessant wie du Samsung (Führender Handy- & Smartphone-Hersteller) und Qualcomm (Führender SoC-Hersteller) runterredest, ob Intels zukünftige Probleme nicht sehen zu wollen.

Nicht integriert aber Intel hat ansonsten das gesamte Paket (inkl. globaler Multimode LTE Baseband).
Genau deshalb sind sie im Nachteil. Und da ist es igeal ob das LTE-Baseband lizensiert ist, oder ob sie es aus ihrer eigenen Lizenz-Bank holen.

---------

PS: Natürlich ist zu erwarten, dass sie mit den 22nm-Fertigungs-Vorteile mehr erreichen als die paar lächerlichen Desgin-Wins mit Clover-Trail. Nur kommt halt jetzt die Phase, wo die Smartphone-Wachstums-Zahlen deutlich abflachen und somit der Selektierungskampf langsam beginnt. Und da geht es dann um jeden $-Produktions-Kosten bzw. SoC-Preise. Genau da siehe ich die Chinesischen Hersteller Low-Cost-Markt genauso als ernstzunehmenden Konkurrenten an, wie Qualcomm & Samsumg im Mittele & hochpreissekment.

Man sollte halt die Welt realistischer Sehen und nicht nur paar Zahlen.
Tegra hatte von 2010 bis Ende 2012 immer nur gute Aussichen und Hoffnung auf Mehr, aber als nach 3 Jahren der ganze Vorsprung wegfiel, brach auch der Marktanteil deutlich ein. Bei Intel wird es da auch nicht viel anders laufen, weil schon in 1,5 Jahren die Konkurrenz in 14nm gleichzeitig dahertanzen soll und so Intel ihren Fertigung-Vorteil verlieren wird.

Im Gegensatz zu Intel kann ARM mit viel mehr Architekturen kontern. Denn während Intel nach 5,5 Jahren mit einer neuen Intel-Architektur kommt, kommt ARM ja in naher Zukunft schon mit A12 und A57. Selbst bei AMD kommt nächstes Jahr Jaguar+.

Intels 22nm-Atom sieth halt jetzt für manche sooo gut aus, weil sie mit dieser neuen Atom-Architektur jetzt neu nach 5,5 Jahren kommen. Es wird in 1-2 Jahren wieder völlig anders aussehen, wenn wenn wenn die konkurrenten neben der Fertigung weiterhin mit Architektur-Verbesserungen kommen und Atoms Weiterentwicklungen sich wieder ewig auf sich warten lässt.

Nicht zu vergessen ist, dass sich Atom auch im Server-Markt behaupten will. Also, wie gut der 22nm-Atom wirklich ist, wissen wird ja durch Tests überhaupt nicht. Das einzige was du uns vorgibst sind schöne bunte Marketing-Folien, die mit den Speziellen Z3770 Fantastische Zahlen erreicht.
 
YforU schrieb:
Bezogen auf die GPU wäre ich mir bei einer TDP um 5W nicht so sicher. Die Radeon 8180 des A4-1200 (3,9W) taktet nur noch mit 225 Mhz. Die Skalierung ist auch bei Trinity/Richland ein großes Problem denn die 17W Varianten sind nicht in der Lage die GPU Performance der Intel Modelle zu erreichen.

Also wenn ich mir dir Werte für Resident Evil 5 und Far Cry 2 anschaue. Dann liegt liegt ein 17W Trinity A6 4455m auf einem Niveau mit den 17W IB i5 und i7 CPUs mit HD4000.

Die GPU Leistung ist abhängig von der CPU Leistung. Von daher ist nen Trinity vs. IB Vergleich nicht wirklich sinnvoll. Da der IPC unterschied zwischen Jaguar und Atom kleiner sein wird als bei Trinity vs. IB. Kombinier ein 17W Trinity und IB mit der selben diskreten GPU und das Intel System wird ~30% mehr Frames liefern, aufgrund der besseren CPU.

Dazu kommt noch die Frage inwiefern zwei Architekturen (Trinity: VLIW4, Tamesh: GCN) in Sachen Skalierbarkeit überhaupt vergleichbar sind.
 
Zuletzt bearbeitet:
Matzegr schrieb:
Also wenn ich mir dir Werte für Resident Evil 5 und Far Cry 2 anschaue. Dann liegt liegt ein 17W Trinity A6 4455m auf einem Niveau mit den 17W IB i5 und i7 CPUs mit HD4000.

Das schafft auch ein IB i3 ULV und der ist heute praktisch eine Low-Cost Lösung im 400€ Segment. Mit Haswell ist die TDP der gesamten Plattform nochmal deutlich zurück gegangen (15W inkl. ICH) und die GPU Performance ist gleichzeitig um ~15% gestiegen.

Mir ging es dabei vor allen um klar zu stellen das AMD hier das letzte Argument abseits des Preises verliert -> überlegene GPU Performance. Gegenüber einem IB i3 ULV (wie i3-3217U) zieht auch der Preis nicht und am Ende hat der eine massiv höhere IPC und taktet mit 1,80 Ghz. Da ist mit einem Modul bei maximal 2,6 Ghz (Basis 2,1 Ghz) wenig gegen auszurichten. Vor allen da bei GPU Last kaum mehr als der Basis CPU Takt anliegt. Ergo über 50% Differenz bei der CPU Leistung und eine GPU auf Augenhöhe.

Ursprünglich stand bei mir mal ein Subnotebook mit AMD APU (Trinity) auf der Wunschliste aber das Endergebnis ist leider derart weit von Intel weg das es die Differenz beim Preis nicht rechtfertigt. Ein Notebook besteht aus mehr als nur der CPU und dementsprechend sind 50-100€ Differenz nicht so schlimm wenn es dafür deutlichst mehr Performance gibt -> IB i5 ULV. Doppelte CPU Leistung für einen überschaubaren Aufpreis.
 
Zuletzt bearbeitet:
aylano schrieb:
Kannst du ach was erzählen, dass irgendjemand nachvollziehen kann?
Mein gut nah, der 3,9W-Modell taktet nur 225 statt 400 Mhz und du tust so, dass der ganze 6 Fache 3DMarkt-06 Vorsprung gegenüber Atom-GPU aufeinmal weg ist, weil er angeblich in eure Welt in der 17W-TDP-Klasse vielleicht nicht das ganze GPU-Potential ausschöpfen kann.


Gibt es ein Link zu einem 3,9W Temash 3dmark06 Wert?
 
Dumme Frage zu HSA um das zu verstehen:
Wo ist bei AMD der RAM um CPU und GPU auf den selben Speicher zugreifen zu lassen? Sitzt der in der CPU oder auf dem MB?
 
der RAM sitzt natürlich ganz normal auf dem mainboard.
 
aylano schrieb:
Beachtlich ist, dass Jaguar ohne 3. ALU und sonst wirgendwas trotzdem +30% zulegen konnte, während Intel mit OoO (was an sich ein sehr großer Sprung ist) laut Intel eigentlich nur 50% zulegt.
Das bedeutet im Prinzip nur das das bisherige Frontend des Bobcat nicht in der Lage war 2 ALUs vernünftig auszulasten.
Im Übrigen unterscheiden sich die Architekturen von AMD Jaguar u. Intel Silvermont nicht grundlegend, sondern sind sich sogar recht ähnlich.
Mehr ALUs bringen nur etwas wenn diese ausgelastet werden können, aber dazu muss das Frontend in der Lage sein genügend dekodierte Befehle zu liefern.
Und genau da liegt offenbar das Problem ein Frontend das mehr Befehle pro Takt dekodieren kann ist aufwendiger und braucht überproportional mehr Energie. Verschlechtert die Bilanz Rechenleistung zu Energieverbrauch.

ARM hat mit dem A15 leider das gleiche Problem wie die x86 Architekturen. Steigerung des IPC um 50% hat eine Verdoppelung des Energieverbrauchs zur Folge.
Intel u. AMD mussten eine energiesparenden Form des OoO implementieren u. das Powermanagement weiter verbessern. Höherer IPC geht nicht bei CPUs für akkubetriebene Geräte, weil das insgesamt die Energiebilanz (Rechenleistung/Energieverbrauch) verschlechtern würde.
Nicht umsonst hat Intel das Powermanagement so angepasst dass jeder Kern mit unterschiedlicher Taktfrequenzen laufen kann u. das nicht ausgelastete Kerne sogar komplett schlafen gelegt werden können während andere Kerne aktiv sind.
Natürlich spielt die verbesserte Fertigung in 22 nm mit FinFET ebenfalls eine Rolle beim Energiesparen.

Apropos RAM.
Eine weitere wichtige Änderung beim neuen Intel Atom. Nun Dual-Channel-RAM anstatt Single-Channel-RAM-Anbindung.
 
Zuletzt bearbeitet:
@YforU
Ich bezog mich auf
YforU schrieb:
aylano schrieb:
Gegen-Temash hat man den Nachteil der geringen Grafik-Performance und gegen ARM die non-integrierten Funkttechnik.
Bezogen auf die GPU wäre ich mir bei einer TDP um 5W nicht so sicher. Die Radeon 8180 des A4-1200 (3,9W) taktet nur noch mit 225 Mhz. Die Skalierung ist auch bei Trinity/Richland ein großes Problem denn die 17W Varianten sind nicht in der Lage die GPU Performance der Intel Modelle zu erreichen.

Es ging, so ich wie ich es seh um Bay Trail gegen Tamesh.

Mein Einwurf bezog sich nur darauf, dass man nicht auf Basis von Trinity vs. IB einen vergleich zu Tamesh vs. Bay Trail ziehen kann!

YforU schrieb:
Mir ging es dabei vor allen um klar zu stellen das AMD hier das letzte Argument abseits des Preises verliert -> überlegene GPU Performance

Nehmen wir Dirt Showdown bei 1366x768 High Preset AA:2xMS -> CPU spielt keine Rolle mehr:

Tamesh: A6-1450 mit 2CUs@400MHz: 11,5 FPS bei 9,2W (Last bei 3D Mark 06 - Idle)
i5-3317U mit 16 EUs@1,05 GHz: 12,8FPS bei 23,6W (Last bei 3D MArk 06 - Idle)
(Die theor. Leistung der GPU in GFLOPS ist beim i5 um den Faktor 2,625 höher als beim A6)

Dann frag ich mich wie ein Bay Trail mit 4 EUs@???MHz bei der Grafik-Performance an ein Tamesh rankommen soll? Allein um an die theor. Leistung eines 3,9W TDP Tameshs (GPU@225MHz) ran zu kommen würde Bay Trail 900 MHz für die GPU benötigen.
 
Matzegr schrieb:
@YforU
Nehmen wir Dirt Showdown bei 1366x768 High Preset AA:2xMS -> CPU spielt keine Rolle mehr:
...

Intel Gen 7 rechnet bei 2x MSAA -> 4x MSAA.

A speciality of the Ivy Bridge GPUs is that 4x MSAA is supported in hardware now. However, 2x is only supported through software. The algorithm to support 2x is going through the 4x pipeline with a software algorithm, so performance is similar to 4x MSAA.

Das mal abseits dessen das Dirt Showdown latent AMD optimiert ist und deshalb je nach Settings wenig allgemeine Aussagekraft hat (auch gegenüber Nvidia). Der Titel war nicht grundlos "for free" bei meiner 7850 dabei ;)

Intel dürfte mit 4 EUs grob zwischen 450 und 550 Mhz benötigen um die Performance der 2 CUs bei 225 Mhz zu erreichen. Das ist ausgehend von den allgemein hohen Frequenzen der Silvermont SoCs durchaus realistisch. GPU Frequenzen oberhalb von 500 Mhz sind bei 20nm in diesem Segment auch von Qualcomm etc zu erwarten - es sprich also wenig dagegen (Adreno 330, 28nm HPm: 450 Mhz).

Der Sweet-Spot im Segment der passiven Tablets liegt in jeden Fall deutlich abseits von AMDs Temash denn sonst müssten die Frequenzen nicht derart brachial reduziert werden. Wie bereits erwähnt wurde bedeutet Effizienz vereinfacht dargestellt den optimalen Mittelweg aus IPC und Frequenz zu finden. Da sowohl Qualcomm als auch Intel mit der doppelten CPU und GPU Frequenz ankommen liegt AMD hier kaum am Optimum. Am eigentlich propagierten Ziel (->Tablet) ist AMD genaugenommen fast vorbei gerauscht.
 
Zuletzt bearbeitet:
YforU schrieb:
Intel Gen 7 rechnet bei 2x MSAA -> 4x MSAA.

Immer? Dann wäre der Abstand zur Gen 6 recht groß die kommt auf 9,5 FPS und die dürfte ja nur 2x MSAA machen. Da glaub ich aber kaum das Gen 7 mit 4x MSAA plötzlich 35% schneller ist als Gen 6 mit 2x MSAA.


YforU schrieb:
Intel dürfte mit 4 EUs grob zwischen 450 und 550 Mhz benötigen um die Performance der 2 CUs bei 225 Mhz zu erreichen.

Wie kommst du darauf?
Rein theoretisch:
AMD GCN: 2 CUs@225 MHz -> 57,6 GFLOPS
Intel Gen 7: 4 EUs@550 MHz -> 35,2 GFLOPS


YforU schrieb:
Da sowohl Qualcomm als auch Intel mit der doppelten CPU und GPU Frequenz ankommen liegt AMD hier kaum am Optimum.

Ist dann Apple mit seinem A6X (76,8 GFLOPS) auch nicht am Optimum? Läuft ja mit max. 1,4 GHz CPU und 300 MHz GPU auch mit weit niedrigeren Frequenzen als Intel und Qualcomm
 
Matzegr schrieb:
Immer? Dann wäre der Abstand zur Gen 6 recht groß die kommt auf 9,5 FPS und die dürfte ja nur 2x MSAA machen. Da glaub ich aber kaum das Gen 7 mit 4x MSAA plötzlich 35% schneller ist als Gen 6 mit 2x MSAA.

Gen 6 kann nach meinem Kenntnisstand 4x MSAA in Hardware und Gen 7 4x sowie 8x.

Wie kommst du darauf?
Rein theoretisch:
AMD GCN: 2 CUs@225 MHz -> 57,6 GFLOPS
Intel Gen 7: 4 EUs@550 MHz -> 35,2 GFLOPS

Mit den Frequenzen lag ich etwas daneben und deine Rechnung zur Rohleistung ist vollkommen korrekt. Die Embedded Varianten haben je nach SKU 400 bis 700 Mhz. Da es sich im Großen und Ganzen um eine auf 4EUs reduzierte HD 2500 handeln dürfte müsste das schon aufgehen (abseits der EUs wäre eine Skalierung nur über massive Eingriffe in der Architektur möglich-> TMU, ROP).

Ist dann Apple mit seinem A6X (76,8 GFLOPS) auch nicht am Optimum? Läuft ja mit max. 1,4 GHz CPU und 300 MHz GPU auch mit weit niedrigeren Frequenzen als Intel und Qualcomm

Apple nutzt zum einen 32nm (Samsung) und zum anderen wurde die nötige 3D Performance durch das extrem hochauflösende Panel definiert. Die monströse 554MP4 bei 300Mhz dürfte aufgrund der Fertigung die effizientere Variante gewesen sein (statt MP3 mit höherer Frequenz).

Samsungs 32nm Fertigung ist auch mit Blick auf die älteren Exynos SoCs (wie 4412) nicht gerade überragend wenn man es in Relation zu TSMC (28nm) stellt. Abseits aller Reibereien gehe ich davon aus das Apple mit Samsung Semi nicht wirklich zufrieden ist (Verfügbarkeit neuer Prozesse) und vor allen deshalb zu TSMC wechselt.


Edit/Ergänzung:
https://www.computerbase.de/2013-07/zwoelf-22-nm-atom-celeron-und-pentium-benannt/

Pentium N3510 (Bay Trail-M) 4C bei 2,00 GHz, 750 MHz GPU, 4,5W SDP sowie 7,5W TDP

Dabei handelt es sich hier um die Variante für Notebooks (inkl. PCIe etc). Bei Bay Trail-T geht die TDP noch mal ein gutes Stück runter.
 
Zuletzt bearbeitet:
Zurück
Oben