News Neue 17-Watt-Trinity A4-4355M und A8-4555M enthüllt

Hier ist der Artikel zu dem Balkendiagram:
http://www.anandtech.com/show/5831/amd-trinity-review-a10-4600m-a-new-hope/6

Es ist tatsächlich ein i7 (3720QM), mit dem die Trinity-APU verglichen wird, aber andererseits ist die A10-APU ja auch AMDs Flagschiff in dem Segment.

Dass AMD in der Regel deutlich günstiger ist, ist unbestritten. Das muss man bei der Bewertung dieser Ergebnisse im Hinterkopf haben. Aber in erster Linie geht es ja erstmal um die Bewertung der technischen Daten. Der Preis ist dann eine Variable, die bei der Kaufentscheidung zusätzlich mit dazu kommt.

Zu Ned Flanders Beitrag muss ich noch sagen, dass es nicht ganz fair ist, bei der CPU-Leistung eine Grenze zu ziehen, ab der man (angeblich) nicht mehr braucht, aber bei der GPU nicht.

So wie ich das sehe, sind bei typischen Anwendungen (nicht Spielen) auf Notebooks die Anforderungen an die GPU meist mindestens ebenso moderat, wie die an die CPU.

Aber während eine schnellere CPU sich wenigstens noch in eingesparten Sekundenbruchteilen niederschlagen, hat man von einer GPU, die im Desktop-Betrieb (Office, Webbrowsing usw.) mehr als 60 FPS leisten könnte, gar nichts.
Genauso sieht es aus, wenn man z.B. ein 24p HD-Video wiedergibt. Da muss die GPU nur die 24 Bilder pro Sekunde auf den Schirm bringen (und dafür reicht auch ein alter Arrendale-ULV mit HD-Grafik aus). Noch mehr GPU-Leistung bringt einem da gar nichts.

Es ist also rein situationsabhängig, ob man gerade vonmehr CPU- oder von GPU-Leistung profitieren würde. Es gibt beide Fälle.
 
Da es keine FX in dem Bereich von AMD gibt ist i7 Mobile vs. Trinity Mobile noch n fairer Vergleich, wobei man eben den Preis nicht vergessen darf.

Mich würde mal die Settings von L4D2 interessieren weshalb der Intel da so zulegt, bei Portal 2 hingegen nicht... ist aber fast die selbe Engine.


Für den reinen Desktopbetrieb und Filme braucht man wohl tatsächlich keinen Trinity, das packt sogar mein 4500HD noch locker. Aber der Spieltrieb existiert nun mal und da kommt mein jetziges Notebook immer wieder an die Grenzen, obwohl ich nichts wirklich anspruchsvolles drauf starte. Hätt ich damals halt doch die Version mit extra Grafikchip genommen... hinterher ist man immer schlauer, damals hab ich die Entscheidung noch verteidigt.
 
Herdware schrieb:
Aber während eine schnellere CPU sich wenigstens noch in eingesparten Sekundenbruchteilen niederschlagen, hat man von einer GPU, die im Desktop-Betrieb (Office, Webbrowsing usw.) mehr als 60 FPS leisten könnte, gar nichts.
Genauso sieht es aus, wenn man z.B. ein 24p HD-Video wiedergibt. Da muss die GPU nur die 24 Bilder pro Sekunde auf den Schirm bringen (und dafür reicht auch ein alter Arrendale-ULV mit HD-Grafik aus). Noch mehr GPU-Leistung bringt einem da gar nichts.
Ein Notebook kauft man nicht für den Moment, sondern für mehrere Jahre mit einem eventuellen Verkauf. Eine hohe GPU-Performance bedeutet zugleich eine hohe GPU-Effizienz, was sich mit steigenden OpenCL & GPGPU-Marktdurchdringung zu immer besseren Akku-Teillast-Zeiten führt.

Ich sehe es schon als Erfolg, wenn wenn wenn die GPU-Performance und zumindestens Idle-Akku-Zeiten beim A8-4555 vor der Konkurrenz liegt. Das müssen noch die Daten & Tests zeigen. Die Krönung wäre gleichlange Akku-Zeiten @ Teillasten (Internet & Office) wie bei der 35W-TDP-Plattform.

A8-4555M muss nicht auch noch in CPU-Performance vor Intel liegen und überall besser sein, um als Gleichgutes Produkt angesehen zu werden. Wenn man bedenkt, wie langes es dauert, bis die hochselektierte Neo-Plattform es auf dem Markt brachte, ist die jetztige 17W-TDP-Plattform verdammt schnell am Markt gekommen.
 
Ich weiß jetzt nicht genau wie viel Max Payne 3 tatsächlich fordert (hab blos grad den PCGH Test da mit 1920x1080 full detail) aber mit mittleren Settings auf der kleineren Aulfösung sollte das flüssig laufen.
 
aylano schrieb:
Klar, wenn man Low-End (Brazo & A6-4455) mit Intel-Elite vergleicht, dann entsteht dieser verdrehte Eindruck a la 0,73 vs. 2,11.

naja was erwartest du... es ist allein wegen 22nm zu 32nm schon ein Ungleichgewicht vorhanden dass AMD schwer ausbügeln kann (hauptsächlich durch den Preis wie schon fast immer). Dazu braucht man keine CB werte anschauen die in den Augen vieler ja eh Mumpitz sind wegen FPU Fokus.

Zudem braucht man keinen Brazo mit einem i7 IB vergleichen, ist mir im Übrigen selbst klar dass dieser Vergleich Schwachfug ist, auch wenn beide einen ähnlichen Verbrauch aufweisen.

Stellt sich die Frage wieso er Unsinn ist. Schlicht weil 40nm und eine 2 Jahre alte Plattform gegen eine neue 22nm Plattform stehen. Wenn dann mann man am ehesten die 17W Trinity Modelle gegen die Intel ULV Riege stellen.

Dass AMD hier grafiktechnisch in etwa gleichziehen bis vorlegen kann ist offensichtlich, darauf konzentriert sich AMD ja auch. CPU technisch wird man aber auch weiterhin deutlich abgeschlagen agieren.

Der A6 mag kein ganz günstiger Vergleich sein, imho hat dieser nur ein Modul bei 17 W TDP. In AMDs Augen ist das aber ein Zweikern. Am ehesten könnte man diesen wohl noch mit den kleinen Pentiums vergleichen.

Man kann die CPUs leistungstechnisch dort einordnen wo sie nachher auch preislich zu finden sind. Ganz einfach.

Mit AMDs APU wird man sicher besser zocken können. Ich denke das muss man hier gar nicht groß in Frage stellen.
 
aylano schrieb:
... Eine hohe GPU-Performance bedeutet zugleich eine hohe GPU-Effizienz, was sich mit steigenden OpenCL & GPGPU-Marktdurchdringung zu immer besseren Akku-Teillast-Zeiten führt. ...

Ich sehe keine großen Chancen, dass GPGPU und Co. sich im PC-Bereich in absehbarer Zeit durchsetzen werden, wo doch, wie du selbst auch bestätigst, an x86-Rechenleistung so gut wie nie Mangel herrscht.

Wenn fast alles sogar auf den verhältnismäßig langsamen CPU-Teilen der APUs ausreichend schnell läuft, werden sich die Entwickler nicht auf neue Technologien wie GPU-Beschleunigung stürzen. Erst Recht nicht auf sowas wie HSA, wo Intel mit seinen über 80%-Marktanteil nicht mit im Boot sitzt.
Man bewegt sich gewöhnlich nur dann abseits der ausgetretenen Pfade, wenn es unbedingt nötig ist und ausreichend weh tut.

Bei Tablets und Smartphones, wo die vergleichsweise schwachen ARM-CPUs schnell an ihre Grenzen stoßen, sieht es anders aus. Da ist GPU-Beschleunigung schon heute allgegenwärtig.
 
Krautmaster schrieb:
naja was erwartest du... es ist allein wegen 22nm zu 32nm schon ein Ungleichgewicht vorhanden dass AMD schwer ausbügeln kann (hauptsächlich durch den Preis wie schon fast immer). Dazu braucht man keine CB werte anschauen die in den Augen vieler ja eh Mumpitz sind wegen FPU Fokus.
Kein Mensch versteht, warum du in einem A8-4555-Thread diesen mit Brazos & 1-Modul-Trinitys schlechtredest.

Man kann die CPUs leistungstechnisch dort einordnen wo sie nachher auch preislich zu finden sind. Ganz einfach.
"Komischerweise" liegt der zukünftige Erfolg der Ultrabook nur in günstigen CPU-Preisen.
Die meisten Leute wollen keine viel zu hohe CPU-Performance, sondern eine gute CPU-Performance bei leichten & dünnen Geräten zu günstigen Preisen.

Herdware schrieb:
Ich sehe keine großen Chancen, dass GPGPU und Co. sich im PC-Bereich in absehbarer Zeit durchsetzen werden, wo doch, wie du selbst auch bestätigst, an x86-Rechenleistung so gut wie nie Mangel herrscht.
Dir ist wohl die Entwicklung der letzten 1,5 Jahren entgangen.
Diese Sprüche hörte ich genauso aus dieser Zeit. Damals gab es aber keine GPGPU-Beschleunigung in Browser, Photoshop und AutoCAD. Und wer das nur andachte, wurde eh gleich als Fanboy bewertet. Alles vor deiner Zeit hier im registrierten Modus.

GPGPU bedeutet nicht, dass x86 nie gebraucht wird.
Nur verliert x86 wegen GPGPU die Priorität, die sie heute hat. Wobei heute x86 wegen ARM und die x86-Performance wegen ausreichender CPU-Performance @ Normalo-Consumer auch heute mehr diese Bedeutung hat, die sie in den 00er-Jahren gehabt hat.

Tablets & Smartphone sind auch ohne x86 oder der UltraMega-Intel-CPU-Performance kometenhaft aufgestiegen. Das einzige was den Durchbruch in Netbook & Desktop & Notebook verhindert haben, war der non-ARM-Win8.
Der Durchbruch des Smartphones begann mit iPhone 1 mit einen Megaschwachen-CPU-Kern alias 667-MHz-ARM-1176-Prozessor.
Genauso die Netbooks, die damals mit schwacher CPU-Performance einen Hype auslöste, und mit momentan weiterhin schlechten GPU & Flash-Fähigkeiten & Performance die Netbooks zum sterben brachte.
 
aylano schrieb:
Kein Mensch versteht, warum du in einem A8-4555-Thread diesen mit Brazos & 1-Modul-Trinitys schlechtredest.

Ähm, es geht hier um:

A8-4555M mit 2 Modulen und 4 Threads
A6-4455M mit einem Modul und 2 Threads
A4-4355M mit einem Modul und 2 Threads


Zum Thema GPGPU:

Ich hab noch im Kopf, wie zu Core2Duo Zeiten immer zum Quad geraten wurde, aufgrund der besseren Zukunftsaussichten und wo sind wir heute:

Ein Pentium G860 mit nur 2 Threads bietet einem Q9550 im Spielesektor Paroli (und der Q9550 wird immer noch für >120€ gebraucht bei ebay verkauft).
 
aylano schrieb:
...Dir ist wohl die Entwicklung der letzten 1,5 Jahren entgangen.
...

Die müssen mir wirklich entgangen sein. ;)
Obwohl ich schon viele Jahre in vielen Foren unterwegs bin, viele Fach-Websites besuche und (bis vor Kurzem) auch viele Fachmagazine verschlungen habe, dann noch die berufliche Erfahrung usw.

Ich nehme es immer noch so wahr, dass man (abseits von Tablets und Co.) einfach keinen Unterschied merkt, ob ein Browser oder die UI eines OS usw. GPU-Beschleunigt ist oder nicht. Ich halte das für eine Spielerei.
(Hab GPU-Beschleunigung bei Opera gerade erst kürzlich aktiviert und ich bemerke nichts davon.)

Ich sehe auch, dass in nicht wenigen Firmen und auch vielen Privathaushalten immer noch mit XP gearbeitet wird (Win7 ist mit unter 50% ja gerade erst zum verbreitestens Windows geworden), mit dem grundsätzlich fast keine GPU-Beschleunigung funktioniert und keiner vermisst es. GPGPU ist jedenfalls so ziemlich das letzte Argument, mit dem sich jemand überreden lässt, von XP auf Win7 oder 8 zu wechseln.

Man braucht das weder für den Browser noch fürs Office oder so gut wie jede andere Anwendung. Wie gesagt, es ist einfach mehr als reichlich x86-Leistung vorhanden, dass es nirendwo hakt.

Natürlich brauchen Spiele viel GPU-Leistung in Form von 3D-Beschleunigung (Physix und Co. haben sich hingegen nicht durchgesetzt), oft mehr, als auch die besten APUs bieten können.
Außerdem gibt es einige spezielle, halbwegs verbreitete Anwendungen, die für GPGPU besonders geeignet sind. Speziell Videoencoding. Aber da hat Intel mit Quick Sync AMD und Nvidia mal eben die Butter vom Brot genommen. Solche dedizierte Speziealhardware ist dafür nochmal deutlich besser geeigent, als die schiere massiv parallele Shader-Power von GPUs.

Außerdem kann man auch die x86-Architektur um diverse GPU-Stärken erweitern. AVX2 geht z.B. in diese Richtung.

Ich sehe es deshalb absolut nicht so, dass es einen starken Trend zu GPGPU und damit zu APUs gibt. Den reden sich AMD und Nvidia eher nur selbst herbei.

APUs sind in der Realität für die heutige Kundschaft einfach nur günstige CPUs mit besonders leistungsfähiger integrierter GPU, so dass auch mal das eine oder andere anspruchslosere Spielchen drin ist. Aber abseits davon, liegt die GPU-Power weitgehend brach.
 
RuhmWolf schrieb:
Ähm, es geht hier um:
A8-4555M mit 2 Modulen und 4 Threads
A4-4355M mit einem Modul und 2 Threads
Aber A8-4555M wird jetzt nicht in der CPU-Performance besser dargestellt, indem man sie mit dem Atom vergleicht.

Das Problem ist immer die selbstverständliche Ansicht, dass AMD immer sofort und gleichwertig kontern muss. Das nervt und hat wenig mit Technischen Wissen zu tun. AMD hat als kleineres Unternehmen nicht die R&D-Ressourcen wie Intel und daher dauert das bei ihnen etwas länger. AMD ist mit dieser Plattform im ULV-Markt noch nie so gut vertreten wie jetzt mit A8-4555 trotz Rückstand eines Fertigungs-Node.

Und wenn CPU-Performance den Verkauf-Erfolg definiert, dann sollten im Media-Markt längst mehr Ontario-Netbooks (=größere Auswahl der besseren) zu finden sein. Aber das entspricht nicht der Realität.

Grundsätzlich geht es nicht nur AMD-Ultrathin gegen Intel-Ultrabook.
Ein günstiges AMD-Ultrahin-Notebook tretet genauso gegen Intels-Celeron & Pentiums & Core i3 an, wo sie besser aussehen, als die Elite-Intels-Ultrabooks-CPUs. Und das ist nicht unwesentlich, weil man in einem Normalo-Geschäft nicht unendliche Auswahl hat.

Herdware schrieb:
Ich nehme es immer noch so wahr, dass man (abseits von Tablets und Co.) einfach keinen Unterschied merkt, ob ein Browser oder die UI eines OS usw. GPU-Beschleunigt ist oder nicht. Ich halte das für eine Spielerei.
(Hab GPU-Beschleunigung bei Opera gerade erst kürzlich aktiviert und ich bemerke nichts davon.)
Der Mensch empfindet grundsätzlich immer alles Eponentiell. Doppellte Schallleistung nimmt man gerade noch war. Eine gesteigerte Strom-Effizienz-Steigerung nimmt der Mensch auch schwer wahr.
OpenCL hat erst gerade so richtig begonnen. AMD selber forciert die OpenCL-Treiber-Entwicklung erst seit 2,5 Jahren.

Ich sehe es deshalb absolut nicht so, dass es einen starken Trend zu GPGPU und damit zu APUs gibt. Den reden sich AMD und Nvidia eher nur selbst herbei.
Smartphone & Tablet ist voll im OpenCL Trend und schwappt früher oder später in den Desktop & Notebook & Server-Markt. Genauso, wie das jetzt mit ARM gerade passiert.
Wobei man im HPC-Markt ohne GPGPU schon längst nicht mehr an die Spitze der Top500-Liste mehr kommt.

APUs sind in der Realität für die heutige Kundschaft einfach nur günstige CPUs mit besonders leistungsfähiger integrierter GPU, so dass auch mal das eine oder andere anspruchslosere Spielchen drin ist. Aber abseits davon, liegt die GPU-Power weitgehend brach.
OpenCL @ GPU wird erst seit Ive-Bridge unterstützt. Somit ist die Hardware-Basis von OpenCL über die gesamte Breite gegeben. Wenn man schon APU durch Llano bewertet, sollte man nicht ignorieren, dass dieser wegen Fertigungs-Problemen Startschwierigkeiten hatte und dass z.B. damals die Akku-Zeiten @ Idle noch geringer waren.

Was die uninformierte Kundschaft von Llano hält, ist langfristig irrelevant. Es dauert halt bei diesen Länger, bis sie die Stärken von APU sehen. Genauso wie hier viele über einige Jahre begreifen musste, dass absolute CPU-Performance bei weitem nicht das wichtigste ist und heute die Zukunft in 2-Core-Ultrabooks und nicht 4-Core-Notebooks liegt.
 
Zuletzt bearbeitet:
Herdware schrieb:
Zu Ned Flanders Beitrag muss ich noch sagen, dass es nicht ganz fair ist, bei der CPU-Leistung eine Grenze zu ziehen, ab der man (angeblich) nicht mehr braucht, aber bei der GPU nicht.

Aber während eine schnellere CPU sich wenigstens noch in eingesparten Sekundenbruchteilen niederschlagen...

Genau deswegen habe ich das ja konkret dargelegt. Ich mach mit diesen Geräten halt nicht nur Word und Facebook sondern halt auch Image J, Amira und Velocity.

Wenn ich einen 3D Stack in 1024x1024x100 @ 30fps dann eben nicht mehr flüssig darstellen kann weil einfach weder der Intel Treiber noch die Performance dies hergeben, dann kann ich mit dem Gerät nicht arbeiten. Bei den AMD APUs klappt das aber wunderbar und sogar noch besser mit der Hybrid Crossfire Lösung wie in diesem Gerät.

Andersrum, mache ich auch Exel mit sehr großen Dateien (60mb und mehr) und Bildbearbeitung mit PS sowie encodieren und schneiden von Videos (virtual Dub)

Da wäre eine Intel Lösung sicherlich ein paar % Schneller, das schlägt sich aber null nieder weil entweder es nur 1 Sek dauert wobei der Intel dann eventuell im besten Fall nach einer dreiviertel sekunde fertig wäre (WoW!) oder ich eben eh was anderes machen muss weil das rendern eben >5min dauert. Ich langweile mich in der Zeit aber nicht. Ich hab nen haufen Zeug zu tun.

Grundsätzlich: Wer an seinem Rechner >2 min auf ihn wartet, der hat einfach grundsätzlich das falsche Arbeitsgerät, oder ist selbst vom Gehirn her nur ne in-order single Thread Architektur. Ist ja nicht so als könne man nichts anderes nebenher tun.
 
@aylano

wo gehts denn schon wieder ums schlecht reden? :rolleyes:
Immer die gleiche Leier mit dir.

Wenn man so will habe ich den wie ich finde "veralteten" Brazos in 40nm aus deiner Schussbahn genommen da du wieder mit absurden überdrehten Werten um dich wirfst

aylano schrieb:
Klar, wenn man Low-End (Brazo & A6-4455) mit Intel-Elite vergleicht, dann entsteht dieser verdrehte Eindruck a la 0,73 vs. 2,11.

Ich halte, wie gesagt, diesen Vergleich für unangebracht, imho stehen 40nm gegen 32 und 22nm. Der SB ULV ist schon bei 17W deutlich fixer, sowohl bei CPU(Faktor 3) als auch GPU(etwa ähnlich). Genauso aus dem eigenen Haus, der 17W Trinity wird dem Brazos überlegen sein. Deutlich.

AMD führt Brazos weiter da dieser mit ~80mm² und alten 40nm sehr günstig zu fertigen ist und Intels günstigen ATOM in Schach hält bzw mit ihm den Boden wischt.

Das einzige was ich geschrieben habe ist, dass man die ULVs aus dem Hause Intel doch wohl besser dem Trinity 17W Modell gegenüberstellen sollte. Am besten noch einem 2 Moduler, imho gibts ja schon Tests zum kleinen 1 Moduler und da kommt raus dass man CPU Leistungtechnisch weit dahinter liegt, während man bei GPU Leistung etwa der Intel HD4000 gleich zieht.

Der 2M4T Trinity ist in meinen Augen noch der interessanteste ULV Ableger AMDs.

Zudem ist es schlicht einfach realistisch, dass es eine 32nm APU schwer gegen ein 22nm Modell haben wird wenn es um die Effizienz geht.

Edit:

Im Kontext dessen nochmal der Hinweis an dich. Die Welt ist kein Schwarz-Weiß, es geht hier nicht um "gut" oder "schlecht". Weder ist Brazos schlecht, noch ein i5 ULV, noch die neuen Trinity.
Gerade der A8-4555M 2 Moduler mit einer TDP um 20W ist für die Ultrabooks sehr interessant.

Ich bleibe bei meiner Aussage dass es auch diese APU schwer haben wird um mit Intels aktuellen ULV Topmodellen aufnehmen zu können. GPU Leistungstechnisch in etwa. Bei CPU fehlt aber noch n ganzes Stück.

aylano schrieb:
Aber wichtiger sind sowieso die Realen Anwendungen und keine Syntetischen.
Und bei Ultrabook nur CPU-Werte anzugehen ist schon ziemlich witzig, wenn du Leute ja so geil auf Mobilität @ Ultradünn mit geringer TDP und somit langen Akku-Zeiten sind und bewusst auf ultraschnelle Quad-CPUs verzichten.

Das ist durchaus richtig. Nur ist es imho auch ein Fakt, dass bei diesen "Real-Anwendungen" Stand heute hauptsächlich die SingleCore Leistung und die Festplatte-> SSD relevant sind. Hier schlagen sich nun mal 2 schnelle Kerne oft besser als 4 weniger schnelle. Sieht man auch am hohen Turbo der gefahren wird, sowohl bei Intel als auch bei AMD.

Die Differenzierung findet wie fast immer durch den Preis statt.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@aylano

wo gehts denn schon wieder ums schlecht reden? :rolleyes:
Immer die gleiche Leier mit dir.
Immer Witzig von dir.
Sich als Unschuldslamm unwissend darstellen, und gleich danach anderen mit Unwissen die Welt erklären.

Thema ist Trinity A8-4555M und A4-4355M.

Wenn du dann mit
Vergleich Trinity 17W vs i5 3317ULV 17W
daherkommst und dann solche Zahlen zeigts.
0,73 vs. 2,11
dann ist es typisch AMD-Bashing, weil die meisten eben immer mit dem Topmodel alias A8-4555 verbinden. Und nein, ich überprüfe nicht ständig mühevoll mit Zeitaufwand deine Zahlen & Aussagen, um deine "flüchtigkeits" Fehler aufzudecken.

Aber ich erwarte es, dass du es nicht wissen willst/kannst, wenn du nichteinmal einsehen willst/kannst, dass du in AMD-Thrads ständig aufgrund der Off-Topic-Keit herumflames.

Wenn man so will habe ich den wie ich finde "veralteten" Brazos in 40nm aus deiner Schussbahn genommen da du wieder mit absurden überdrehten Werten um dich wirfst
Typisch deine freche Art.
Zuerst Off-Topic (Bocat & Co) den Thread herumzuflamen und dann andere Belehren, wenn sie die Zahlen entsprechend dem Topic sehen.

Ich halte, wie gesagt, diesen Vergleich für unangebracht, imho stehen 40nm gegen 32 und 22nm.
Immer das gleiche.
Wenn ich dein Flasches Spiel aufdecke, wo du Intel anders der Realität x-faches besser darstellt, dann kommt oft der Rückzieher. Du verträgst eh halt nicht, wenn deine Unwissenheit offensichtlich gemacht wird.

Im Kontext dessen nochmal der Hinweis an dich. Die Welt ist kein Schwarz-Weiß, es geht hier nicht um "gut" oder "schlecht".
Ja, Herr Lehrer.
Wie wär es, wenn du mal die Threads Schwarz-Weiß siehst und dich einmal an das Thema haltest, bevor du andere belehrst, die auf deine Fehler aufdecken.
Die Leute wollen was über A8-4555M wissen und nicht warum Trinity ach so schlecht ist, indem du es mit aktuellen Low-End CPUs und Bobcats darstellst.
Wir wissen, dass wenn man deine Falschaussagen aufdeckt, dass du es eigentlich eh anders gemeint hast. Aber sonst sind deine Aussagen immer richtig & Fakt, sodass Kritiker deiner Aussagen immer gleich AMD-Fanboys sind, gell.

Gerade der A8-4555M 2 Moduler mit einer TDP um 20W ist für die Ultrabooks sehr interessant.
Einen ganzen Beitrag mit Trintiy (=2 Modul) schlechtreden, kann man nicht mit solchen Aussagen als non-Bashing-Beitrag neutraislieren.

Kein Mensch vergleicht einen 2-Modul-Trinity mit Ive-Bridge-Celerons und bewertet mit diesem Ergebnis die gange Ive-Bridge-Architektur und vermeldete dieses Ergebnis permanent in Intel-Beträgen. Warum du ständig diese Äpfel-Birne Vergleiche bei AMD machst, weiß keiner.

Die Differenzierung findet wie fast immer durch den Preis statt.
Diesen Satz liebe ich, denn den habe ich zu Zeiten gehört, wo Intel Marktmanipulationen machte. Aber ich weiß, dass ich das ja nicht sagen darf, weil Illegale Marktmanipulationen überhaupt nichts mit Marktpreisen zu tun hat. Wir wissen, dass EU-Richter und Kartell-Richter auf der ganzen Welt AMD-Fanboys sind/waren.

Natürlich gilt deine Aussage auch nicht bei Atom vs. Bobcat, wo der schwächere Atom zu teuren Preisen verkauft wird. Dass es in Märkten mehr Atom-Netbooks verkauft werden als Ontario-Netbooks, gilt auch nicht, weil das deiner Aussage widerspricht und das kann es nicht sein.

Und die Preis-Differenz sieht man auch bei den Ultraschnellen Ultrabooks-CPUs.
Zwar kauft die keiner und Intel versucht den Ultrabooks mit der AMD-Schiene (billige 600$-Ultrabooks) anzukurben, aber das zählt ja auch nicht als Aussage-Killer, weil es ja nicht deine Aussage bestätigt.

PS:
Halte dich in Zukunft einfach mal an den Topics und lerne mal Fehler einzusehen, ohne in unmengen an Posting herumzureden.
 

Ähnliche Themen

Zurück
Oben