News „Trinity“-Desktop-APUs bereits ab Start sehr günstig?

Das was THG dort gemessen haben will erscheint kaum realistisch , der corei5 2450m ist ein 35W TDP Typ und THG will den mit 56W !

Das liegt daran, dass das gesamte Notebook gemessen wird.
Aber ich kann dir eine einfache Erklärung geben wieso Llano und besonders Trinity weniger verbauchen als das Intel System.
amd-turbo-core-3.jpg

Das liegt daran, dass der Turbo III wesentlich besser abgestimmt ist. Besonders in Games kann AMD seinen Vorteil rauskitzeln da die igp wesentlich (scheinbar) effizienter arbeitet.

da die vorherige effizienter war: ja, ein fehlschritt.
Bevor du war Sachen behauptest solltest du mal anfangen etwas zu belegen.
Denn ja FPU lastig verhalten sich die 4 Module mehr einem 3 bzw dual core.. Sobald es aber CPU lastig wird, ist der Trinity mit seinen 4 threads schneller. Und bitte komm jetzt nicht mit den billigen GHZ, weil der Vergleich hat damit nichts zu tun. Die 4 threads können gleichmäßig ausgelastet werden und das spricht für einen Quadcore.
Sobald die mal FMA4 ect unterstützt werden, wird man den Unterschied zwischen quadcore und CMT noch weniger erkennen. Dafür hat man den Vorteil, dass man Platz sparrt und wesentlich flexibler in der Integration ist.(etwas was alayno schon gut erklärt hat in einem anderen Thread).
Und nur zu Info, die Gerüchte über FX Vishera hat nichts mit Trinity zu tun.

Du bist der Meinung das Phenom II deshalb besser ist, weil die Architektur mit Intels Core-Architektur besser vergleichen lässt. Aber in der Vergangenheit hat AMD schon einige Male bewiesen dass wenn sie ihr eigenen Weg gegangen sind, am Ende ausgezahlt hat.

Unendlichkeit schrieb:
Die GPU ist so weit abgespeckt, dass sie im Gegensatz zum A10 auch nicht wirklich Zockertauglich ist und damit nicht mehr bietet als die GPU des Celeron G540.
Als Orientierung kannst du die HD 4000 und HD 3000 nehmen. Die HD 3000 ist so schnell wie der A4. Die HD 4000 ist so schnell wie der A6.
Die Pentium igp ist somit wesentlich langsamer. Die HD 2000 entspricht ca einer onboard igp HD4250.

Wirds die auch mit 3 oder 4 Modulen geben, das "Flagschiff" A10-5800 entspricht ja gerade mal dem FX 4100 (bzw. 4300) und der ist nicht gerade der Reißer ?
Ich würde da echt abwarten. Laut Toms Hardware ist die IPC um 15 % gestiegen. Doch würde ich lieber mehre Test abwarten.
Ich persönlich schätze dass die CPU so schnell ist wie ein Phenom II x4 965 und somit etwas schneller als der FX 4100.

Noch zu Erinnerung, hoffe es ist nicht zu offtopic.
https://www.computerbase.de/2012-07/auch-trinity-basierte-amd-athlon-ii-x4-im-anmarsch/
Interessant könnten auch die Athlon II x4 auf FM2 Basis werden. Das schnellste Model hat ebenso ein offenen Multi. Man denkt nur mal an die Ausstattung der FM2 Plattformen (das auch günstig) und die Tatsache dass Kaveri ebenfalls auf FM2 laufen würden.
Für mich ist FM2 deshalb sehr interessant geworden. Man kann zwar nur bis zu 2 Modulen zurückgreifen, nächstes jahr aber dann auf Athlon II mit steamroller cores zurückgreifen.
Immerhin hat man bei Toms Hardware schon 4,5 ghz erreicht ^^ wenn man bedenkt dass die Llano CPUs (ohne igp) wesentlich günstiger waren, könnte FM2 für viele Budget PC interessant werden.
Somit hoffe ich dass man ebenso die Preise bekannt geben wird :D

Ich konnte mir einfach nicht vorstellen, dass die wesentlich leistungsschwächere Intel HD 4000 auch nur annähernd einen so hohen Stromverbrauch und Herstellungskosten wie die wesentlich schnellere und größere HD7660G
Herstellungskosten habe ich eigentlich gar nicht angesprochen, bzw nicht so verstanden gehabt ^^
Der eigentliche Fortschritt von Trinity ist ja der neue Turbo. Der macht schon einiges aus. Dieser schaut eben dass je nach Anwendung, die CPU oder die igp gepusht wird. Deshalb schafft es Trinity in Games weniger zu verbrauchen.
Wenn man den Desktop HD4000 Test von CB anschaut, sieht man, solange es um herkömmliche Desktop Anwendungen und Grafikanwendungen (igp) geht, ist Llano wesentlich effizienter.
Trinity setzt hier noch einen auf und regelt den Haushalt, so konnte man ja erst richtig im Notebook-Markt mit Intel (Akkulaufzeit) gleichziehen.
Aber ja ich hab die APU jetzt als Produkt eingeschätzt, weniger von den Herstellungskosten
 
Zuletzt bearbeitet:
Perry S. Hilton schrieb:
da die vorherige effizienter war: ja, ein fehlschritt.

Man darf ja wohl entwickeln. Man hat einen neuen Kapitel aufgeschlagen und man würde sicherlich nicht sofort aufgeben. AMD reisst schon noch das Ruder für sich (Phenom I war damals auch ne Katastrophe). Ab Steamroller wirds erst recht interessant. Also abwarten und Tee trinken. :>
 
@ pipip

cpu-lastig? bitte was? die fpu gehört auch zur cpu...

zum thema, dass amd schon früher seinen eigenen weg gegangen ist, was sich am ende auch ausgezahlt haben solle:
ja, zB. beim athlon XP, athlon64...aber da hat es sich von anfang an ausgezahlt und nicht erst am ende. und wieso? weil es offensichtlich (nach damaligen maßstäben - versteht sich) vergleichsweise bessere prozessoren waren als es die bulldozer (trinity) vergleichsweise heute sind. und ausserdem: was ist so falsch daran, eine architektur an der momentan offensichtlich besseren zu messen?

ausserdem: wenn die jetz 1 jahr nach markststart langsam rankommen, bei gleichem vebrauch (um den stromverbrauch an sich gehts mir dabei nich wirklich - mehr um die kühlung und damit das lüftergeräusch; ausser bei prozessoren für mobile geräte natürlich) die selbe leistung wie ein 3 jahre alter phenom II zu erreichen, dann ist etwas schief gelaufen. hätten sie mal diese architektur verbessert und geshrinkt, ständen sie heute leistungsmäßig wesentlich besser da als mit diesem unfalldozer...

um die IGP geht es mir überhaupt nicht, dass amd zweifellos in der lage ist, gute GPUs zu bauen streite ich doch garnicht ab. ich beziehe mich nur auf den cpu teil.

@ Lunerio

ja man darf entwicklen. aber bitte im labor und nicht im gehäuse vom endverbraucher.


zu Pentium 4 zeiten hätte es so eine andauernde diskussion garnicht gegeben: der P4 war einfach überall unten durch und absolut indiskutabel. kein mensch hat damals in einem fachforum auch nur ein wort über einen P4 verloren, weil einfach jedem klar war, dass er technisch und preis/leistungsmäßig dem athlon64 niemals das wasser reichen konnte. aber wenns amd mal verbockt, dann werden sie bis aufs blu verteidigt...
 
Zuletzt bearbeitet:
@pipip

Reichen tut mir die Erklärung erlich gesagt nicht weil die Messung ja nicht nur auf die CPU beschränkt ist und 2 verschiedene Plattformen dann auch unterschiedlich verbrauchen und vorallem je nach Einstellung der gesamten Verbraucher des Gerätes. Der Intel Mobile ist in der 35W TDP Klassifizierung auch nicht der stärkste das heisst der noch liegt weit darunter , somit blieben weit über 20-30W Verbrauch am Notebook Gerät selbst hängen . Der AMD ist mit der stärksten Grafikvariante ebenfalls im 35W Segment und der soll gerade wegen der stärksten Grafikvariante 7660G noch unter dem benannten Intel liegen ? Das ist kaum anzunehmen , deshalb ist der Vergleichstest bei THG auch kaum ein realistischer CPU Vergleich.
 
.aber da hat es sich von anfang an ausgezahlt und nicht erst am ende
Was nicht stimmt, da manche instruction sets (3DNOW) oder 64 Bit haben auch erst Jahre gebraucht bis man einen Nutzen davon hatte.
Genauso gab es bei Intel einige Architekturen die ihre Zeit voraus waren. Ja es sind sogar Namhafte firmen eingegangen weil sie der Zeit voraus waren. Einige Integrationen, die als " Errungenschaft" vermarktet werden sind schon aus den 70 iger ect.
Von Anfang an lief es bei vielen Architekturen nicht so rund wie heute der Eindruck gemacht wird.
Kann mich aber natürlich auch täuschen !

was ist so falsch daran, eine architektur an der momentan offensichtlich besseren zu messen?
Sicherlich ist daran nichts falsch. Es kommt nur darauf an wie man etwas vergleicht und ob es sinnvoll ist. Weiteres soll man nicht glauben eine CPU besonders CMT jetzt schon beurteilen zu können. Jeder der irwie mit Produkten ect zu tun hat, weiß dass es Jahre dauert um eine sinnvolle Bewertung abgeben zu können. Es gibt ja ein Grund wieso Leute sich mit soetwas beruflich und Jahre lang beschäftigen. Ein Produkt muss sich nun mal im Markt erst diffundieren.

aber wenns amd mal verbockt, dann werden sie bis aufs blu verteidigt...
Das sehe ich so gar nicht. Schau doch mal im Foren rein. Die meisten die sich gar nicht ernsthaft damit beschäftigen sagen Bulldozer ist schlecht. Begründungen findet man dann aber immer die gleiche "Gaming" oder zu hoher Verbrauch unter Last.
Nur ist Trinity eben für den Desktop und für Notebooks designed worden und nicht für Server und ist deshalb nicht 1 zu 1 mit AM3+ zu vergleichen. Immerhin hat man hier mehr Freiheiten sich anzupassen, dann finde ich es fair, wenn man Trinity nach seinem Können und nicht Vorurteilen die von anderen Produkten kommen beurteilt.

Reichen tut mir die Erklärung erlich gesagt nicht weil die Messung ja nicht nur auf die CPU beschränkt ist und 2 verschiedene Plattformen dann auch unterschiedlich verbrauchen und vorallem je nach Einstellung der gesamten Verbraucher des Gerätes.
Ich hab schon gesagt, ich konnte leider noch nichts besseres als Notebook vergleich liefern. Da aber der Turbo III auch im Desktop vorhanden ist, und man sieht dass die quadcore Varianten mit HD4000 wesentlich mehr verbrauchen als Llano wird das Bild nicht viel anders sein.
Vllt hat man aber im Desktop auf Lasten des höheren Takt nicht mehr so einen Sweetpoint und Trinity ist nicht wesentlich effizienter, sobald es um das Gesamtprodukt geht, weiteres muss man sich ja gegen die IB i3 schlagen.

Der AMD ist mit der stärksten Grafikvariante ebenfalls im 35W Segment und der soll gerade wegen der stärksten Grafikvariante 7660G noch unter dem benannten Intel liegen ? Das ist kaum anzunehmen , deshalb ist der Vergleichstest bei THG auch kaum ein realistischer CPU Vergleich.
Was heißt CPU test lol ? Es geht ja ums gaming mit der igp und hier spielt die igp eine wichtiger Rolle (Ausnahme natürlich sehr CPU lastige Games)
Falls der Turbo nicht klar ist, die CPU wird auf Basis Clock oder niedrigeres getaktet dafür wird die igp gepusht. Wenn also die Balance passt verbraucht man weniger.
Anders bei Intel, kann gut sein dass die Teillast höher liegt und die igp auf vollast ist und deshalb mehr verbraucht. Dazu muss man einfach mehr Tests abwarten die sich mit dem Thema beschäftigt.
Unrealistisch ist es zu mindestens sicher nicht, AMD hat sich damit halt wahrscheinlich länger beschäftigt und hat mit Games und Treiber einfach mehr Erfahrung.
 
Zuletzt bearbeitet:
Perry S. Hilton schrieb:
ja man darf entwicklen. aber bitte im labor und nicht im gehäuse vom endverbraucher.

Du hast anscheinend schon das Chipsatz-Debakel von Intel vergessen! Du misst mal wieder mit zweierlei Maß!
Die anderen Punkte kommentiere ich nicht mehr, das hat pipip schon ganz gut gemacht.
 
@pipip

Die 56W Gesamtverbrauch auf dem Notebook suggerieren das der Intel im CPU-Teil auf Volllast läuft bei dem Metro 2033 Benchmark und auf dem AMD Notebook nur der Grafikteil unter Last steht und du willst mir jetzt nicht ernsthaft sagen das der Sandy Bridge dort soviel schuften muss ? Das der Sandy Bridge mit seinem Gesamtverbrauchs Budget (CPU+GPU) sicher noch weiter unter 35W bleibt , soweit waren wir ja schon.
 
Voyager10 schrieb:
Das was THG dort gemessen haben will erscheint kaum realistisch , der corei5 2450m ist ein 35W TDP Typ und THG will den mit 56W ! gemessen haben ? da stellt sich doch die Frage nach der Messmethode.

Messmethode ist ohne Akku und mit externen Display gemessen an der Steckdose.

Vielleicht ist u.a. Turbo Boost 2.0 schuld. Ab Sandy-Bridge kann die TDP kurzzeitig überschritten werden.

Warum sollte die Messung falsch sein? Bei den anderen Messungen während des Tests kommt der 2450m beim Videoplayback auf 15,7W (Trinity auf 24,3W) und beim Web Browsing Benchmark auf 16,9W (Trinity 16,3W). Da sieht es also wesentlich besser aus. Kann ja durchaus sein das Gaming ein absoluter Worst-Case ist. Möglicherweise ne Schwachstelle in der Architektur, die man erst mit Haswell behebt. Würde dann nämlich auch die riesige Effizienzsteigerung beim 10W Haswell vs. 17W Ivy beim Heaven-Benchmark erklären.
 
Ab Sandy-Bridge kann die TDP kurzzeitig überschritten werden.

Soweit ich weiss wird das Budget zwischen CPU und GPU nur geteilt , das heisst die HD3000 kann etwas mehr verbrauchen wenn die CPU nicht ausgelastet ist aber die TDP Grenze wird dabei nicht überschritten. Das Problem hier ist aber , die genannte Mobil CPU ist nichtmal die stärkste Variante in der TDP Klassifizierung und sollte trotz Volllast die 35W Grenze noch nichtmal annäherd erreichen. Sagen wir also mal klar der Verbrauch des Sandy Bridge unter dem Metro Bench liegt immernoch knapp unter 30W mit voll ausgelasteter Grafik und eher gering ausgelastetem CPU Teil zwecks der höheren Rechenleistung, da bliebe also immernoch 26-30W am Gerät hängen wenn man der THG Folie glaubt.
Der AMD ist unter genannten Benchmark ebenso ausgelastet , die Grafik voll und die CPU Teillast (vll. etwas mehr da die Rechenleistung im Gegensatz zum Intel geringer ist) was bedeutet der Prozessor lastet sein Budget mind. ebenso hoch aus und sollte ebenso bei um die 30W Verbrauch sein, dann bliebe noch 14W am Gerät hängen und das ist hier nur die Hälfte der Intel Plattform !
Das gibt doch sehr zu denken wenn man das mit den anderen Tests vergleicht , da sieht man diesen hohen Plattform Verbrauch auf dem Intel nichtmehr, der ist da garnicht existent.
Daher meine Schlussfolgerung , der Grafik Verbrauchs Test bei THG mit dem pipip argumentiert ist Grütze.
 
Zuletzt bearbeitet:
Voyager10 schrieb:
Soweit ich weiss wird das Budget zwischen CPU und GPU nur geteilt , das heisst die HD3000 kann etwas mehr verbrauchen wenn die CPU nicht ausgelastet ist aber die TDP Grenze wird dabei nicht überschritten.

Ab Sandy-Bridge kann die TDP kurzzeitig überschritten werden.

Hab mal nach nem anderen Test gesucht.
AnandTech: Notebook mit i7-2820QM (TDP 45W)
Bei 3DMark06 wird bis zu 70W Verbrauch gemessen.
Bei Cinebench 11.5 SMP sogar bis 89W.
Internet: bis 31W
H.264 Playback: bis 21W
Idle 13W.

Das sieht also auch nicht unbedingt "besser" aus.
 
Voyager10 schrieb:
Soweit ich weiss wird das Budget zwischen CPU und GPU nur geteilt , das heisst die HD3000 kann etwas mehr verbrauchen wenn die CPU nicht ausgelastet ist aber die TDP Grenze wird dabei nicht überschritten...

Dann solltest du dich besser schlaumachen, anstatt hier halbwissende Vermutungen ins Forum zu stellen.
Bei Turbo Boost 2.0 kann die TDP in den "Burst Mode" schalten und so die TDP kurzzeitig überschreiten.
 
@ Matzegr

Der Test sagt aber nicht aus das der Quadcore mit seiner Grafik über die 45W hinausgeht zumal der CPU Test ein höheren Plattform Verbrauch hat und zweitens könnte der CPU Test alleine die 45W Grenze erreichen, der Rest ist Plattform.
Das überzeugt aber noch nicht weil schauen wir uns doch einfach mal die andere Seite an , haben die dort einen Vergleichslaptop mit einer A10-4600M mit einer 3DMark06 Verbrauchsmessung mit nur 43W auf der Webseite ? Ich hab dort nur einen Laufzeit pro Wattstunden Test unter Lastszenarien gefunden , da rangiert die A10-4600M trotzdem unterhalb von Sandy Bridge.
Der Verbrauch dürfte da sicher höher sein weil ich kaum glaube das unter Auslastung die AMD Plattform mit ca. nur 15W Däumchen dreht während die Intel Plattform doppelt soviel verbraucht.

@ Athlonscout

Bei dem vom Matze genannten Grafik Testszenario wird da eben nichts überschritten , der Verbrauch liegt sogar noch unter dem CPU Test.
 
Zuletzt bearbeitet:
DinciVinci schrieb:
Du hast anscheinend schon das Chipsatz-Debakel von Intel vergessen! Du misst mal wieder mit zweierlei Maß!
Die anderen Punkte kommentiere ich nicht mehr, das hat pipip schon ganz gut gemacht.

was hat denn bitte jetz irgendein chipsatzdebakel von intel damit zu tun?
dann halt nochmal extra: wenn intel wieder einen chipsatz entwickelt, dann bitte im labor und nicht beim kunden.
und falls es noch zu frage steht: ich bin weder intel noch amd fanboy, ich lobe und beschimpfe produkte ganz nach ihren höchsteigenen spezifikationen und leistungsdaten unabhängig vom hersteller. ich dachte eigentlich, dass das spätestens nach der hasstirade gegen den pentium 4 klar gewesen wäre. nicht-fanboys, sowas gibts ja hier offiziell nicht lol
wo messe ich denn bitte mit zweierlei maß? was ist denn das für eine polemik auf unterstem niveau, na hör mal...
 
Zuletzt bearbeitet:
Voyager10 schrieb:
@ Matzegr

Der Test sagt aber nicht aus das der Quadcore mit seiner Grafik über die 45W hinausgeht zumal der CPU Test ein höheren Plattform Verbrauch hat und zweitens könnte der CPU Test alleine die 45W Grenze erreichen, der Rest ist Plattform
....
Ich hab dort nur einen Laufzeit pro Wattstunden Test unter Lastszenarien gefunden , da rangiert die A10-4600M trotzdem unterhalb von Sandy Bridge.

Tom's Hardware: Metro 2033: 55,8W Verbrauch bei ner 35W TDP CPU.
Verbrauch ist also um den Faktor 1,59 höher als die TDP Angabe der CPU

AnandTech: 3DMark 06: 70W Verbrauch bei ner 45W TDP CPU.
Verbrauch ist also um den Faktor 1,55 höher als die TDP Angabe der CPU.

Also durchaus Vergleichbar. Sobald Intels iGPU bei Sandy-Bridge belastet wird ist es Essig mit der Effizienz.

Verlassen wir mal den Mobil-Bereich und gehen zu Desktoplösungen, da sehen wir das Selbe.

Dies mal Hardwareluxx: AMDs A6-3650 (TDP 100W) vs. i5-2500K (TDP 95W)

Bei Performance pro Watt über alle Benchmarks (Anwendungen und Grafik) liegt der i5 vor dem Llano.

Aber schauen wir uns mal das Ganze nur für den Grafikbenchmark an.

Bei Metro 2033 (1024x768, DX9, low (integrierte Grafik)) kommt der Llano auf 31,67 fps der i5 auf 28,68 fps also durchaus Vergleichbar.

Stromverbrauch (Gesamtsystem)
Idle/Last:
Llano: 41,7W/77,5W
i5: 42,8W/92,4W

Hier sehen wir auch, Llano ist bei vergleichbarer Grafikleistung deutlich Effizienter als nen Sandy-Bridge.

Von daher kann man es schon glauben, dass beim von Pipin verlinkten Test Trinity beim Metro-Benchmark 12W weniger braucht als der Sandy-Bridge bei gleicher Grafikleistung.
 
ich würde vorschlagen wir warten mal ab bis die endgültigen Trinity Tests kommen!
Das Chipsatzdebakel ist aber nicht zu verleugnen incl. der Board-Rückrufaktionen Anfang 2012!
AMD besticht letztendlich mehr durch sein gutes Preis-Leistungsverhältnis und durch seine Fehlerfreiheit in Verbindung mit Boards und Chipsätzen! Dennoch ist die Leistung mit Intel CPU´s in Verbindung mit Chipsätzen& Boards in vielen Bereichen wesentlich schneller!
In punkto Leistungsaufnahme kann ich nur beisteueren das ich mit nem ATX Netzteil ner SSD und nem AMD A4-3300 neulich ohne VCore Reduktion IDLE bei 32Watt (Gesamtsystem) lag ohne Spannungsreduktion!
 
Zuletzt bearbeitet:
Naja zumindest die Preise von den 1 Modulern empfinde ich nicht gerade als Schnäppchen.
Die 2 Moduler haben dagegen ganz ansprechende Preise.
 
Uninterassant für mich solang der Preis nicht fällt und die CPU der Geschwindigkeit eines Intels angepasst wird. Mit Haswell wird auch hier AMD zu knabbern haben. Fazit: völlig uninteressant für mich.

Ja, Trinity ist zu teuer. Passt nicht. Und man beachte wie schnell das bei AMD geht. Der Käufer eines Llano muss sich verarscht vorkommen. Das Ding ist eh im Endeffekt: Trinity ist genau so ein fu**** Joke wie der Vorgänger. Traurig eigentlich.

Und am Besten ist die Headline. Genau so billig. Ja, billig im Vergleich der Architekturen zu Intel. Der Preis von AMD ist zu TEUER!

Und ich bin kein Hater. Ich würde zur Zeit ne AMD GPU kaufen;)
 
Zuletzt bearbeitet:
Matzegr schrieb:
Als Test wär mal intereressant was nen 1 Modul Trinity gegen nen 2 bzw. 3 Kern Llano leistet.

Ich glaube das diese Tests wenn überhaupt erst in einem halben Jahr kommen.
Zuerst stürzen sich die ganzen Tester erst einmal auf die "High-End" Modelle... :rolleyes:

Noch dazu wüsste ich momentan nicht, wessen Tests ich Ernst nehmen kann, muss mich da mal neu Orientieren, weil CB liefert in letzter Zeit immer reichlich gefärbte Tests ab... :rolleyes:

Vielleicht schau ich mir mal Anandtech und tomshardware an...

PS:
Laut dieser Quelle ist der A6-5400 ein K Modell:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1348063599

Auf jedenfall könnte der A6-5300 auch etwas für mein NAS werden.
8 Sata Ports mjam!
 
Zuletzt bearbeitet:
Zum Thema Effizienz:

Es ist nicht ungewöhnlich, dass eine CPU unter Last mehr verbraucht und gleichzeitig unterm Strich doch effizienter ist. Nämlich dann, wenn sie auch entsprechend leistungsfähiger ist.

In den allermeisten Fällen berechnet man ja in der Praxis nicht wie in einem synthetischen Benchmark sinnlose Endlosschleifen, sondern eine Berechnung ist auch irgendwann abgeschlossen und dann kann die CPU sich wieder in den Schlafmodus legen, bis die nächste Rechenaufgabe ansteht.

Tatsächlich gibt es einige Beispiele für Notebooks mit Sandy Bridge oder Ivy Bridge CPUs, die unter Last mehr verbrauchen (und dadurch heißer werden) als ihre Arrendale- oder Core2-Vorgänger, aber trotzdem deutlich längere Akkulaufzeiten hinbekommen (MBA, M11x R3 usw.).

Spiele, speziell CPU-limitierte, sind wiederum ein Sonderfall und hinsichtlich der (i)GPU insgesamt Grafikanwendungen. Die münzen mehr CPU- und GPU-Leistung in mehr FPS um, statt Idlezeiten zwischenzuschieben.
Das ist natürlich für die Akkulaufzeiten der stärkeren CPU/GPU schlecht. Da muss man dann mehr FPS gegen mehr Akkulaufzeit abwägen.

Wobei Trinity es offenbar z.B. in Metro, also GPU-limitierten Situationen, schafft, sowohl leistungsfähiger als auch sparsamer zu sein, als eine Intel-CPU mit iGPU. Das ist offensichtlich einfach eine Stärke der APUs.

Auf jeden Fall kann man nicht einfach momentanen Spitzenverbrauch in reale Akkulaufzeit oder Effizienz umrechnen. Die Sache ist um einiges komplexer.
 
@derGrimm: Sich auf eine Quelle zu verlassen, ist niemals gut! Lies einfach 5-6 verschiedene Reviews zu den Prozessoren und bilde Dir dann selbst eine Meinung.
 
Zurück
Oben