Test AMD Temash & Kabini im Test

aylano schrieb:
Es ist einfach beeindruckend, wie Kabini den ULV-Sandy-Bridge blamiert, was man erst so richtig sieht, wenn man auch Stromverbrauchs-Tests ansieht.
Zwar ist er alt, aber erstens war Sandy-Bridge angeblich noch vor 1,25 Jahren das Maß aller Dinge und zweitens sieht man wie gut AMDs Architekturen sind, wenn AMD mal keinen starken Fertigungs-Rückgang besitzen.
Sorry, aber wie kann man nur dermaßen übertreiben? Weil der Kabini einen alten Celeron schlägt, blamiert er gleich den SandyBridge ULV?
SandyBridge war mal das Maß aller Dinge, aber bestimmt dieser extrem abgespeckte Celeron.

Es ist klar, dass AMD hier nen großen Wurf gemacht hat, der wahrscheinlich in Verbindung mit attraktiven Preisen sehr interessant wird. Aber solche Aussagen entbehren doch jeglicher Objektivität.
 
misu schrieb:
@aylano: Argh, wenn du wenigstens den Begriff IPC nicht so dermaßen falsch verwenden würdest. :rolleyes:

Als Programmierer hab ich übrigens für HSA wenig Hoffnung. Letztlich muss man GPGPU aware programmieren, was sehr viel teurer ist als reine CPU-Entwicklung und von nicht allzu vielen Programmiern überhaupt beherrschaft wird.
Vielleicht sehen eben andere Programmierer mehr Sinn dahinter, wenn sie teils noch 3-4 faches rausholen können.
Ich kann mich vor 2 Jahren erinnern, da meinten viele die es anderes sahen als ich, dass nie AMD mit OpenCL & GPGPU anschluss finden wird, weil die Firmen längst auf Cuda aufgesprungen sind.
In kürzerster Zeit gab es ein Wettrennen im Browser-Markt ein Wettrennen um GPGPU-Beschleunigugn und Adobe steigt immer mehr auf OpenCL um. Der Umstieg von OpenCL auf HSA soll ziemlich gering sein.
Und wenn die ganze ARM-Elite in der HSA-Foundation dabei ist, sowie ein bedeutender x86-Chiphersteller, dann braucht man nicht mehr so wirklich Hoffnung.

Loopman schrieb:
Wo siehst du da im Test einen ULV Sandy Bridge???
Weniger in verlinkten Test, mehr im Test über dem wir in diesem Thread egentlich reden.
Die Verlinkung war dazu da, um zu Zeigen, dass sie auch mit aktuellen Core i3/5 konkurrieren kann.

misu schrieb:
Und woher weiß er das mit dem Stromverbraucht? :)
Siehe Links mit Batterie-Lifetimes, wo sie mit Punkte pro Wh @ Browsing zeigten.
Außerdem wäre so ein 15W-SoC noch immer weniger als der 17W-TDP + Southbridge.

bensen schrieb:
Sorry, aber wie kann man nur dermaßen übertreiben? Weil der Kabini einen alten Celeron schlägt, blamiert er gleich den SandyBridge ULV?
Falsch, das war schon ein Sandy-Bridge-ULV
http://ark.intel.com/de/products/56056

Im link trete er mit ULV-Core i3/5 an, die immerhin noch den 22nm-3D-Vorteil haben.

SandyBridge war mal das Maß aller Dinge, aber bestimmt dieser extrem abgespeckte Celeron.
Nur weil jetzt Sandy-Bridge 6-8% geringere IPC haben, und Sandy-Bridge gerade mal vor ein Jahr von Ive-Bridge abgelöst wurde, würde ich Sandy-Bridge nicht als schlecht ansehen.
Beim Celeron sind SMT & AES & AVX deaktiviert. Grundsätzlich sind das sachen, was die IPC bzw. CPU-Effizienz kaum beeinflusst. Wobei hier die IPC @ Single-Thread gemeint ist, denn wenn das SMT beim Celeron relevant wäre, kann Kabini mit Quad erst recht seine Stärke ausspielen.

Es ist klar, dass AMD hier nen großen Wurf gemacht hat, der wahrscheinlich in Verbindung mit attraktiven Preisen sehr interessant wird. Aber solche Aussagen entbehren doch jeglicher Objektivität.
Mit dieser Aussage scheint es dir nicht so klar zu sein. Denn neben den massiven IPC-Steigerungen von 30+% wurde in Gegensatz zu Früher (Core 2 & Nehalem) keine TDP-Steigerungen durchgeführt, wobei das man bei Core --> Core 2 nur im Notebook zu sehen waren und Nehalem bekanntlich den 32nm-Shrink brauchte, um in den Notebook-Markt mit gleichen Takt zum Vorgänger eingeführt werden zu können.

Hier wurde gegen ULV-CPUs (Celerons im einen Test, Core i3/5 im anderen Test per Link) verglichen. Und das zeigt schon die Stärke und das ist die Effizienz.

Trotzdem ist der Celeron & Pentium-Markt sicher noch Mrd. $ schwer und Multimedia (Video & Grafik)-geschwächt. Und da macht sie es jetzt auch nicht besser gegen einen 25W-Kabini der eben nochmals 25% CPU und 20%-GPU schneller ist. Ontario konnte nicht diesen Markt ernsthaft konkurrieren, Kabini aber sehrwohl schon. Bei Desktop-CPUs bleibt die hohe Effizienz, weil es Kabini nur bis 25W-TDP gibt.

Natürlich wird Kabini alleine jetzt nicht die Welt komplett verändern, weil Intel noch den Fertigungs-Vorsprung und sonst noch Reserven hat. Aber es ist nicht so, dass es die einzige Architekur-Weiterentwicklung ist, die AMD in den nächsten 2 Jahren am Markt bringen wird.
HSA, Steamroller @ Kaveri und GCN 3.0 kommen ja heuer noch.
Und das ist das enorme Entwicklungstempo, was AMD eben jetzt hat.
Es ist garnicht so unwahrscheinlich, dass wir nächstes Jahr schon HSA 2.0, Excavator @ Kaveri-20nm sowie Kabini-20nm und GCN 4.0-14XM sehen werden, wenn der Plan gehalten wird und wirklich so wäre.

Was hier eigentlich selten/nicht erwähnt wird ist, dass Kabini ja noch früher oder später in den Server-Markt eingesetzt wird.
Was hier vielleicht vergessen wird ist, dass bei Kaveri neben Steamroller & HSA-GCN auch stark durch die kleinere Die-Größe Bulk-28nm statt SOI-32nm profitieren wird, um stärker Konkurrenzfähiger (Preis oder Gewinn) zu sein.

Kurz gesagt, Kabini/Temash @ Tablet & Notebook & Desktop & Server ist schlussendlich deshalb stark, weil HSA & Next-Gen-Big-Core @ Notebook & Desktop & Server ja erst noch kommen.
 
Zuletzt bearbeitet:
Joa Super Link... Und der Atom ist nochmal 300% effizienter.... ^^

Dir ist hoffentlich klar, dass es was anderes ist eine Plattform wie Temash und Kabini die 3-25w abdeckt auf Effizienz zu trimmen als die Größen Intel Chips mit HD4000 die von 17w bis 70w+ skalieren. Zudem hängen diese Effizienztests massiv vom Produkt ab, also dem Testgeraet selbst. Ein gestelltes Testgeraet ist die schlechteste Wahl dafür. Wirklich Aussagen zur Effizienz treffen, kann man wirklich erst, wenn zahlreiche Produkte getestet wurden und eine Tendenz erkennbar ist.

Mich wurde es jedenfalls wunderen wenn AMD mit Jaguar in 28nm und einem Low power SOC nicht SB und vllt gar IB die Effizienz streitig machen könnte...
 
aylano schrieb:
Vielleicht sehen eben andere Programmierer mehr Sinn dahinter, wenn sie teils noch 3-4 faches rausholen können.[...]
Solange noch nicht einmal alle CPU Kerne genutzt werden, sehe ich dafür schwarz. Außerdem bin ich recht stark auf paralleles Rechnen spezialisiert und habe auch mal 1,5 Jahre CUDA programmiert. Zumindest im Höchstleistungsrechnen ist das immer noch Maß der Dinge (auch wenn AMD zweifellos ordentlich aufgeholt hat). Das Problem ist nur, dass es bisher ein vielfaches des Aufwandes bedeutet, einen Algorithmus auf der GPU lauffähig zu machen. Zudem gibt es kaum Programmierer, die das überhaupt können. Massiv paralleles Rechnen ist schon schwer. Paralleles Rechnen auf der Grafikkarte ist nochmals um einiges schwerer.

HSA ist im Konsolenbereich nützlich, weil dort früher oder später auf die letzten Reserven der Hardware zurückgegriffen werden muss, ich PC Bereich sind dagegen die CPU Kerne so stark, dass das (Herstellerunabhängig) nur bei wenigen Anwendungen sinnvoll ist. Ein effizienterer Algorithmus für die CPU bringt hier oft mehr als eine aufwändige Portierung des bestehtenden Codes auf die GPU.

Das am Markt früher oder später mehr parallele Anwendungen existieren, ist im Übrigen mehr oder weniger sicher. Die spannende Frage ist eher, ob das noch in die Lebenszeit vom Kabini fällt. Ich würde eher vermuten, dass das nicht zutrifft.

aylano schrieb:
Außerdem wäre so ein 15W-SoC noch immer weniger als der 17W-TDP + Southbridge.
Nur wenn du den TDP Angaben der Hersteller glaubt. Derzeit ist es jedoch so, dass AMD tendenziell untertreibt (vor allem Bulldozer), Intel teilweise übertreibt (vor allem bei den 65W/55W Dualcores, die nur einen Bruchteil davon benötigen). TDP Vergleiche machen daher wenig Sinn. Ein Messung von Notebooks macht ähnlich wenig Sinn, da ein großes Teil des Stromverbrauchs bei derart sparsamen Prozessoren vom Mainboard stammt, und dieses schlecht rausgerechnet werden kann.

Auch wenn der IPC Spung definitiv beachtlich ist. Bei gleichem Takt (Tamash vs. Celeron 847) benötigt der AMD Prozessor die doppelte Anzahl an Kernen, was auf halbe IPC hinweißt. Und das, obwohl der Celeron keine erweiterten Instruktionen besitzt, die zumindest im Computerbase Testfeld nützlich sind, kein AVX und kein AES-NI. Klug ist es von AMD, lieber mehr niedrig getaktete Kerne anzubieten, als weniger höher getaktete (~Brazos), da das die Effizienz verbessert.

Falls es aber endlich mehr parallele Software gäbe, dann könnte AMD zu Intel deutlich aufholen, indem sie noch mehr niedrig getaktete Jaguar-Kerne anbieten. Da könnte auch die Logik hinter den neuen Konsolen sein.
 
aylano schrieb:
Falsch, das war schon ein Sandy-Bridge-ULV
Sicher ist das nen Sandybridge, wo hab ich was anderes behauptet?
Aber nur weil der langsamste Vertreter nicht gut aussieht, sieht nicht gleich der Sandybridge ULV an sich schlecht aus. Und blamieren ist ein total unpassender und lächerlicher Ausdruck.
Mal davon ab, dass es ein 2 Jahre altes Produkt ist.

Nur weil jetzt Sandy-Bridge 6-8% geringere IPC haben, und Sandy-Bridge gerade mal vor ein Jahr von Ive-Bridge abgelöst wurde, würde ich Sandy-Bridge nicht als schlecht ansehen.
Ich schreib er war das Maß aller Dinge und du machst daraus ein schlecht? :confused_alt:

Beim Celeron sind SMT & AES & AVX deaktiviert. Grundsätzlich sind das sachen, was die IPC bzw. CPU-Effizienz kaum beeinflusst.
In Anwendungen/Tests wo das Anwendung findet, hat das nen großen Einfluss. Und dazu kommt dann noch erheblich weniger Cache und verdammt niedrigere Taktraten. Die schnelleren ULV sind erheblich höher getaktet, verbraten aber bei weitem nicht im gleichen Maße mehr Strom.
Du willst doch nicht ernsthaft behaupten der Celeron wäre die Speerspitze in Sachen effizienz.

Mit dieser Aussage scheint es dir nicht so klar zu sein.
Doch glasklar. Ich bewerte sowas allerdings sachlich kalt und nicht emotional. Es ist mir doch vollkommen gleich was welche CPU wieviel zugelegt hat. Mich interessiert was die CPU hier und jetzt leisten kann.
Verstehe nicht was die Ausführungen zu Intels Entwicklungssprünge sollen. Das macht den Jaguar nicht schneller und jetzige Intelprodukte nicht langsamer. Zumal das eh schwachsinnig ist, weil die Entwicklungsstrategien komplett anders aussehen. Intel macht viele kleine Schritte, während die Entwicklung von Bobcat nach Jaguar ziemlich lang gedauert hat.
Es ist auch völlig egal was Intel für einen Fertigungsvorsprung hat, der ist nun mal da.
Kurz gesagt, Kabini/Temash @ Tablet & Notebook & Desktop & Server ist schlussendlich deshalb stark, weil HSA & Next-Gen-Big-Core @ Notebook & Desktop & Server ja erst noch kommen.
Und wie soll Kabini davon profitieren?
 
Zuletzt bearbeitet:
AMDs Kaveri wird CPU und iGPU einen "unified" Speicherzugriff bieten
http://www.3dcenter.org/news/amds-kaveri-wird-cpu-und-igpu-einen-unified-speicherzugriff-bieten


Auszug )sorry etwas lang Text

Allerdings kommen AMD in diesem speziellen Fall die aktuellen Konsolen-Deals zu den NextGen-Konsolen Xbox 720 und PS4 entgegen – speziell die PS4 wird in jedem Fall über eine Art von "unified" Speicherzugriff verfügen, von der Xbox 720 darf aufgrund der ähnlichen Hardware dasselbe angenommen werden. Damit steht vornehmlich im Spielebereich eine (mehr als ausreichende) kritische Masse zur Verfügung, womit sich die Spieleprogrammier mit diesem Punkt befassen und jenen bei ihrer Spielentwicklung einplanen werden. Platt formuliert nützt hierbei die Konsolen-Programmierung wohl auch noch AMDs APUs im PC-Bereich – welche dadurch beschleunigt werden dürften. Die ganz großen Sprünge sind damit sicherlich nicht drin, dafür ist die APU-Hardware einfach zu schwach, aber immerhin dürfte das hUMA-Feature somit nicht gleich mehrere Jahre benötigen, um halbwegs angewandt zu werden.

Zu erwähnen wäre noch ein Seiteneffekt zugunsten normaler (diskreter) GPUs: Auch diese können laut AMD den "unified" Speicherzugriff erreichen – wobei leider nicht genauer ausgeführt wurde, unter welchen Bedingungen aka welcher Hardware dies möglich ist. Höchstwahrscheinlich gilt dies nur für zukünftige AMD-Grafikkarten, welche zusammen mit einer AMD-APU als Prozessor betrieben werden – sprich, es muß durchgehend AMD-Technik am Start sein. Auch in diesem Fall könnte sich mit der Zeit ein gewisses Performanceplus einstellen, wenn die Spieleprogrammierer diesen speziellen Modus berücksichtigen.

Ab hier held2000

Schwer zu sagen ob die 2013er APUs hUMA (eingeschränkt) unterstützen...vlt ist mit Beachtung der Eigenschaften der APUs ein fast ähnlicher hUMA_Effekt schon möglich. die iGPU kann den kompletten Speicher schon lesen, bloss beim Schreiben ist sie noch auf den ihr zugewiesen Speicher beschränkt.

ab Kaveri wird es keine Einschränkung mehr geben. mfg :)
 
Zuletzt bearbeitet:
Jupp AMD hat da ein heisses Eisen im Feuer (hUMA), schön das David von der Technologie her Goliath die Stirn bieten kann

Ich finde ja auch Temash...A6-1450, der doch einen E 350 min das Wasser reichen kann, entgegen der CB Tester sehr wohl auch für einen Laptop mit sehr langer Laufzeit als geeignet an. ( besitze eine AMD E_350 als Desktopversion)

Es ist schon beeindruckend was AMD da abgeliefert hat..... 8 Watt, das ist mehr als eine Halbierung der Leistungsaufnahme. Ich würde mir so ein 12 bis 13 Zoll Teil sofort holen, richtig funktionierender Turbo wenn er am Netz ist wäre natürlich super^^ , damit mutiert er ja schon fast zum A4-5000 (Kabini) mfg:)
 
Zuletzt bearbeitet:
Aber auch wenn man mal versucht ein wenig zu vergleichen,mit der Jaguar Leistung wird alles um Ein nach oben verschoben.
Temash erreicht die Leitung von Brazos und Kabini kommt schon an die Leitung eines Llano ran und das bei bedeutend weniger Verbrauch.

Ich fand den E 350 auch früher schon interessant und vollkommen ausreichen von der CPU Leistung her und die iGPU war schon klasse.
Eigentlich wollt ich das kleinste haben was jetzt fürn Desktop raus kommt für I-Net und Co,aber wenn ich so im Ansatz sehen was Kabini für ne IGPU Leitung bringt bei welchem Verbrauch,der Preis wird sicherlich auch kein großer Unterschied sein,da kommt man echt ins grübeln...
 
@held2000

Halbierung der Leistungsaufnahme ist jetzt nicht wirklich die wahnsinnige Kunst beim Switch von 40 auf 28 nm ;)

Wichtiger war die Steigerung der IPC - die Performance bei 1 Ghz ist dennoch etwas mager. Siehts so aus als bräuchten 2 Ghz einfach deutlich mehr, deshalb 4x 1 Ghz. Bei 1 Ghz kann man sicher mit sehr kleinen Spannungen nahe an der Schaltspannung agieren und so einige % an Effizienz rauskitzeln...

Intel kann mit der 22nm aber scheinbar deutlich mehr Takt fahren, gerade was diesen Effizienten Schaltbereich angeht sind die 22nm + 3D Transistoren von Nutzen.

Für ~8W ist die Leistung des Temash / Kabini wirklich nicht schlecht, vor allem im Optimalfall unter Nutzung aller 4 Kerne. In der Praxis werden 4 Kerne nur eben selten voll belastet, wie mancher richtig erkannt hat ist gängige Software meist so gebastelt, dass man davon ausgeht, dass die Kern Leistung so hoch ist dass sich Parallelisierung nicht lohnt. Der Aufwand bei der Entwicklung steigt unverhältnismäßig.

Temash @ 1 Ghz bietet dann etwa die Performance eines Athlon 3200+ (wenn überhaupt) bei wenig Threads. Beim Einsatz ner SSD wird dass dann schnell zum Flaschenhals. Siehe auch die Aussagen der Reviewer - Notebookcheck hätte gern 2 schnellere Kerne anstelle 4 langsamer gesehen.

Selbst ein 3 Ghz Pentium IV bietet doppelte Leistung / Thread.

CineBench 11.5
1.[-] FS03 | 0.50 Punkte | 1C/2T | 130 nm | L2-Cache: 512kB (Northwood HT) | Pentium 4 3,06 HT | 3066MHz @ 3065.3MHz | 1,57V | 23 x 133MHz (FSB 533MHz) | 4 x 512MB | DDR @ 354MHz CL2.5 | ATI Radeon X850 XT | Win 7 Pro 32bit | 32bit.exe | Wasser

Beim Jaguar kann man etwa sagen 1 Punkt / 1 Ghz bei 4 Kernen = 0,25 Punkte / Thread / Kern bei 1 Ghz.

Normiert ist 1 Jaguar Kern bei 1 Ghz also etwa so fix wie ein 1,5 Ghz Pentium 4 Kern. Klar, angesichts der extrem geringen Leistungaufnahme eines Kernes sicher super, in der Praxis bei vielen Aufgaben aber nicht gerade Rakete (würde man bei 8W vllt auch nicht direkt erwarten).

Man kann sich vorstellen wie "schnell" nun Aufgaben ausgeführt werden, die nur auf einen Kern zurückgreifen. Nämlich genauso schnell wie beim (ersten) ATOM.

2.[1] Kullberg | 0.25 Punkte| 1C/2T | 45nm 512k L2 | 1x Atom N270 | 1600MHz @ 1600MHz | 12 x 133 MHz (FSB 533MHz) | 1 x 1024MB | DDR2 @ 533MHz CL 4 | onboard | Win XP 32 Bit | 32bit.exe | Lukü | HP Mini (Netbook)

Der bietet zwar deutlich weniger IPC aber eben 1,6 Ghz. Und selbst da war Brazos deutlich fixer da dieser eben auch 1,6 Ghz an den Tag legt aber mehr Dampf / Kern hat.

ich könnte mir gut vorstellen dass in der Täglichen Praxis ein Brazos sich deutlich flotter anfühlt als ein Temash. Bei Kabini mit 1,5 ghz siehst wieder anders aus.
 
Zuletzt bearbeitet:
bensen schrieb:
Aber nur weil der langsamste Vertreter nicht gut aussieht, sieht nicht gleich der Sandybridge ULV an sich schlecht aus. Und blamieren ist ein total unpassender und lächerlicher Ausdruck.
Warum sollte es unpassend sein. Nur weil du es mit deiner subjektiven Meinung ohne Begründung nicht so siehts.
Ich glaube es zeigt die Wirkung, dass man bei diese Test rein zufällig keine Stromverbrauchswerte machen kann.

Sandy-Bridge ist übrigends eine Core-Architektur und diese kann ich auch Fertigungs-Neutral bewerten, wenn die Konkurrenz mal gleichwertige Waffen hat. Dazu hat Turbo-Core & Takt nichts konkret mit der CPU-Architektur zu tun. Kabini-15W-TDP hat übrigens auch keinen Turbo-Core, wo mit deutlich höhren Takte mehr CPU- und/oder GPU-Performance erreicht.
Natürlich gibt es bessere Modelle mit mehr CPU-Performance & GPU-Performance, aber die nutzten den TDP-Rahmen voll bzw. teils über aus.

Mal davon ab, dass es ein 2 Jahre altes Produkt ist.
Nur läuft es bei Intel grundsätzlich noch das alte Produkt 1,5 Jahre aus. Nur weil Technik-Freaks immer gleich das neueste Produkt kaufen, hießt es nicht dass man es diese Verkaufstatsache ignorieren darf. Deshalb muss man immer über selbsternannte Experten lachen, die den Erfolg von Intel und Misserfolg der Finanzen in Ordnung sehen, wenn die modernsten & besten CPUs entsprechend vorne liegen, aber garnicht mal wissen, dass sogar teils der größte Finanz-Umsatz mit veralten Produkten erziehlt werden.

Wie alt Produkte sind, ist eben keine genau Bewertungs-Methode. Und da zählt die Technik (Architektur und/oder Fertigung).
Außerdem hatte ich ja einen Link mit aktuellen Core i3/i5 verlinkt. Wenn man wem lächerliche Ojektivität vorwerfen darf, dann darf man es bei dir, weil du den Link nicht in Betracht ziehst.

Ich zeigte wie gut die Kabini/Jaguar-Architektur ist bei
a) ohne Fertigungs-Vorteil (siehe Artikel mit Sandy-Bridge)
b) mit aktuellem Fertigungs-Vorteil (siehe Link Ive-Bridge)

Ich schreib er war das Maß aller Dinge und du machst daraus ein schlecht? :confused_alt:
Na ja, ich wollte das nicht mit der Ive-Bridge-Architektur sagen, weil viele Leute den Fertigungs-Vorteil nicht verstehen.
Genauso wollen sie auch nicht verstehen, wie Globalfoundries/AMDs-Fertigungs-Probleme waren und wie die Roadmap in zukunft aussehen könnten. Genau jene CPU-Spezialisten, die Intel besser sehen, meinten auch, dass 20nm erst Ende 2014 kommen wird.

Die reine Architektur-Betrachtung machte ich auch deshalb, weil jetzt 28HP & 20MPH & 14XM im Jahres-Rythmus kommen sollte.

Die schnelleren ULV sind erheblich höher getaktet, verbraten aber bei weitem nicht im gleichen Maße mehr Strom.
Du willst doch nicht ernsthaft behaupten der Celeron wäre die Speerspitze in Sachen effizienz.
Meine Beobachtung haben eben ergeben, dass die Effizienz nicht darunter leidet, wenn SMT & Turbo deaktiviert wird.
Wobei ich Notebooks betrachtet haben, wo sich solche Aussagen nicht bestätigten, wo Leute Desktop-Verhalten auf Notebooks übertragen wird.

Würde deine Aussage stimmen, so müsste die Effizienz @ Akku bei Webbrowsing schon ganz anders sein.
http://techreport.com/review/24856/amd-a4-5000-kabini-apu-reviewed/10
Siehe da.
Gerade meine größten Kritiker und Belehrer erzählten mir übrigens vor so 2 Jahren, dass die normalsierte Betrachtung Min/Wh völlig lächerlich ist. Heute hat sich diese Bewertungs-Methode immer mehr durchgesetzt.

Doch glasklar. Ich bewerte sowas allerdings sachlich kalt und nicht emotional. Es ist mir doch vollkommen gleich was welche CPU wieviel zugelegt hat. Mich interessiert was die CPU hier und jetzt leisten kann.
Also, darüber muss ich schon Lachen. Nur weil ich neben der üblichen Objektivität auch mal ein paar subjektive/qualitative Ausdrücke von mir gab, heißt es noch lange nicht, dass es ich subjektiv und du objektiv bist, während du mit keiner einzigen Konkreten Information (= Begründung) gekommen bist.
Nur zu sagen, dass meien Aussagen lächerlich sind, höre ich ja ständig.

Zumal das eh schwachsinnig ist, weil die Entwicklungsstrategien komplett anders aussehen. Intel macht viele kleine Schritte, während die Entwicklung von Bobcat nach Jaguar ziemlich lang gedauert hat.
Das hat leider nichts mit Stategien zu tuns, sondern mit R&D-Ressourchen. AMD hat im GPU-Markt auch einen Jahres-Rythmus.
Würde deine Aussage stimmen, dann würde Intel mit Atom nicht 4,5 Jahre für eine Architektur brauchen.

Es ist auch völlig egal was Intel für einen Fertigungsvorsprung hat, der ist nun mal da.
Diese Aussage disqualifiziert leider jemand als selbsternannten CPU-Architektur Kenner. Deshalb hat allein Bulldozer genauso einen Schlechten ruf, wo z.B. priämer in Desktop-Vergleiche herangezogen wurde und die Notebook & Server-Ergebnisse leider stark anders aussahen.

Und wie soll Kabini davon profitieren?
Selbsternannte CPU-Kenner blicken
a) nicht nur in die Zukunft
b) wissen dass noch immer Sandy-Bridge mit hohen Preisen verkauft werden. Vielleicht weniger in der Marktanteilen, aber in Absoluten Geldbeträgen aus sich von AMD ist selbst bei aktuellen Sandy-Bridge noch einiges drinnen.

PS: Wenn ich mir so den FX 8350 vs Core i7 anhöhre, dann reden da schon einige von Blamieren, wenn der AMD-Chip da in Chinebench 11.5-Mutli so 10% zurückliegt und in Andwendungen so 20-30%.

In diesem Test hat 15W-TDP-Kabini gegen einem 17W-TDP-Sandy-Bridge @ Mutli-Chinebench 11.5 gar 88% Vorsprung.
Bei GPU-Performance steht es nicht genau drinne, aber da könnte der Vorsprung noch erheblicher aussehen.

Dabei betrachte ich nur die CPU-Performance und nicht wie üblich die ganze Plattform.
Deine Hoffnung liegt ja noch darin, dass Haswell entgegen den Erwartungen zufriedenstellend zulegen kann und Steam-Roller nicht im gleichen Maß wie Jaguar/Kabini zulegen kann.

Ich habe das gefühl, du glaubst der der 17W-Celeron mit einem 25W-Kabini und 15W-Kabini vergleichen wird.
Man muss ja noch betonen, dass A4-5000 ein 15W-SoC (ohne Turbo) ist, sowie der A6-1450 ein 8W-SoC ohne Turbo ist.
Also, weniger TDP und dann zusätzlich noch ein SoC, was relativ noch weniger TDP bedeutet.

Der Witz daran, obwohl der 8W-Kabini mit 0,8 Chinebench-Multi Punkte so schnell ist wie Celeron 847, hat der 8W-Kabini trotzdem nur 0,20 IPC und nicht 0,25 IPC wie der 15W-Kabini.

Mich würde es nicht wundern, wenn meine Betrachtung aus Mangel an Tests/Informationen trotzdem genauer wären, als jene Leute die meinen, dass 15 oder 50% Mehr CPU-Performance auch Real (und das noch in der Masse) auch 15 oder 50% Mehr-Nutzen bedeutet.

Casi030 schrieb:
Deswegen arbeitet Intel auch so flott an seinem iGPU Ausbau um in Zukunft mit AMD mithalten zu können.
Genau so ist es.
Falls die Gerüchte stimmen, wird Hasswell gerade im Notebook-Bereich die CPU-Performance halten können, während GPU-Performance massiv zugelegt wird. Und die Jahre davor sah es auch nicht viel anders aus. Damit gehen sie ja schon den AMD-Weg.
Mit den Kauf von Infineon-Funk, sind sie damals auch den ARM-Weg gegangen, weil sie früher glaubten, das CPU-Performance & iGPU schon ausreicht.
Sowie bereitet Intel sich auch auf Foundry-Hersteller vor, indem sie schon für ausgewählte produzieren.
Intel geht schon länger jene Wege der Konkurrenten.
 
@aylano

wenn ich heute die Wahl zwischen zwei CPU / APU hätte, beide mit 10W TDP, eine 2x 2 ghz, eine 4x1 Ghz, würde ich mich jeder Zeit für erstere entscheiden. (gleiche Architektur vorausgesetzt natürlich)

Der Celeron 847 ist sicher etwas ineffizienter, gar keine Frage, aber er nimmts eben mit 2 Kernen gegen die 4 auf - in der Praxis wird sich der (da bin ich mir sicher) deutlich flotter anfühlen - genau wie es mein SU2300 gegen den E-350 tut.

Rein über die CPU Leistung auf 4 Threads zu vergleichen ist reine Milchmädchenrechnung und im Alltag kaum von Belang (so doof das ist). Bei 4 Kernen am Anschlag ist der Temash / Kabini sicher wahnsinnig effizient - wenn aber auch bei Auslastung eines Kerne die CPU so viel frisst wie bei Auslastung aller 4er, siehts wieder anders aus da der langsame Kern deutlich länger braucht.

Mich würde bei Kabini (15W) der Verbrauch bei 1 Kern am Anschlag interessieren, gegen nen 2 Kerner bei 1 Kern Auslastung der Konkurrenz.

Wäre interessant ob Kabini Auslastung 1 Thread nur 25% Leistungs-Aufnahme gegenüber der Auslastung 4 Kerne aufweist, oder deutlich mehr da alle Kerne in einen Power Modus versetzt werden.
 
Zuletzt bearbeitet:
@ Krautmaster:
So wirklich verstehe ich dich aber nicht.
Was ist am Temash falsch?
Der Vorgänger von Temash sind die C/Z Modelle,diese haben auch alle nur 1GHz Takt,bringen aber nicht die Leistung eines E-350....
http://geizhals.at/de/?cat=nb&xf=1482_AMD~29_AMD+C-#xf_top
http://geizhals.at/de/?cat=nbtabl&xf=2174_AMD#xf_top

Und von Kabini wird die E Reiche abgelöst.
http://geizhals.at/de/?cat=nb&xf=1482_AMD~29_AMD+E2-~29_AMD+E1-~29_AMD+E-#xf_top
Ergänzung ()

Dann ist noch die Frage,wozu brach ich dann ein Quad im Handy wenn die Singelcore Leistung besser ist?!;)
 
In Handys besteht praktisch das gleiche Problem. Auch da bringt ein Quad gegenüber einem Dual-Core nur wenig (außer in Benchmarks).
 
Ein Quad braucht auch keiner im Handy ;)
Dual tuts genauso. Vor allem wenn die GPU die GUI rendert.

Klar, der C-50 / C-60 is was anderes. Der krankt auch an zu geringem Takt und spielt seinen IPC Vorteil gegen ATOM dann nicht mehr wirklich aus. Hier ist Temash (trotz 1Ghz bei höherer IPC) nen guter Schritt nach vorn.

Dennoch denke ich, dass ein sehr niedrig getakteter Quad nur bedingt Sinn macht. Da ist der Intel Ansatz mit mehr Takt @ 2 Kernen + SMT teilweise besser (auch wenn die derzeitige ATOM Generation zu geringe IPC hat).

Das Defizit des geringen Taktes auf allen 4 Kernen hätte Jaguar mit einem pro Kern Turbo ausgleichen können, allerdings hätte die Logik dafür sicher die Kerne etwas aufgeblasen.


edit:

Ist generell so ne Frage - wie viel Kerne brauch ich? 1 ist definitiv zu wenig. 2 Halte ich für die meisten Fälle noch am besten / effizientesten wenn diese hohe Performance auf ihren 2 Threads bieten.

4 sind oft schon Balast.

Es ist einfach so dass mit steigender Kernzahl die Liste der sinnvollen Nutzung jener rapide abnimmt, vor allem im Consumer Umfeld.

edit2:


Casi030 schrieb:
Was ist am Temash falsch?

nichts ist falsch. Jaguar an sich ist top. Temash sicher auch, versteh mich nicht falsch =).
Wenn man davon ausgeht dass jeder nur Benchmarks mit Multicore ausführt (was relitätsfern ist) dann ist es intelligent auf 4 langsame kerne zu setzen... suggeriert generell höhere Performance...

Schon lange befürworte ich (zusätzliche) Tests die mit realen Gegebenheiten mehr zu tun haben. Kein Povray, kein CineBench Multicore, kein x264... wer macht das auf seinem Temash Tablet bitte...??
-> Wichtiger wäre die Bootzeit zu vergleichen, Applikationsstarts, Webseiten Rendering, beide auf selber SSD als Basis, auch sowas wie File Copy, 4000 files entpacken, Jpegs rotieren, Anzeigen einer 36 MP jpeg.... Allein sowas wie das Einfügen von großen Bildern in eine PowerPoint, oder der Kompile eines Visual Studio / Eclipse Projektes.

bei einem Tablet verstehe ich es noch groß Gaming zu testen... vllt liegts an meinem Alter aber ich würde gern eher die Daily Work Performance sehen... da ich so ein Gerät nicht für Battlefield 3 missbrauche :D
 
Zuletzt bearbeitet:
Den Kerntest hab ich früher schon mit nem AthlonII x4 gemacht.X4 vs x2
Ergebnis:
Das einzige kleine minus war eine kleine Trägheit da bei niedrigem Takt auch der Ram langsamer arbeitet.......
Ansonsten verbrauchte der x4 max das gleiche an Strom,meist aber weniger bei steigender Rechenleistung.
Gut das neuste Trinity System ist jetzt noch Neu und hat ne SSD,aber ich merke dort keine Unterschiede mehr ob der Takt unten bleibt bei 1,4GHz oder oben ist bei über 3GHz.
 
Zuletzt bearbeitet:
Also ich merke sehr deutlich ob mein i5 ULV auf 800 Mhz (Sparmodus) oder normal arbeitet.

Und auf 800 Mhz ist der garantiert ne Ecke schneller als Brazos auf 2x1,6 Ghz und sicher ähnlich wie zB. ein Jaguar Quad @ 1 Ghz - bei wenig Threads sogar viel schneller.
 
Zuletzt bearbeitet:
held2000 schrieb:
Jupp AMD hat da ein heisses Eisen im Feuer (hUMA), schön das David von der Technologie her Goliath die Stirn bieten kann
Es ist ja HSA bzw. hUMA nicht einmal alleine, wo AMD gegen Intel Technologisch die Stirn bieten kann.

Wenn man mal beim Kabini-Nachfolger einmal HSA vernachlässigt, könnte AMD trotzdem schon in einem Jahr (Juni 2014) einen 20nm-Kabini rausbringen, was zum jetzig akutellen Jahres-Rythmus passen würde.

Im Gegensatz zum jetzigen Schritt (Doppelte GPU-Core, Doppelte CPU-Core, 30+% IPC-Steigerung, 15+%-Takt), müsste AMD neben der GPU-Core-Verdopplung beim 20nm-Kabini keine CPU-Core-Verdopplung durchführen. Damit wären bei nur einer GPU-Core-Verdopplung und nur so 25%-CPU-Takterhöhung erhebliche TDP-Seknungen (15-20 statt 25W-TDP) und Die-Größen-Senkungen (80-90mm² statt 110mm²) möglich.

Im Gegensatz zu Llano/Trinity (200+mm²) & Vishera (300mm²) wäre so ein 85mm²-Erheblich leichter und Yield-Defekt-Unempfindlicher zu produzieren, weshalb IMO so eine Produktion möglich wäre, wenn Globalfoundries und TSMC es wirklich schaffen, Anfang 1Q 2014 20nm-Produkte ausliefern zu können.

Kürz gesagt, während der heutige 28nm-Kabini schon großteils 22nm-Konkurrenz hat, könnte nächstes Jahr ein nicht unerheblich verbesserter 20nm-Kabini ganz anders angreifen, wenn zu dieser Zeit die Masse an Intel-CPUs noch länger auf 14/16nm-Warten muss.

Daher ist die ganze Erbsenzählerei recht witzig, weil sie nicht die Ausblick in die Zukunft machen.
Denn da würde Kabini vielleicht schon nächstes Jahr viel mehr Märkte als dieses Jahr gefährden. Vorallem mit HSA.
Nur weil der jetzige Kabini jetzt ULV-Core i5 & Core i7 in allen Bereichen schlägt, heißt es noch nicht, dass Kabini in diesen Markt keine Chance hat. Vorallem, weil ULV-Core i5 & i7 @ Ultrabook ja seit Jahren auch nicht von Erfolg gekrönt ist und der Ultrabook erst recht in Schwung kam, als die Ultrabook billiger (non-IPS & non-SSD) und langsamer (Celeron & Pentium & AMD-Ultrathin) wurde.
 
Das Hauptproblem ist doch, dass es fast gar keine AMD Geräte zum kaufen gibt. Bzw. wenn, dann nur Alibi-Geräte. Wenn die Hersteller mal den Preisvorteil seitens der CPU in besseres Equipment stecken würden (LCD, SSD), dann hätte man zum gleichen Gerätepreis ein besseres Gesamtpaket als die Intels (weniger CPU Leistung, aber besseres Display/SSD etc).
 
joa aber das zieht sich durch die Bank. Am besten stehts noch um die ITX Auswahl bei Brazos... ITX mit Kabini @ 2 Ghz wäre doch noch viel cooler. Man kann nur hoffen dass es da auch Auswahl gibt.
 
Zurück
Oben