Test Test: Trinity vs. Ivy Bridge im CPU-Test

Gronkh schrieb:
Zu allererst wäre es sinvoll gewesen auf den gleichhohen Idle verbrauch beider Systeme einzugehen und vielleicht einmal Teillastszenarien oder die Leistungsaufnahme bei Spielen oder sonstigen Anwendungen zu messen um den Test etwas wertvoller als eher leider wenig differnt zu machen.

Wobei sich hier auch die Frage stellt, warum man den Idle Wert mit zusätzlicher GPU ermittelt. Die wenigstens die sich einen Trinity kaufen, bauen noch eine GPU mit ein, da kann ich gleich nen kleinen Bulldozer und ne GPU nehmen. Läßt man die zusätzliche GPU weg ist das Trinity-System im Idle deutlich sparsamer als der i3-3220.

Decius schrieb:
Klar, der Stromverbrauch ist kompletter Bockmist und ich verstehe nicht warum AMD nicht endlich auf 22nm umstellt.

Weil AMD auf Auftragsfertiger (z.B. GF, TSMC) angewiesen ist. Zumindest nächstes Jahr mit Kaveri in 28nm kann man den Nachteil zu 22nm Haswell ein wenig reduzieren.
 
riDDi
Ich hab überhaupt nichts gegen dem Athlon XP gesagt, hatte ja selber einen. Doch die eigentlichen Erneuerungen kamen halt mit Athlon 64, man konnte sich von der Konkurrenz etwas abheben. Und AMD 64 und HT waren übrigens Meilensteine, auf die auch Intel später zurückgegriffen hat oder ?

Es muss eben nicht sein, aber es kann gut sein dass HSA für AMD wieder so eine Technologie/Schlüssel ist, von Intel absetzten zu können und etwas anbieten kann, was Intel eben nicht bieten kann. Momentan sieht man schwer die Unterschiede zwischen Intel CPU + igp und einer APU.
Der große Vorteil von Intel, sie setzten auf was altbewährtes, AMD setzt auf ein neues Pferd.
Aber täuschen ist Menschlich :D kann mich ja auch irren ^^

http://geizhals.at/eu/846121
Bin schon gespannt, ob ein Trinity X4 um 80 euro plus ein 50 euro Board mit USB3.0 und Sata III wirklich niemanden anspricht, und ob es für leute, deren die igp des Trinity zu "schwach" ist doch nicht eine alternative für einen i3 sein kann. (Mal ganz davon abgesehen, dass FM2 die nächsten Generationen beherbergen wird und man easy OC kann, sag mal nur 4,7 ghz)
Jeder muss selber wissen wo seine Prioritäten liegen, und ob Last-Verbrauch-Szenarien immer das A und O ist.

Interessant ist auch dass einige Handler sogar den 5700 haben, obwohl man immer davon gesprochen hat, der wird sicher nie (oder am Anfang) verfügbar sein ^^
 
Zuletzt bearbeitet:
Sontin schrieb:
Was ist der Unterschied zur GPGPU? Richtig, es gibt keinen.
Sag mal hast du einen einzigen Satz aus dem Link gelesen der die Unterschiede beschreibt?
GPGPU ist reines rechnen auf der GPU - das sagt ja schon der Name! "General Purpose Computation on Graphics Processing Unit.

HSA= Heterogenous System Architecture
Heterogen= verschiedene unterschiedliche Einheiten! Also nicht nur GPU, sondern auch CPU oder FPU oder alles was sonst noch in der Lage ist irgendwie Zahlen zu verarbeiten. Nicht festgelegt auf x86, sondern mit unterschiedlichen Befehlssätzen in Hardware: ARM, RISC, CISC oder sonstiger fremder IP. Dafür hat AMD seine APUs extrem modular konzipiert. Hier ein Link in einfachem Deutsch: http://de.wikipedia.org/wiki/Heterogeneous_System_Architecture
Hauptmerkmal von HSA ist, dass die CPU-Kerne und der Grafikprozessor auf einen gemeinsamen Adressraum und Speicher (RAM) zugreifen.
Versteh es endlich GPGPU ist nur ein Teil von HSA und nur der erste Schritt dorthin. Mach dich kundig.

Deine Behauptung ist als ob ich sagen würde Integer und FPU Berechnungen wären das selbe und nur unterschiedliche Marketing Begriffe.

Während Intel versucht den Flaschenhals mit Stacked Memory zu umgehen (RAM direkt onDIE: http://blogs.intel.com/research/2011/09/15/hmc/), versucht AMD mit HSA und gemeinsamen RAM Adressbereichen ein kopieren von Daten zwischen den Einheiten komplett zu unterbinden - somit benötigt man auch keine riesen Speicherinterfaces mehr, die sehr stromhungrig sind.

http://developer.amd.com/Resources/hc/heterogeneous-systems-architecture/Pages/default.aspx
The HSA team at AMD analyzed the performance of Haar Face Detect, a commonly used multi-stage video analysis algorithm used to identify faces in a video stream. The team compared a CPU/GPU implementation in OpenCL™ against an HSA implementation. The HSA version seamlessly shares data between CPU and GPU, without memory copies or cache flushes because it assigns each part of the workload to the most appropriate processor with minimal dispatch overhead. The net result was a 2.3x relative performance gain at a 2.4x reduced power level*. This level of performance is not possible using only multicore CPU, only GPU, or even combined CPU and GPU with today’s driver model. Just as important, it is done using simple extensions to C++, not a totally different programming model.

timo82 schrieb:
Sorry, in Diagramm hier:

https://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-cpu-test/11/

steht bei Idle

AMD A10-5800K, 2M/4T, 3,80 GHz, 32 nm, Turbo
55W

Von ner GTX680 lese ich da nichts.
Sollte man vielleicht ändern, wenn es so ist, dass die noch mitspielt.
Tja du solltest eben auch die Anhänge lesen - ab Seite 18 ist es beschrieben:
https://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-cpu-test/18/
Unser aktuelles Testsystem wird wie üblich von einer der schnellsten Single-GPU-Grafiklösungen angetrieben: Die Nvidia GeForce GTX 680.

Oder du fragst dich einfach warum andere Testseiten eben 32 W Idle im Gesamtsystem messen ohne eine diskrete GPU. Ich habe ja schon 2 Links dazu gepostet.
 
Zuletzt bearbeitet:
Wow... hätte nicht gedacht, dass der A10 tatsächlich einigermaßen konkurrenzfähig ist...
Im idle geben sie sich nichts, der Preis ist identisch.... lediglich die Leistungsaufnahme unter Last ist beim A10 viel zu hoch...

Also, da man eh ein neues Board braucht (FM2), sehe ich im Moment leider keinen Grund für AMD... :(
 
Gronkh schrieb:
Zum Anfang muss ich erst einmal dem Journalisten des CPU Tests gratulieren, dass er es wieder mal geschafft hat die Nachteile der AMD Trinity CPU hervorragend übertrieben ins rechte Licht zurücken, während es Herrn Andermahr möglich war eine neutrale und sachliche Bewertung des Grafikteils zu formulieren.

Na ja, wissenschaftlich fundierte Artikel habe ich hier auch nicht erwartet. Aber da ich von Computerbase bezüglich der Teste von AMD-Produkten bisher deutlich Unsachlicheres gewohnt war, bin ich über diese Berichterstattung schon positiv überrascht.

Anzumerken ist lediglich, das den Redakteuren von Computerbase hätte auffallen müssen, dass mehr als doppelt so hohe Grafikleistung auch den Strombedarf steigen läßt.

Um nicht Äpfel mit Birnen zu vergleichen, hätte man dem Ivy Bridge mit HD 2500 eine entsprechende Grafikkarte spendieren und dann den Strom messen sollen.
 
Ich kann mich irren, aber ist dsa nicht auch ein "ungleicher Kampf"?

Der Intel i3-3220 kommt mit einer HD 2500 daher, während der A10-5800K das AMD Flagschiff darstellt. Wäre es da nicht auch fair es gegen die HD 4000 des i3-3225 zu testen?

Trotzdem bin ich beeindruckt von der AMD iGPU! Was Intel im Bereich CPU ist, ist AMD im Bereich iGPU - unerreichbar vom jeweils anderen ;-)


Ein Kumpel will demnächst ein einfaches System zum Zocken haben. Da hat sich ja dann schon die CPU gefunden ;-)
 
Ne HD4000 bringt dir von unglaublichen 14 fps einer HD 2500 satte 6-7 fps mehr die im Endeffekt auch kein Zocken ermöglichen....

Die integrierte Grafik von Intel kannste geühlt in die Tonne kloppen es sei denn du spielst noch AoE2 oder Starcraft:BW
 
Der Test ist irgendwie blöd. Mich hätten Benchmarks à la 3DMark oder mit Spielen wie Call of Duty interessiert. Für irgendwas muss der Leistungsschub in Form der Grafikeinheit doch gut sein. Warum also nicht auf Anwendungen im Midrangebereich testen?
 
@Daedal

Ja, ist ja alles schön und gut... aber AVX 1/2 bzw. das ganze mit einem abgewandelten Befehlssatz mit 512 Bit breiten Registern und 4fach HT ist ebenso ein Weg, den Durchsatz zu verbessern - den eben Intel beschreitet, und langfristig x86 etc. ablösen wird.

Und bei CPU / GPU geht es nicht um verschiedene Befehlssätze, oder Integer / FP, sondern um Latenz / Durchsatz und auch Codekomplexität.


Davon abgesehen: als Gesamtpaket für bestimmte Zwecke finde ich die AMD Prozessoren interessant.
 
Zuletzt bearbeitet:
Decius schrieb:
Ach komm, du vergleichst wirklich eine 300 € CPU mit einer 87 € CPU, eine 4-Kern CPU mit einer 2-Kern CPU und beschwerst dich dass die weniger als 1/3 kostende CPU gegen das Luxusmodell abstinkt?

Überhaupt, einerseits sagt jeder "i3, mehr braucht der Durchschnittsuser eh nicht, für Office x-mal überdimensioniert", andererseits wird über AMD hergezogen, weil sie nur ca. i3-Geschwindigkeit schaffen? Für i3-Preise.
Klar, der Stromverbrauch ist kompletter Bockmist und ich verstehe nicht warum AMD nicht endlich auf 22nm umstellt.

ich sehe das ein wenig anders! als der A8 3870k heraus kam hat dieser 130€ gekostet!
Für meine damalige Verhältnisse hatte er ein sehr gutes Preis/Leistungsverhältnis gehabt!
Der Prozessor ist für Standardsachen auch ok gewesen auch übertakten war ja kein Problem, doch die Leistung war für meine Anwendungszewcke absolut unzureichend! Zum Zeitpunkt meines Kaufs Anfang Januar war allerdings der Core I7 3770k noch nicht draussen! der kam erst etwas später, somit wäre der Sandy Bridge die Wahl gewesen sich zu holen! Dieser lag Anfang des Jahres bei 300€ (eine Alternative wie Core I5+Graka war finanziell bei mir gar nicht drin!) und der I7 2700k hat wesentlich höheren Stromverbrauch wie IVY und wird auch mit TDP 95Watt eingestuft! Somit war der 3870k Preisleistungssieger für mich damals dank guter intergrierter Grafik wenig Kosten und gutem Stromverbrauch! Jetzt ist der Trinity da und bietet nur sagen wir 10% mehr Leistung! noch mal 130€ ausgeben ??? wozu da hätte ich mir auch gleich den Sandy Bridge 2700k holen können!
Der Vergleich mag jetz von mir etwas unfair sein aber auch mit Trinity schauts beim Convertieren einer 2GB Wave Datei nicht besser aus! 6minuten statt 7 ?? WOW !!! und da gehen wir auch andere Benches Packer durch usw. ich hatte mir eben noch etwas mehr erhofft beim CPU Part!
Der 3870k von AMD kostet jetz zwar nur noch wie du sagst 87€ dieser Preisverfall ist nicht nur durch Leistungschwäche zu definieren oder das eben auch der Zahn der Zeit an jener CPU irgendwann nagt, sondern auch das Sockel FM1 so gut wie totgeschrieben ist! die CPU will keiner mehr wirklich haben! ist nen Low Budget Deal nur noch mehr nicht! Dem Durchschnittsuser würe ich persönlich sie allerdings gegenüber dem Core i3 empfehlen, aber dann bestimmt jetz auch nicht mehr den LLANO wirklich sondern gleich den Trinity! Der AMD A10-5700 sollte an diesem Punkt besonders gut angeschaut werden!!!
um deine Frage bgzl. 22nm Fertigung zu beantworteten AMD ist in der Fertigungstechnologie nicht so weit wie Intel! Schön wärs ja, weil denn hätte ich auch hier kein Grund zu meckern weil wir dann faire Preise hätten!:D
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
In Trinity steckt verdammt viel Potenzial drinne.
Wenig Verbrauch,gute Grafikeinheit,ein Takt von 3-3,2GHz,der die GPU so zu 95% noch nicht Ausbremsen sollte und für viele Anwendungsgebiete geeignet ist in den 65Watt Varianten.
Mit Handanlegen was richtig feines und ne gute Verbesserung zu Llano und auch Bulldozer.


Edit:Was jetzt noch fehlt,ist ein guter Test für den Unterbau,um so ein sparsames Mainbord zu finden.
 
Zuletzt bearbeitet:
Hmm ich sehe irgendwie nicht so Positiv wen ich da an den Vishera denke wird wohl nichts mit höherer Single Core Power im vergleich zum ollen Phenom II, und wen man die Leistungsaufname des 5800 so sieht wird das wohl beim Vishera auch eher Ernüchterung.
 
@allel
Danke für den Link.
Ich finde das messen von Performance-per-Watt viel besser und aussagekräftiger, als Idle und Vollast Ergebnisse. Da sollte CB einmal darüber nachdenken.
Ich messe bei einem Auto ja auch nicht Leerlauf und volle Pulle Benzinverbrauch. Das kann man sicher besser machen.
Auch finde ich es gut und richtig, das man nicht Intel gegen AMD getestet hat und das auch sehr gut im Fazit begründet, warum man das nicht macht.

Mein persönliches Fazit:
Nachdem ich 1 Woche als Gelegenheitsspieler meine HD4000 ausgiebig getestet habe, bin ich von dem Thema iGPU geheilt und habe mir eine HD7770 gekauft.
Ich frage mich natürlich, ob der A10-5800K mit seiner HD7660D mich so zufrieden gestellt hätte, das ich mir keine GPU hätte kaufen müssen.
Die Antwort ist nicht so einfach, weil ich auch sehr auf den Stromverbrauch achte (schön, wenn das anderen egal ist).
Messungen mit meinem 3770K und der HD4000 bzw. der HD7770 haben mich fast vom Hocker gerissen. Da ist die HD7770 im Idle oder Teillast Bereich nur 3-5W höher als die HD4000. Teillast heißt hier das, was ich 90% der Zeit mache. Also neben Internet, programmieren (2 Monitore), Videos schauen und einfache Spiele. Also ein tolles Ergebnis.

Ich kann aber auch anspruchsvolle Spiele laufen lassen und da kommt die HD7660D wieder nicht mit. Die HD4000 reicht hier schon lange nicht mehr.
Somit frage ich mich, ob denn eine HD7660D oder HD4000 überhaupt Spiele tauglich ist im Sinne von vernünftig zocken oder ob man nicht doch besser mit einer dezentralen GPU beraten ist, zumal die ja jetzt auch sehr Stromsparend sein können.

Der Preis ist mir so ziemlich egal. Hier sprechen wir von wenigen Euro Unterschied, die ich in Relation zu einem Rechner stelle, vor dem ich die nächsten Jahre sitze. Wer hier mit 50 Euro hin oder her argumentiert, der tut sich wohl selbst keinen großen Gefallen und spart an der falschen Stelle.

Ich finde den Trinity gelungen, aber würde mir Diese CPU in 22nm wünschen. Ich freue mich über jeden Fortschritt, den AMD macht und wünsche AMD einen guten Wirtschaftlichen Erfolg mit Trinity!
Ich könnte mir einen A6-5400K für meinen HTPC vorstellen. Frage mich aber, warum und wofür ich im HTPC zwei mal 3,6Ghz/3,8Ghz brauche.
 
@MikelMolto: Denke nur mal zwischen 1.-8. Klasse,da hast den Einsatz der 7660D für Spiele.Zwischen 6.-10+++Klasse kommt die erste Diskrete Grafikkarte rein.
Du braucht die 3,6/3,8GHz fürs ewige Gejammer Intel bla bla bla...
Zwischen 2 und 3 GHz würden da voll ausreichen,besonders da die GPU viel übernehmen kann.
 
Zuletzt bearbeitet:
Somit frage ich mich, ob denn eine HD7660D oder HD4000 überhaupt Spiele tauglich ist im Sinne von vernünftig zocken oder ob man nicht doch besser mit einer dezentralen GPU beraten ist, zumal die ja jetzt auch sehr Stromsparend sein können
Ganz ehrlich, diese iGPU-Geschichte ist doch zumindest für Desktop-Rechner totaler Murks. Es dürfte sehr wenige Spiele geben, die mit der HD4000 nicht spielbar sind, mit der HD7660D schon. Wenn man halbwegs vernünftig spielen möchte, braucht man auf jeden Fall eine dedizierte Grafikkarte. Ein Celeron G550 und eine HD7770 (welches als Gesamtpaket gleich teuer ist) drehen bei Spielen Kreise um den A10-5800.
 
Zuletzt bearbeitet:
Na ja, bei Word und Co. wird der Celeron nicht langsamer sein und sich aufgrund seiner sicherlich nicht schlechtere Singlethread-Performance auf nicht langsamer anfühlen. Für anspruchsvollere Anwendungen kauft man sich ohnehin keine 50-100 Euro CPU.
 
Zurück
Oben