Test Trinity vs. Ivy Bridge im CPU-Test: A10-5800K gegen Core i3-3220

http://www.tweakpc.de/hardware/tests/cpu/amd_trintiy_a10-5800k/s12.php

Hier ein besserer Test was die Verbrauchmessungen angeht.
Scheinbar kann man Trinity Systeme auch auf 26 Watt Idle Verbrauch trimmen, was schon nicht schlecht ist.
Dort wurde aus mehreren Lasszenarien ein Mittel gebildet und man schneidet durchgehend besser ab als Llano.
Bei CB wurden lediglich nur zwei Vollastmessungen gemacht.

Auch steigt die IPC trotz fehlendem L3 Cache in Anwendungen um ca 6 Prozent gegenüber Bulldozer.
Das kann sich doch sehen lassen.

Tomahawk schrieb:
Ganz ehrlich, diese iGPU-Geschichte ist doch zumindest für Desktop-Rechner totaler Murks. Es dürfte sehr wenige Spiele geben, die mit der HD4000 nicht spielbar sind, mit der HD7660D schon.

Laut dem 3D Center Launch Artikel erreicht man rund die doppelte Performance.
Wenn das nicht über spielbar und nicht spielbar entscheiden kann, was dann? So wenig Spiele können das bei zumindest noch annehmbaren Settings und ner 1680x1050 Auflösung nicht sein, da ssieht man ja auch in den Tests.

Wenn man halbwegs vernünftig spielen möchte, braucht man auf jeden Fall eine dedizierte Grafikkarte. Ein Celeron G550 und eine HD7770 (welches als Gesamtpaket gleich teuer ist) drehen bei Spielen Kreise um den A10-5800.

Celeron G550? Da ist ja der CPU Teil des 5800K deutlich schneller, also irgendwie musst du solche Vergleiche mal überdenken.
Ich kann natürlich massig CPU Performance einsparen und mir dafür ne bessere Grafikkarte kaufen, geht andersrum ja auch.

Der Celeron und die HD 7770 sind übrigens rund 20 Euro teurer.
 
Es sind sicher viele Spiele mit der HD4000 spielbar. Habe das ja selber 2 Wochen lang gemacht und getestet. Wenn ich da bei niedrigen Details zufrieden gewesen wäre, dann hätte ich mir sicher keine HD7770 gekauft.
Was mich am meisten gestört hat sind Grafikfehler beim spielen mit der HD4000.
Alte Spiele wie Battlefield 2 laufen auf der HD4000, aber man hat schwarze Flecken im Terrain. Ein ändern der Detail Einstellungen behebt das Problem leider nicht.
Das Spiel Sauerbraten läuft Top auf der HD4000, aber wenn man einmal eine Stunde gespielt hat und sieht, wie Wände auf einmal verschwinden und man den Himmel sieht, dann macht es keinen Spaß mehr.

Wer mit der HD4000 spielen will, muss schon leidensfähig sein und die Treiber von Intel sind teilweise eine Zumutung. Ich darf das auch so sagen, weil ich aus eigener Erfahrung spreche.

Frage mich auch gerade, ob ein Celeron mit einer HD7750 nicht eine gute Kombination für einen HTPC ist. Ich muss mir das noch einmal durch den Kopf gehen lassen und mich auf jeden Fall noch besser informieren.
 
abwarten und tee trinken ^^
Das höre ich seit geraumer Zeit:
Als Überschrift in Sachen Desktop und starkem Notebook mittlerweile so etwas wie ein AMD-Markenzeichen.

Für meinen Bedarf idelt ein PC beim Recherchieren, Tabellarisieren, gelegentlichen Videos, Texte schreiben etc. praktisch zu 95% herum: Dafür wäre "Trinity" ideal, eine Prozessor-Grafikeinheit zum Nichtstun, welche dafür momentan am wenigsten Strom frisst. Für die übrigen 5% bräuchte ich für PSPICE & Co schlicht CPU-Rechenpower und nochmal CPU-Rechenpower ohne die Kiste - zeitgemäß und nicht wie früher - dabei zum Kochen zu bringen. Für die zweidimensionale Darstellung der xyz-Koordinatendiagramme dieser CPU-lastigen Programme wäre dagegen bereits eine Sandy-Bridge GPU überdimensioniert. Trinity macht demnach überhaupt keinen Sinn.

Abwarten und Tee trinken, bis irgendwann einmal der GPU-Teil beim Rechnen tatkräftig mitmischt und solche Programme das auch zu nutzen wissen? (warum sollten sie?)

Ich brauche PCs und Notebooks zum produktiven Arbeiten, jetzt und nicht zur AMD-Teatime, die vielleicht einmal am Sankt Nimmerleinstag stattfindet (wobei sich das Spiel höchstwahrscheinlich in bekannter Weise fortentwickelt, der Intel-Riese müsste zwischenzeitlich einem Total-Blackout anheimgefallen sein, wäre es nicht so).

Ich bin wohl (außer für Tablett-Spielzeuge) komplett aus dem AMD-Portfolio rausgefallen :rolleyes:, schade eigentlich...
 
Zuletzt bearbeitet:
@Casi
ja, aber es wäre ziemlich dumm eine langsamere und gleichzeitig teurer CPU zu nehmen, die zudem noch mehr Strom verbraucht.
 
MikelMolto schrieb:
@allel
Danke für den Link.
Ich finde das messen von Performance-per-Watt viel besser und aussagekräftiger, als Idle und Vollast Ergebnisse. Da sollte CB einmal darüber nachdenken.
Ich messe bei einem Auto ja auch nicht Leerlauf und volle Pulle Benzinverbrauch. Das kann man sicher besser machen.

Vorallem interessante Unterschiede die dadurch zu Tage kommen.

CB:
Die TDP von 100 Watt wird von „Trinity“ genau so ausgenutzt wie vom Vorgänger „Llano“, der unterm Strich sogar noch etwas weniger Energiebedarf anmeldet. Dies gilt übrigens nicht nur bei CPU-Tests, auch bei der Nutzung der Grafikeinheit ist „Trinity“ alles andere als ein Kostverächter.

tweakpc:

Auch wenn diese Zahlen natürlich nicht den maximal möglichen Verbrauch darstellen, der beispielsweise synthetisch erzwingbar wäre, so stehen sie vielmehr für das, was unter realen Einsatzbedingungen zu erwarten ist.

Auf die Stromrechnung schlägt sich das dann folgendermaßen nieder: A10-5800K benötigte zur Durchführung unseres Energietests 0,175 kWh. A8-3870K brachte es auf 0,196 kWh.

Fassen wir zusammen.

CB: erweckt den Eindruck, ein Trinity braucht mehr Strom
tweakpc: Stromverbrauch beim ~3h Benchmarkparcour -10% für Trinity, Idle: -23% für Trinity

Ist nur ein wenig Schade, dass man nicht auch nen i3-322(0/5) mit getestet hat.
 
Das CPU-Z auf Seite 2 gehört aber zu einem Core i5 3550 und nicht zu einem Core i3...

tmkoeln
 
das mit dem cpu-z Screen wurde schon in diesem Thread richtig gestellt - weiter unten auf dem Bild sieht man das i3 ^^
 
Eher auf Seite 5 - und die Daten mit 2 Kernen und 4 Threads entsprechen nun mal einem i3 (siehe Specifications). Der Fehler liegt also bei CPU-Z. Wie schon mehrmals hier erwähnt ;)
 
Zum Thema "Trinity nicht spieletauglich":

Ich denke viel zu viele schließen hier in ihrer Argumentation von sich selber auf die Allgemeinheit. "Spielen" bedeutet nicht nur Core Games wie Crysis oder Battlefield, nein, mitlerweile gibt es einen riesigen Markt für Casual und Social Games und ich denke genau für diesen Markt sind die Trinity APUs gedacht.

Versetzt euch einfach mal in die Lage des Familienvaters der zwei Töchter hat, Alter 9 und 11, und der denen einen PC kaufen möchte und auch muss, alleine schon weil man sowas für die Schule schon ab immer geringeren Altersstufen braucht. Für den ist Trinity doch die perfekte Wahl:

Die CPU ist stark genug für alle Officearbeiten, also falls man mal was für die Schule machen muss, Präsentationen oder Texte schreiben, die iGP ist stark genug für alle Multimediaaufgaben und die Kids können damit ihre Social und Casual Games mit ihren Freunden im Netz zocken, also die ganzen Facebook Games usw.

AMD bietet für solche Nutzer einfach ein extrem rundes Paket ab. Sowohl Leistung, als auch Stromverbrauch, als auch Preis, als auch Größe (nicht unwichtig, Ästhetik zählt in diesen Segmenten mehr als man meinen möchte) sind absolut stimmig.

Ich brauche keine Trinity und ich werde mir nie eine kaufen. Aber deswegen spreche ich ihr nicht die Daseinsberechtigung ab. Ich sehe Einsatzmöglichkeiten für diese Chips und wenn ich selbst Kinder in einem gewissen Alter hätte, dann wäre das der perfekte Chip für die. Oder auch für alte Menschen ist es denkbar (das Wii Prinzip). Was wollen die mit Crysis oder Battlefield? Die haben sicher mehr Spaß daran ihre virtuellen Kohlfelder zu bestellen. Spiele =|= Spiele.
 
^^ soweit denken aber die meisten hier nicht , die sehen nur ihre Hardcore CPUs und Games .
Ansich würde der A10 sogar für meine Anwendungen reichen , ich warte allerdings erstmal auf Piledriver ,
mal sehen was der so zu bieten hat .
 
Tomahawk schrieb:
@Casi
ja, aber es wäre ziemlich dumm eine langsamere und gleichzeitig teurer CPU zu nehmen, die zudem noch mehr Strom verbraucht.

Athlon X2 340 1 / 2 3,2 / 3,6 GHz 1 MB 65 W
Abwarten wie das Gegenstück abschneidet und wie Teuer er ist.
Aber ich denke mal er wird bei unter 40EU liegen und + - die gleiche Leistung haben.

Schneller als der AM3 AMD Athlon II X2 250 (C3), 2x 3.00GHz sollte er auf jedenfall sein.
 
Zuletzt bearbeitet:
Celeron G530 und HD 7750 ist auch eine Option.
 
nanoworks schrieb:
AMD bietet für solche Nutzer einfach ein extrem rundes Paket ab. Sowohl Leistung, als auch Stromverbrauch, als auch Preis, als auch Größe (nicht unwichtig, Ästhetik zählt in diesen Segmenten mehr als man meinen möchte) sind absolut stimmig.

Sehr schön, dass es noch genug Leute gibt, die über den Tellerrand schauen.

Mein Budget ist z.B. nicht üppig, ich würde dennoch gern meinen Athlon X2 mal so langsam ersetzen (wehe einer lacht ;)). Die Kiste soll alltagstauglich sein, blu-rays abspielen wie auch andere Videos und hin und wieder auch mal ein Game verkraften. Der Compiler darf auch ruhig 1-2 Sekunden länger rödeln und wenn ich mal ein paar Videos konvertiere, dann geschieht das über Nacht.

Was will ich mit einem doppelt so teuren Intel Prozessor, bei dem ich noch die Grafikkarte zukaufen muss? Ohne Grafikkarte ist die Kiste leiser und heizt weniger. Über den höheren Stromverbrauch lache ich nur, der ist sowas von vernachlässigbar.

Die APUs sind für ihren Einsatzzweck optimal und sie werden sich auch durchsetzen, wenn sich endlich mal die festgefahrene Meinung lockert, dass es immer eine CPU + Grafikkarte sein muss.
 
Schade, dass AMD in der CPU Kategorie absolut nicht mehr mit Intel mithalten kann. Aber Intel drückt auch gewaltig und bietet ihre Produkte zu einen fairen Preis noch an, nutzten eigentlich ihre momentane Monopolstellung nicht aus. Natürlich gibt es Gebiete, wo ein Trinity besser ist als ein reiner Intel-CPU, aber nicht für mich. Entweder brauche ich einen nur für Office arbeiten und dann am besten sparmsam, da wäre der Intel deutlich besser, siehe Stromverbrauch. Und ich hab meinen "Hardcore"-Rechner für Games und da lohnt sich auch nur Intel. Bald kauf ich mir vielleicht noch ein Ultrabook, da hab ich noch ein wenig Hoffnung, dass AMD eventuell etwas günstiges liefert, aber die ULV-CPUs von Intel sind bis jetzt unschlagbar und dann muss man ebend bissle mehr drauf legen und dafür hat man was richtig gutes.
 
Warum melden sich bei HTPC-APUs immer "Hardcore-Gamer" und ziehen AMD durch den Dreck? Ich denke hier geht es um AMDs Trinity-APU und keine Sockel-1366-CPUs mit Quad-SLI.
Egal, die Leistungsaufnahme als negativer Punkt wurde auch im C't-Artikel zum Mc101 erwähnt, aber letztendlich stellt Trinity in meinen Augen die optimale Lösung für HTPCs dar ohne Leistungseinbußen ggü. dem i3 eingehen zu müssen. Die Befehlserweiterung (AES und Co.) ggü. dem i3 ist dann das i-Tüpfelchen.
 
Allein der höhere Stromverbrauch des AMDs wäre für mich ein Ausschlusskriterium für die Verwendung in HTPCs.
 
Q .
Du reihst dich ein in die Meckertanten ohne Überblick. Weil es ja nur den 5800K gibt und sonst keinen. Aber man ist es ja hier gewohnt. Unüberlegte Einzeiler ohne Substanz. Nach meiner Meinung einfach dumm, ohne jegliche Intelligenz. Wer baut denn schon einen HTPC mit einem 5800K? Das machen die wenigsten. Der 5700 ist die richtige und eigentlich schon das maximum. Bessere wäre ein 5500.
Natürlich bietet auch Intel in diesem Bereich etwas, allerdings nach meiner Auffassung das schlechtere Paket. Beschnitten in den Instruktionen, schlechte Grafiktreiber, 24p Bug.
 
Q . schrieb:
Allein der höhere Stromverbrauch des AMDs wäre für mich ein Ausschlusskriterium für die Verwendung in HTPCs.

Hm, ok. Warum? Welchen Unterschied macht das am Ende auf der Stromrechnung, wenn du deine CPU permanent unter Volllast laufen lässt (was vermutlich nicht so sein wird, aber wir nehmen es mal an)?
 
Zurück
Oben