Test Alle Desktop-Trinity im CPU-Vergleichstest

danke, der Test war sicher für alle Interessierten hilfreich, und zeigt schön, dass die A10-5700 APU auch wirklich erwartungsgemäß sparsamer ist.

Allerdings finde ich es fraglich, weshalb man in so einen Rechner eine Geforce GTX 680 einbaut, die ja idle auch Strom zieht, und man will ja auch von der guten integrierten und stromsparenden Grafik der APUs profitieren, daher wäre IMHO wenn schon, eine Kombination mit einer kleineren ATI-Grafikkarte sinnvoller, da diese beiden Grafikeinheiten dann zusammenarbeiten können.
-
Aber ansonsten sieht man ja im GPU-Vergleichstest den sehr guten IDLE-Verbrauch von ca. 33W
https://www.computerbase.de/2012-11/alle-desktop-trinity-im-gpu-vergleichstest/
 
Zuletzt bearbeitet:
Schu3 schrieb:
Warum wird die Leistungsaufnahme nicht auch bei einem Spiel gemessen?
Wenn man nur genau ein Spiel heraussucht, ist das auch etwas witzlos. Dann sollten es schon mehrere Spielen bzw. Anwendungen sein. Schließlich hat ja nicht jedes Spiel die gleiche CPU-Auslastung. Dann ist noch die Frage, ob man mit Vsync an oder aus testet, welche Grafikkarte usw.

Generell wird CPU A, die bei Voll-Last mehr als CPU B braucht, nicht plötzlich bei Teil-Last sparsamer sein ;)
 
Hamst0r schrieb:
Falls ja, steht schon in Aussicht ob sich das jemals ändern wird und AMD auch was pure CPU Leistung angeht mal wieder mit Intel konkurrieren kann?

Kommt halt immer drauf an, was du machen willst. Bei Spielen führt kein Weg an Intel vorbei, wenn du das Maximum rausholen willst. Wenn man sich aber mal den x264 HD 5.0.1 Benchmark anschaut dann ist ein FX-8350 genauso schnell wie ein i7-3770K, verbraucht aber deutlich mehr Strom. Bei POV-Ray ist nen FX-8350 sogar 10% schneller als nen i7-3770K. Wenn einen also der Stromverbrauch egal ist und man die "richtigen" Anwendungen benutzt, dann kann man durchaus auch zu AMD greifen.

rille schrieb:
Generell wird CPU A, die bei Voll-Last mehr als CPU B braucht, nicht plötzlich bei Teil-Last sparsamer sein ;)

Das wär ja mal interessant zu klären. Schauen wir uns doch mal nen FX-8350 an, bei Anwendungen ist der im Schnitt genauso schnell wie ein i5-3550. Bei höheren Stromverbrauch. Bei Spielen in niedriger Auflösung ist der i5 22% schneller. Somit müßte der Mehrverbrauch der AMD CPU deutlich geringerer sein als bei Anwendungen, da man dort noch Performance mäßig mithalten kann. Schau dir doch mal ne i3 und nen i7 an. Bei Prime95 braucht der i7 noch 49% mehr, bei dbPoweramp aber nur noch 34% mehr und ich könnt wetten, dass in Spielen der Abstand zwischen i3 und i7 noch kleiner wird.
 
Matzegr schrieb:
Somit müßte der Mehrverbrauch der AMD CPU deutlich geringerer sein als bei Anwendungen, da man dort noch Performance mäßig mithalten kann.
Ich weiß jetzt nicht so recht, was du meinst ;)

Wenn eine CPU nicht zu 100% ausgelastet ist, kann sie zwischendurch immer mal kurz schlafen gehen. Dadurch spart man letztendlich. Wie genau das in der Praxis aussieht, müsste man halt wirklich mal testen. Dann aber bitte auch mit einer besseren Meßmethode als mit einem "Voltcraft-Messgerät" direkt an der Steckdose. Die CPUs wechseln zig-mal in der Sekunde ihre Leistungsaufnahme, genauso schnell sollte man auch messen um nicht nur grobe Näherungswerte zu bekommen.
 
Bisher ist der A10-5800K der Faforit für den geplanten Mediacenter.
1. Brauche ich keine diskrete Graka
2. Sind mir die max.100W egal. Wann wird die CPU schon richtig ausgelastet? (Im Mediacenter)
Da will ich lieber hohe Single Thread Leistung und ab und zu kurz volle Leistung (bei Updates/ Installationen/ Laden von irgendwas)
 
beckenrandschwi schrieb:
Bisher ist der A10-5800K der Faforit für den geplanten Mediacenter.
1. Brauche ich keine diskrete Graka
2. Sind mir die max.100W egal. Wann wird die CPU schon richtig ausgelastet? (Im Mediacenter)
Da will ich lieber hohe Single Thread Leistung und ab und zu kurz volle Leistung (bei Updates/ Installationen/ Laden von irgendwas)
würde mich nicht wundern wenn ein i3 bei videowiedergabe usw. sparsamer wäre :evillol:
dann geht deine rechnung nach hinten los
 
bensen schrieb:
Ich finde es ja löblich das so ein umfangreicher Test gemacht wird, aber was eindeutig fehlt sind weitere Intel CPUs. Was soll damit für ein Bild erzeugt werden? Das jede Intel CPU schneller ist als AMDs schnellste APU? Oder dass Intel im unteren Preisbereich einfach nichts zu bieten hat? Es fällt auf, dass generell in fast allen CPU-Tests nur die schnelleren Intel CPUs getestet werden.
Es wäre schon schön wenn da ein Celeron und ein Pentium mit getestet würden. Wäre ja auch nicht grad nen großer Aufwand bei den ganzen CPUs noch 2 zusätzlich zu testen.

Das liegt daran, das du und einige andere Leute nicht richtig lesen können. Die Überschrift hier lautet:
"Alle Desktop-Trinity im CPU-Vergleichstest"!

Um die Werte besser einordnen zu können, wurden halt einige wenige andere CPUs mit getestet.

Was ihr wollt, ist ein Test mit dem Namen: "Alle CPUs bis 120€ im Vergleich"!

Es ist Jahresende, so einer kommt bestimmt im laufe des Dezembers....
 
beckenrandschwi schrieb:
Da will ich lieber hohe Single Thread Leistung und ab und zu kurz volle Leistung (bei Updates/ Installationen/ Laden von irgendwas)
Wenn du Singlethread-Leistung willst, nimm einen Core i3-3220. Der ist hier jedem Trinity weit voraus.

2012-11-22_123958.png

noay11 schrieb:
würde mich nicht wundern wenn ein i3 bei videowiedergabe usw. sparsamer wäre.
Ein Core i3-3220 ist bei Blu-ray-Wiedergabe sparsamer als ein A10 (es sei denn, man deaktiviert die von Haus aus bei AMD vorhandenen Video-Optimierungen, dann sieht aber bei Intel das Bild besser aus).

2012-11-22_123721.png
 
Arno78 schrieb:
Hallo

Was soll das wieder mit eine schnellere CPU für Videos rendern ???

Dafür gibt es eine Grafikkarte die das übernimmt

Gruß

Ich weiss nich ob ich weinen oder lachen soll über diesen Kommentar:(

Eine GPU hat nur voreingestellte Profile keine Profieinstellungen sind damit möglich. H.264 main Profil, keine Einstellung der Bitrate angepasst und zu guter letzt auch noch die Auflösung:freak:
Da kann ich mir gleich nen Strick nehmen.
 
HITCHER_I schrieb:
Allerdings finde ich es fraglich, weshalb man in so einen Rechner eine Geforce GTX 680 einbaut,

Das macht man, damit die Ergebnisse der verschiedenen CPU-Tests untereinander vergleichbar sind. Dafür braucht man eine möglichst einheitliche Testplattform, also auch immer die selbe Grafikkarte.

Dass man dafür eine High-End-Grafikkarte benutzt, liegt daran, dass bei einem CPU-Test die Grafikkarte nach Möglichkeit nicht limitieren soll, damit man die Leistungsunterschiede zwischen den verschiedenen CPUs deutlich sieht.
Aus dem selben Grund testet man Grafikkarten mit (übertakteten) High-End-CPUs.
Damit nimmt man einen Flaschenhals aus der Gleichung.

Natürlich wird das Ganze bei APUs ewas knifflig. Da kann man nur eingeschränkt den CPU-Teil und den GPU-Teil separat testen. Z.B. werden wir niemals erfahren, wie gut sich ein dicker i7 in Kombination mit einer HD 7660D-Grafik schlagen würde oder umgekehrt.

Aber du hast natürlich recht. Wenn es nur um den Vergleich des Verbrauchs geht, wäre es auch interessant, mal die Grafikkarte wegzulassen. Nur würden dann alle CPUs ohne integrierte GPU, in diesem Fall der Phenom II und der FX, aus dem Vergleich rausfallen.

Außerdem geht es in diesem Artikel ja nur um den CPU-Teil der APUs. Da ist es wiederum sinnvoll, die unterschiedlichen iGPUs auszuklammern und mit einer dedizierten Grafikkarte für ein einheitliches Testniveau zu sorgen.
 
Irgendwie hab ich je mehr ich mich mit den APUs beschäftige das Gefühl, dass Llano einen deutlich ausgereifteren Eindruck machte. Wenn ich dann noch bedenke, dass der A8 3870k für knapp 80 € schon über die Ladentheke geht und noch schön OC Potenzial da ist, dann hat die APU nur einen Nachteil und das ist das sie nicht auf einen FM2 Sockel passt.

Der Sprung der APU zwischen Llano und Trinity ist einfach zu gering gewesen und bei der CPU Leistung hat man eher noch Federn gelassen.

@Herdware

Ich denke der Testpaccoure sollte für APUs anders sein als für die CPUs. Man könnte ja Alternativen testen in Form was bringt die APU gegenüber einer vergleichbaren CPU/GPU Lösung an Kosten/Nutzen Performance und Verbrauch auf die Waage.
 
Zuletzt bearbeitet:
rille schrieb:
Ich weiß jetzt nicht so recht, was du meinst ;)

Wenn eine CPU nicht zu 100% ausgelastet ist, kann sie zwischendurch immer mal kurz schlafen gehen. Dadurch spart man letztendlich. Wie genau das in der Praxis aussieht, müsste man halt wirklich mal testen. Dann aber bitte auch mit einer besseren Meßmethode als mit einem "Voltcraft-Messgerät" direkt an der Steckdose. Die CPUs wechseln zig-mal in der Sekunde ihre Leistungsaufnahme, genauso schnell sollte man auch messen um nicht nur grobe Näherungswerte zu bekommen.

Was soll das Problem am Voltcraft sein? Das Netzteil hat einen Haufen Kondensatoren, Spulen und Regelungen, irgendwelche Verbrauchsanpassungen im µs-Bereich kommen so schnell nie an der Steckdose an. Wenn es so wäre, hätten wir ein echtes Problem. Und damit macht das Voltcraft wieder genau was es soll: Den Verbrauch messen.

Für einen annähernd exakten Zeitverlauf des Verbrauchs müsste man direkt an der CPU messen, aber das würde einem auch nicht wirklich weiter helfen - was erfährt man dadurch?
 
Loopman schrieb:
Das liegt daran, das du und einige andere Leute nicht richtig lesen können. Die Überschrift hier lautet:
"Alle Desktop-Trinity im CPU-Vergleichstest"!
Ich kann nicht nur richtig lesen, sondern noch ein Stück weiter denken. Wo schließt denn ein Vergleichstest CPUs anderer Hersteller aus? Um einen Überblick zu haben was die CPUs leisten ist es notwendig sie mit anderen CPUs zu vergleichen. Und die sollten auch in einer vergleichbaren Leistungs- und Preisklasse sein. Um einem die Kaufentscheidung leichter zu machen sollten das dann möglichst auch aktuelle CPUs sein.

Was ihr wollt, ist ein Test mit dem Namen: "Alle CPUs bis 120€ im Vergleich"!
Tja da kannst du nicht richtig lesen. Ich habe geagt es sollten noch zwei Intel-CPUs mit getestet werden. Zwischen "2" und "alle" ist schon nen bisschen Luft.
Zumal alle zu testen einfach nur Zeitverschwendung ist. Man nimmt nen Pentium und nen Celeron. Da braucht man nicht jede Taktstufe testen das kann man sich selbst ausrechnen.

nebulein schrieb:
, dann hat die APU nur einen Nachteil und das ist das sie nicht auf einen FM2 Sockel passt.
Ist das nen großer Nachteil? Die Chipsätze sind fast die gleichen und die Auswahl ist bei FM1 größer.
 
@bensen

Ich empfinde das schon als Nachteil weil die Plattform ja nicht weiter entwickelt wird und man somit gezwungen ist irgendwann das Board inkls APU zu tauschen. Beim FM2 dagegen ist man jetzt mit Trinity in der 1. Generation aber Trinity kann mich ehrlich gesagt bei weitem nicht so überzeugen wie Llano.
 
Wenn eine CPU nicht zu 100% ausgelastet ist, kann sie zwischendurch immer mal kurz schlafen gehen. Dadurch spart man letztendlich. Wie genau das in der Praxis aussieht, müsste man halt wirklich mal testen. Dann aber bitte auch mit einer besseren Meßmethode als mit einem "Voltcraft-Messgerät" direkt an der Steckdose. Die CPUs wechseln zig-mal in der Sekunde ihre Leistungsaufnahme, genauso schnell sollte man auch messen um nicht nur grobe Näherungswerte zu bekommen.
Solche standardisierten und vor allem vom User auch selbst nachvollziehbaren Tests fehlen in der Tat.

Das Voltcraft-Messgerät kann jedoch uneingeschränkt weiter Verwendung finden: das Messergebnis bleibt ausreichend präzise, weil schnelle Hardware-Lastwechsel im Ladekondensator des Netzteils (= Tiefpass = Integrator mit langer Zeitkonstante) zeitlich integriert werden und die daraus resultierenden langsamen Veränderungen kein Problem für die Messgenauigkeit darstellen. Mit einem guten Netzteil völlig unproblematisch...
 
@nebulein
Ok ist immer die Frage wie das eigene Aufrüst-/Kaufverhalten aussieht. Ich kaufe mir nicht alle 1-2 Jahre ne neue CPU, weil mir die Sprünge viel zu klein sind. Von da aus bringt mir auch diese begrenzte Aufrüstoption nichts.
Allerdings seh ich jetzt Trinity nicht so wirklich im Nachteil. Gut wenn man OC mit einberechnet vielleicht.
 
Gut wenn man OC mit einberechnet vielleicht.

Gerade was OC angeht kann ich nicht verstehen. Ich kann bei Trinity die IGP wesentlich höher und effizienter OC (1ghz +). Das gleiche gilt für den Prozessor denn ich bis scheinbar 4,7 GHZ overclocken kann.
Soviel ich weiß schafft ein A8 3870k gerade mal 3,5 ghz ?
Wenn man bedenkt dass der Llano ca einen Phenom II entspricht und der A10 mit seinen 3,8 ghz schneller ist als ein 3,4 ghz 965 PII , spricht das eigentlich viel für Bulldozer...

Das gute an Llano ist das massive UV Potential und die Dual core Varianten.
Interessant wäre es aber, wenn es vllt APU Trinity geben würde, mit 2 Modulen mit jeweils nur einen aktiven core.
Mich würde es nicht wundern, wenn sowas auf den Markt kommen würde. Ebenso ein 3 Core Trinity ist nicht unrealistisch. (Gab ja auch 3 core FX Bulldozer)
 
Zuletzt bearbeitet:
Tatsächlich satte 25 % mehr Performance lassen sich da noch aus der IGP locken. Aber ich hab auch schon Llanos gesehen die teilweise bis zu 40% mehr Leistung nach übertakten hatten und an die 4ghz hatten.

Das wäre mal ein interessanter Vergleich.

TH hat ja da bei llano auch 3,7ghz geschafft und 960mhz aus dem igp Part. Würd gern mal sehen wie da Trinity im Vergleich steht. Klar in Nackischen Zahlen sind die Werte höher, aber ich glaube das die sich nicht viel geben in Prozent bei der Performance.
 
Zuletzt bearbeitet:
Zurück
Oben