Test Test: Trinity vs. Ivy Bridge im CPU-Test

Darzerrot schrieb:
Entweder brauche ich einen nur für Office arbeiten und dann am besten sparmsam, da wäre der Intel deutlich besser, siehe Stromverbrauch.

Bei Office dürfte allerdings der Volllastanteil äußerst klein sein. Und im Idle verbraucht der i3-3220 24% mehr als ein Trinity! Du darfst dich ja nicht hier an den Idle-Werten aus diesem Test orientieren, die sind mit zusätzlicher GPU. Bei gleicher GPU verbraucht der i3 und A10 gleichviel im Idle weil die interne Grafikeinheit aus ist. Solltest du aber die iGPU nutzen ist ein A10 wesentlich effizienter im Idle als ein i3!

Wo ist Intel also die bessere Wahl für Office?
 
Wirklich geiles Gesamtpaket, das AMD da zusammengestellt hat. Der A10-5800K kostet gleich viel wie ein i3-3220 und ist von der CPU Leistung auf selben Niveau, bei der GPU Leistung schlaegt er gleichzeitig alles was von Intel am Markt ist. Sehe eigentlich keinen Grund mehr einen Intel fuer ein "Office" System zu benutzen.
 
Jetzt ist es passiert, mein erster PC mit Intel CPU ist realität.
Wenn es das ist was AMD wollte OK, ..ach ja der Desktop Markt ist ja "uninteressant" geworden. :lol:
Mal schaun wie lange noch.
Immerhin eine Gemeinde die konstand am (AMD) Markt hing und nun wegbröckelt.

Die, die sich eine Leistungsfähige dGrafikkarte leisten und eine leistungsfähige als auch stromsparende CPU brauchen, werden wohl Intel kaufen.;)
 
Habe den Test mit Begeisterung gelesen. Und ich finde es auch gut, dass der A10-5800K nahezu genauso schnell ist wie der FX-4170 (mein bisher bevorzugter Prozessor). Das Intel hier und da schneller ist okay, auch dass die Leistungsaufnahme unter Last geringer ist. Ich finde es auch gut, dass man nun mit einem 2Kerner + CMT die "echten" 4Kerner der Vorgänger schlägt - damit meine ich P2 965.


Apropo Leistungsaufnahme. Findet das keiner ein bisschen albern, einen Prozessor nach seiner Idle-Last-Differenz zu beurteilen, anstatt nach seinem stündlichen Verbrauch (gemessen in kWh)? Wo sagt mir das bitte, dass wie effizient der Prozessor ist? Vor allem ist das kein Test für die ganzen Pfennigfuchser hier immer. Worauf ich hinaus will ist, dass bei einer Beurteilung ein Prozessor der mit einem hohen Idle-Aufnahme und einer niedrigen Last-Aufnahme besser da steht, als ein Prozessor mit niedrigem Idle-Verbrauch bei gleicher/größerer Last-Aufnahme.
Überspitzt dargestellt:

PC/Prozessor 1 - Idle 10W / Last 150W -> Differenz 140W
PC/Prozessor 2 - Idle 60W / Last 80W -> Differenz 20W

Jetzt steht ja Prozessor 2 wesentlich besser da als Prozessor 1. Aber bei realer Nutzung braucht die Kiste nicht wahrscheinlich mehr Energie pro Stunde -> kWh (die ja dann auch beim Versorger bezahlt werden müssen).
Und genau das ist leider im Test der Fall - i3 Idle 56W, Trinity Idle 55W. Mir ist schon klar, dass der i3-Rechner in 1h bei einem 90/10-Verhältnis (Idle/Last) weniger (k)Wh "verbraucht" als der Trinity-Rechner.

Problem:
Es geht eher um die Aussage "kleine Idle-Last-Differenz = gut", diese verfälscht meiner Meinung nach das Bild.

Lösungsidee:
Den PC in einem guten Mix aus Spielen, Anwendungsnutzung, Surfen, Musik und Videodarstellung 1h lang betreiben und dann den wirklichen "Verbrauch" messen, wieviele (k)Wh hat das Gerät "erzeugt". Denn dieser steht dann auch bei uns Nutzern daheim auf der Uhr und muss bezahlt werden.
Hier fließen ja dan sogar so Faktoren ein wie "stärkerer Prozessor verbraucht mehr, ist aber schneller fertig und wieder im Idle-Modus" etc.

Logischerweise stehen dann die Intelkonfigurationen immer noch besser da, als die von AMD. Allerdings ist das dann ein recht realer Wert, zum Bewerten der Effizienz. Nicht wie der Last-Energiebarf oder irgendwelche Idle-Last-Differenzen
 
Zuletzt bearbeitet:
Schon vollkommen richtig die Idee mit dem 1 Stunde lang die Leistung messen und den Rechner Alltägliche Sachen machen lassen.
Besser noch ist ein Test, der verschiedene Aufgeben macht. 10 Minuten Video, ein Games Benchmark, ein Video konvertieren usw. und man schaut sich die Zeit an, die dafür benötigt wird und die dabei verbrauchte Energie in der Zeit. Dann kann man auch mehr CPU Power in Relation zu schneller fertig und Energie Verbrauch insgesamt beurteilen.
 
Mein FX8150 verbraucht insgesamt weniger als mein Stromspar CPU 910e davor. Warum? Weil er 8 Kerne hat und bei fast 400 Prozessen in Linux fast immer auf 1400Mhz rennt, waerend die 910e dauernd hochtakten musste. Und das hab ich ueber Monate gemessen und verglichen.
 
@Schu3:
Effizienz wird ganz einfach berechnet, indem man den Stromverbrauch des Rechners misst, in Wh, während er die Cinebench 11.5 Testszene rendert. Der eine Rechner mit weniger Leistungsaufnahme braucht zwar länger, aber womöglich trotzdem weniger Energie für die Aufgabe. Was am Ende zählt sind nur die verbrauchten Wh.

Für typischen Office-Betrieb ist vor allem der Idle-Verbrauch wichtig, weil ja so ein Office-Rechner zwar den ganzen Arbeitstag lange läuft, aber die CPU zumindest 99% der Zeit idle ist. Wenn die Intel-CPU für Office nun idle schlechtere Verbrauchswerte hat, aber unter Last etwas genügsamer ist, schaut das leider schlecht für Intel aus.
 
Zuletzt bearbeitet:
@MikelMolto:
meine Worte - nur stellt sich die Frage (an die CB-Tester), ob denn eine solche Messung so mega schwer ist -> erfordert ja "eigentlich" nur einen Stromzähler. Ein entsprechendes Testszenario ist ja schnell gefunden, nur muss auch die technische Umsetzung relativ simpel sein. Da wäre ja mal noch eine Stellungnahme von Wolfgang und Co. nett.

@HITCHER_I:
genau das habe ich ja gemeint. Bzw. wie MikelMolto schon sagte ein guter Mix aus verschiedenen Aufgaben. Nur beim jetzigen Test schaut man sich das ja nicht an. Man misst Leistungsaufnahme unter Last und im Idle und sagt "Hey die Differenz ist unsere Effizienz". Zwar ist diese Differenz beim Trinity das 3-fache von der des i3's, aber deswegen ist noch lange der "Energieverbrauch" (bei normaler Nutzung) das 3fache.
Schu3 schrieb:
Wo sagt mir das bitte, dass wie effizient der Prozessor ist?
Dieser Satz bezog sich dabei auf die Idle-Last-Differenz. =)
 
Zuletzt bearbeitet:
Die Idle-Last Differenz ist das sinnfreieste seit langem... demnach sind alte Gurken ohne Stromsparfeatures das beste der Welt da sie ständig mit voller Last heizen und somit die Idle-Last-Differenz 0 Watt beträgt.
 
Und dann teilst noch durch null und es wird alles gut...
ne im ernst, ich hab mich auch gefragt was genau mir dieser Wert sagen soll, und dass CPUs mit schlechten bis garkeinen Stromsparfunktionen da am besten abschneiden würden.
 
Sehr traurig das noch nicht wirklich viele fm2 boards auf dem markt sind, doll ist das nicht!
Lucid Virtua MVP und Switchable Graphics erst ab 117€ wo ja gerade stromverbrauch in diesem thread heiss diskutiert wurde...sowas gibs bei Intel Z77 Board Pendanten schon 20€ + günstiger! Es sollten schnell mehr boards kommen sonst ist das ein schlechter Start im Anfangsgeschäft Bereich non-OEM für AMD!
 
Zuletzt bearbeitet:
pipip schrieb:
John_Sheppard
Naja wer weiß :O vllt ist Trinity noch der Athlon XP und Kaveri könnte mit streamroller + GNC und gemeinsamer Adressraum schon wie damals HT und 64Bit ein neuer Meilenstein sein :O
abwarten und tee trinken ^^

riDDi schrieb:
Hey, sag nix gegen den Athlon XP. Die sauteuren Pentium III sahen gegen die damals verdammt alt aus und die ersten Pentium 4 waren noch ein stück langsamer. Erst mit dem Northwood hat Intel aufgeholt. Oder war das noch vor deiner Zeit?

@riDDi --> Kann mich deinem Kommentar nur anschließen! :)
 
@HITCHER_I:
genau das habe ich ja gemeint. Bzw. wie MikelMolto schon sagte ein guter Mix aus verschiedenen Aufgaben. Nur beim jetzigen Test schaut man sich das ja nicht an. Man misst Leistungsaufnahme unter Last und im Idle und sagt "Hey die Differenz ist unsere Effizienz". Zwar ist diese Differenz beim Trinity das 3-fache von der des i3's, aber deswegen ist noch lange der "Energieverbrauch" (bei normaler Nutzung) das 3fache.

Dieser Satz bezog sich dabei auf die Idle-Last-Differenz. =)

ja, naja das AMD Vergleichsexemplar A10-5800K ist wohl wirklich nicht das effizienteste unter Last, weil AMD hier versucht hat das letzte raus zu holen an Geschwindigkeit :D:lol:
Der A10-5700 wäre zwar ca. 10% langsamer, aber trotzdem viel effizienter unter Last, weil die Leistungsaufnahme ca. 25-35W geringer sein müsste.

Wichtig ist natürlich auch immer ein hocheffizientes und von der max. Leistung richtig dimensioniertes Netzteil, weil die ja bei ca. 50% Auslastung den höchsten Wirkungsgrad haben,
dieser aber unter 20% Auslastung etwas abfällt, unter 10% wird der gar ganz schlecht, über 80% fällt die Kurve auch etwas ab, aber nicht so stark wie am anderen Ende. Also ein 80%+ 200W Netzteil müsste für A10-5700 ideal sein. Für das Intel System i3-3220 evtl. 150W-Netzteil, wenn man ohne extra dedizierte Grafikkarte arbeitet.
 
Zuletzt bearbeitet:
Ulukay schrieb:
Mein FX8150 verbraucht insgesamt weniger als mein Stromspar CPU 910e davor. Warum? Weil er 8 Kerne hat und bei fast 400 Prozessen in Linux fast immer auf 1400Mhz rennt, waerend die 910e dauernd hochtakten musste. Und das hab ich ueber Monate gemessen und verglichen.

Solche Tests halte ich für wichtiger als künstliche Benchmarks. Langzeittests...bin ich dafür.

Wenn dann noch die Daten schön aufbereitet werden kann man sehen was wirklich hinter all den Kennzahlen steckt.
 
Die Frage ist halt auch was kommt unterm Strich dann raus. Wenn die CPU aufs Jahr gesehen 5 € mehr verbraucht als die andere, ist das auf einen Rechner gesehen egal.

Hat man aber Großraumbüros oder Serverfarmen und da stehen mal eben 1000-5000 dieser Rechner, dann sieht das schon anders aus.

Ich denke für den Privatanwender sollte das ganze egal sein und wenn man sich nachher in den PC ne High End Graka steckt ist die tollste Spar CPU für die Tonne.

Ich hab an meinem I7 z.b. einen Stromzähler und wenn ich sehe was da jetzt innerhalb von fast einem Jahr durchgelaufen ist, dann ist das so gering, dass es nicht der Rede wert ist. Wo soll man da noch mit einer Stromspar CPU sparen?

Ich betreibe ja keine 24/7 Serverfarm daheim.
 
Solche Tests halte ich für wichtiger als künstliche Benchmarks. Langzeittests...bin ich dafür.
Für einen Erfahrungsbericht nach einer gewissen Zeit wären Langzeit-Tests sicherlich eine Überlegung wert, aber in einem brandaktuellen Launch-Review wie diesem (auf das ja alle scharf sind), werden sie naturgemäß nicht vorkommen... :lol:
 
@Matzegr

Wo ist Intel also die bessere Wahl für Office?

Für Office braucht es auch keinen i3 3220. Lenovo z.B. steckt in Office-Desktops, wie sie große Unternehmen kaufen, einen Pentium G630. Wobei Notebooks in Dockingstations die bessere Wahl sind.

@Jesterfox

Die Idle-Last Differenz ist das sinnfreieste seit langem... demnach sind alte Gurken ohne Stromsparfeatures das beste der Welt da sie ständig mit voller Last heizen und somit die Idle-Last-Differenz 0 Watt beträgt.

Es ist wohl nicht so schwer, die Idle-Last-Differenz im Kontext der Idle-Werte zu betrachten? Sinnfrei wäre das ganze nur, wenn lediglich die Differenz angegeben würde.

@MikelMolto

Dann kann man auch mehr CPU Power in Relation zu schneller fertig und Energie Verbrauch insgesamt beurteilen.

Was genau lässt sich da besser beurteilen? Wenn CPU A und B z.B. gleich viel verbrauchen unter Idle und Last, A aber schneller rechnet, dann verbraucht A auch weniger.

Einzig ein Langzeittest bei bestimmten Nutzungsprofilen wäre interessant, aber aufwendig.
 
Zuletzt bearbeitet:
na toll nach monaten grade ma gleich gezogen!

bei mehr takt und 2x verbrauch faildozer und bye bye.

im high end bereich ist strom evtl nicht so wichtig

aber bei low end wird 2 fach verbrauch schon zum absoluten no go punkt.
 
LundM
Du bist ja mal drollig. Für diese unüberlegten Zeilen ist ja dein System kaum aus dem Idle Bereich gekommen. So würde dies auch bei einem System mit 5800K sein. Trotzdem frisst dein System für deine drolligen Zeilen 4-5x soviel wie ein 5800K System. Wer soll also deine Doppelmoral wirklich ernst nehmen?

Erschreckend ist das hier. Wenn man jemanden dieses Forum empfehlen will, müsste man ihr/ihn eine lange lange Liste an User Mitgeben auf deren Worte man zu 100% verzichten kann.
 
Zurück
Oben