Test Test: Trinity vs. Ivy Bridge im CPU-Test

"33 Watt bringt der Core i3-3220 auf die Anzeige, wenn man den Differenzwert zwischen voller CPU-Last und Idle in Windows ermittelt. Der A10-5800K genehmigt sich satte 105 Watt – mehr als das Dreifache!"

schade amd aber somit disqualifizieren sich diese cpu´s für mich als htpc cpu und meine nächster htpc wird den i3-3220 beherbegen.

einfach nicht mehr zeitgemäß prozessoren mit so einer leistung und so einem hohen stromverbrauch zu produzieren.

bei highend cpu´s darf der verbrauch gerne etwas höher sein,aber bei mainstream bzw. lowend sollte der verbrauch auch low sein ;)
 
nebulein schrieb:
Ich meine nur Enthusiasten steigen von einem Phenom II auf die neue Architektur um und von Intel wird auch kaum einer auf Trinity/Piledriver wechseln

Es gibt keinen Grund als privater Desktopnutzer von PII X4, Core i5-750 oder Core-i5 2500 auf irgendeine neue CPU zu wechseln, ausser Benchmark Vergleiche. Jeder der damit tatsächlich arbeitet oder zockt wirft sinnlos Geld zum Fenster raus wenn er diesen Upgrade Pfad wählt.

Die Ivy Bridge, FX und APU Generation ist für Neukäufer geeignet und so ist auch das Marketing ausgerichtet sowohl von Intel als auch von AMD.
Ergänzung ()

dacapo schrieb:
"33 Watt bringt der Core i3-3220 auf die Anzeige, wenn man den Differenzwert zwischen voller CPU-Last und Idle in Windows ermittelt. Der A10-5800K genehmigt sich satte 105 Watt – mehr als das Dreifache!"

schade amd aber somit disqualifizieren sich diese cpu´s für mich als htpc cpu und meine nächster htpc wird den i3-3220 beherbegen.
Das ist der Wert nachdem du deine HTPC CPU auswählst? Echt jetzt?
Was soll denn die Grafikeinheit der Ivys in einem HTPC?
 
Auch wenn hier schon darauf rumgeritten wurde, die Effizienz finde ich wirklich übel. Warum? Würdet Ihr ein Auto kaufen, dass bei gleicher Motorisierung die 3-fache Menge Treibstoff verbraucht?

Ich rechene nur mal kurz mit, sagen wir mal im Durchschnitt mit nur 25 Watt weniger Verbrauch 10 h pro Tag und 1000000 Millionen PCs, dann sind das 250000 KW/h die mehr erzeugt werden müssen. Für eine Person hält sich das in Grenzen, aber.... auch im eigenen Haushalt ist es sinnvoll auf den Stromverbrauch der einzelnen Geräte zu achten. Am Ende zahlt man die Zeche selber :freak:.

zu 1.: Ich sage nur die meisten kaufen hoochgezüchjtete PS Maschinen, da wird auf den Verbrauch geschi... und die Autolobby hat dank der Bestechlichkeit der BRD auch noch ein Freifahrtschein zur Umweltverpestung :D Das war immer so: "Man kann Hubraum nur durch eines Ersetzen: Mehr Hubraum " Deshalb hinkt ein Autovergleich

zu 2.: Genau da hast du Recht, aber nunja PCs im Hausgebrauch dürften einen Stromanteil von vllt 1% auf die Welt gesehen ausmachen. Wie einige hier schon sagten, ein AMD Trinity A10 dürfte ohne GPU bei um und bei 60-70W rauskommen, ein A10 5700 hat ja z.b. nur eine TDP von 65W.. Also sollte man sich als Tester lieber fragen wieso der TDP Spielraum soweit ausgedehnt wird, denn aufm Papier klingen die Abstriche zum 5700 vernachlässigbar

@Dacapo:
Ich werfe dir nun Unwissenheit vor. Ja vllt kann man das so Begründen , aber seitwann Intressiert sich der Otto Normal Dau für den Stromverbrauch seiner CPU? Vor allem seitwann denkt der Otto Normal Dau nach was in seinem PC steckt.. Wir hier machen vllt 10% des Deutschen Marktanteils auf PCs aus, lass es Forumsübegreifend 20% sein.. Dies ist immernoch Verschwindend Gering, und ich wage zu behaupten dass viele immernoch danach gehen: mehr Ghz = mehr Leistung

http://www.planet3dnow.de/vbulletin/showthread.php?t=408290&garpg=22#content_start

http://www.pcgameshardware.de/Trini...10-5800K-und-A8-5500-Trinity-im-Test-1024192/

Man kann es drehen und wenden wie man will, das Gesamtpaket stimmt. Bei PCGH z.b. verbraucht der Trinity im Vergleich nur 55W mehr in der Differenz IDle zu Vollast, der Intel nur 11W aber dafür ist die GPU auch sehr dürftig. Richtig Intressant wirds eben erst wenn die 65W Modelle draußen sind. was ein Trinity A8 leisten kann wurde ja in der PCGH Printed gezeigt (welcher aus dem ALDI PC stammte)
 
Zuletzt bearbeitet:
AMD-Mafiosi schrieb:
Bin Entäuscht vom CB Test.
Trinity ist zu Llano eine verbesserung, da kann keiner was abstreiten. Intels I3 hat nur durch den Fertigungssvortel 22nm einen besseren Stromverbrauch. Mir ist es aber egal was meine CPU (Die man übrigends beide hätte ohne dedizierte GPU testen sollen) verbraucht. Im Idle wo auch mein System zu 90% ist, ist Trinity auf einem sehr guten Weg. Ich verstehe nicht wie man einen Mittelklasse Chip mit einer 400€ GPU koppeln kann, das ist sowas von Realitätsfern.
Ich hätte mir dann doch eher sowas gewünscht: https://www.computerbase.de/2011-09/bericht-gpu-braucht-cpu/

Dennoch scheint CB das Potenzial von Trtinity zu erkennen, denn im Fazit wirds ja aufgegriffen. Warum aber zweitweise so einseitig geschrieben wird, verstehe ich nicht. Warum hat man nicht einfach die zugesteckte Grafikkarte weggelassen oder zumindest sich auf eine 660 geschränkt..?
Sowas hätte ich mir eher gewünscht: http://www.pcgameshardware.de/Trini...10-5800K-und-A8-5500-Trinity-im-Test-1024192/
Komisch dass es andre Seiten können, nur CB nicht will

Zum Thema: http://www.planet3dnow.de/vbulletin/showthread.php?t=408290&garpg=22#content_start

Der Vorteil des Stromverbrauchs kommt nicht nur durch die 22nm. Auch wenn, wär mir das egal, hier geht es ja nicht nur um das eine oder andere Watt. Hier gehts um das "3-Fache"! Klar, vermutlich würde kaum einer diese CPU mit einer GTX680 betreiben. Der Test ist aber wichtig um nicht in die GPU-Limitierung zu kommen um so die Performance der CPU richtig zu sehen.
 
Daedal schrieb:
Das ist der Wert nachdem du deine HTPC CPU auswählst? Echt jetzt?
Was soll denn die Grafikeinheit der Ivys in einem HTPC?

wieso was stimmt denn mit der grafikeinheit der ivys nicht?klär mich auf;)
 
Daedal schrieb:
Das ist der Wert nachdem du deine HTPC CPU auswählst? Echt jetzt?
Was soll denn die Grafikeinheit der Ivys in einem HTPC?

Was soll den die Grafikeinheit von Trinity in einem HTPC? Außer du schaust zu Hause noch auf einer Röhre...
Die Grafikeinheit von Intel reicht vollkommen aus für das Anschauen von Videos und HDTV.

Wer wirklich mit seinem HTPC spielt, der kommt an einer dedizierten Grafikkarte nicht vorbei. Oder kauft sich eine Konsole.
 
Aquado schrieb:
Der i3 mag von der Prozessorleistung besser sein aber dann brauch ich wieder eine Grafikkarte, das kostet Geld und vor allem Strom.

es soll auch menschen geben, die ihren pc nicht zum zocken benutzen. selbst wenn: für spiele sind sowohl die hd2500 als aich die hd7660 zu langsam und für multimedia sind beide schnell genug.
Ergänzung ()

Wlkir100 schrieb:
Traurig aber wahr.
Aber warum geht nur der kleinere von beiden x86-CPU-Herstellern diesen Weg? Weils der große einfach nicht kann. In dem Bereich hinkt Intel nun meilenweit hinterher - da kann man nichts schön reden.

Und das AMD mit Bulldozer eine gewagte Architektur geschmissen hat ist mit Hinblick aufs Große Ganze durchaus innovativ.
Immerhin macht man den weg frei für echte Innovation im Grundaufbau der CPU (oder besser gesagt APU).
Intel protzt von Jahr zu Jahr ihre Core-Architektur auf und fügt (wohlbemerkt aus Zugzwang) noch ne GPU auf den Die.

Die Architekturfortschritte von Intel sind viel sicherer und gehen stumpf in die selbe Richtung.

ja lieber stumpf in die selbe, als spitz in die falsche ;) auch wenn meinungfreiheit ein hohes gut ist, man muss sie ja nicht jedesmal wahrnehmen, bloss weil man es kann: du hast offenbar keine ahnung von der materie also erspare uns wietere postings xD
 
Sontin schrieb:
Die Grafikeinheit von Intel reicht vollkommen aus für das Anschauen von Videos und HDTV.

Wer wirklich mit seinem HTPC spielt, der kommt an einer dedizierten Grafikkarte nicht vorbei. Oder kauft sich eine Konsole.

genau so sieht es aus.mein htpc wird hauptsächtlich als videorecorder bzw.für blueray wiedergabe benutzt.das sollte doch mit dem i3 ohne probleme zu meistern sein.
nicht jeder zockt auf den htpc zumindest ich nicht ;)
 
RayKrebs schrieb:
Der Vorteil des Stromverbrauchs kommt nicht nur durch die 22nm. Auch wenn, wär mir das egal, hier geht es ja nicht nur um das eine oder andere Watt. Hier gehts um das "3-Fache"! Klar, vermutlich würde kaum einer diese CPU mit einer GTX680 betreiben. Der Test ist aber wichtig um nicht in die GPU-Limitierung zu kommen um so die Performance der CPU richtig zu sehen.
Ganz ehrlich? das ist doch nur Dummes Gewäsch.. wer will bitte wissen bei einer 100€ CPU wo das Limit beginnt.. Im Realbetrieb wird immer das GPU-Limit erscheinen, denn diese CPU Schreit gradezu danach mit einer Günstigen Dedizierten zu Betrieben werden. Ebenso würde ich nie an einen 3220 eine 400€ GPU hängen, denn somit mache ich mir eben diesen Preisvorteil kaputt. Im Mainstream sind für mich andre Dinge wichtiger als die Spieleperformance unter Full HD.
Und ich wage zu behaupten der Vorteil kommt Ausschließlich durch die Fertigung, die GPU dürfte nämlich bei Trinity ca 30% der Gesamt TDP fressen, was angesichts der Brachialen Leistung für eine IGPU lächerlich wenig ist.
 
Perry S. Hilton schrieb:
ja lieber stumpf in die selbe, als spitz in die falsche ;)

So falsch kann der Weg von AMD ja gar nicht sein, siehe NextGen-Konsolen, siehe HSA Foundation, siehe die iGP in jeder Intel Desktop CPU...
 
Sontin schrieb:
Was soll den die Grafikeinheit von Trinity in einem HTPC? Außer du schaust zu Hause noch auf einer Röhre...
Die Grafikeinheit von Intel reicht vollkommen aus für das Anschauen von Videos und HDTV.

Wer wirklich mit seinem HTPC spielt, der kommt an einer dedizierten Grafikkarte nicht vorbei. Oder kauft sich eine Konsole.

dacapo schrieb:
wieso was stimmt denn mit der grafikeinheit der ivys nicht?klär mich auf;)

Ein HTPC sollte schon ein paar Dinge können - sonst reicht auch ein Blueray-Player.
die HD4000 kann immer noch keine ruckelfreie 24fps - das ist schon ein ausschlußkriterium für HTPC.
Ansonsten schaut man sich mal die Tests an die auf HTPCs ausgelegt sind:
http://www.anandtech.com/show/6335/amds-trinity-an-htpc-perspective/7
Our overall conclusion is that discrete GPUs for HTPC use are only necessary if one has plans to upgrade to 4K in the near term, or the user is set upon using madVR for 1080i60 content. Otherwise, the Trinity platform has everything that a mainstream HTPC user would ever need.
 
Meetthecutthe schrieb:
Oh doch, das ist er leider.

Sagte der Branchenspezialist.. HSA wird grade durch ARM massiv gepusht.. Vllt bissl mehr als nur PCs betrachten ;) oder du nimmst deinen kleinen Intel und freust sich über ihn.
Besipiel? : http://www.hardwareluxx.de/index.ph...-nvidias-tegra-soc-im-neuen-vw-golf-vii-.html
Aber ist klar der VW Konzern ist ja kein großer Kunde :D Oh man, sowas tut weh

@sontin:
Du weist schon dass die Konsolen GPU in etwa das level hat wie eine AMD IGpu? Bevor ich mir ne Konsole kaufe, kaufe ich mir lieber nen 5700 und freue mich über ein Offendes System mit dem ich Fifa und SSF4 spielen kann und das Flüssig ;) ein HTPC ist mehr als ein Videorekorder, und genau dafür sind APUs mehr als nur intressant
 
Zuletzt bearbeitet:
Daedal schrieb:
Ein HTPC sollte schon ein paar Dinge können - sonst reicht auch ein Blueray-Player.
die HD4000 kann immer noch keine ruckelfreie 24fps - das ist schon ein ausschlußkriterium für HTPC.
Ansonsten schaut man sich mal die Tests an die auf HTPCs ausgelegt sind:
http://www.anandtech.com/show/6335/amds-trinity-an-htpc-perspective/7

Und was kann die Video-Decoding-Einheit von SB/IB nicht? Sie schafft vielleicht nicht genau 23,976FPS, aber mit 23,973 wird auch nur alle 3-4 Minuten neu synchronisiert. Wobei das nichtmal immer auffallen wird.

Darüber hinaus klappt alles inkl. 3D und 1080i über Quicksync.
 
Der Fortschritt zu den alten Llanos ist da und die Performance liegt tatsächlich auf dem Niveau eines FX-4170 zu gleichem Preis. AMD hat hier im Gegensatz zum BD einen Fortschritt gemacht.

Ich verstehe aber dennoch nicht, der das Ding kaufen soll. Für einfache Office-Rechner genügt ein Dualcore-Celeron. Wenn man sehr wenig ausgeben möchte, aber dennoch Spielen möchte, ist eine 40 Euro-CPU (z.B. Celeron G550) und dazu eine Grafikkarte wie z.B. eine HD6750/6770 deutlich schneller.
 
AMD-Mafiosi schrieb:
@Dacapo:
Ich werfe dir nun Unwissenheit vor. Ja vllt kann man das so Begründen , aber seitwann Intressiert sich der Otto Normal Dau für den Stromverbrauch seiner CPU? Vor allem seitwann denkt der Otto Normal Dau nach was in seinem PC steckt.. Wir hier machen vllt 10% des Deutschen Marktanteils auf PCs aus, lass es Forumsübegreifend 20% sein.. Dies ist immernoch Verschwindend Gering, und ich wage zu behaupten dass viele immernoch danach gehen: mehr Ghz = mehr Leistung

seit wann interessiert sich otto normal dau für den stromverbrauch der cpu?

seitdem der strom ziemlich teuer geworden ist und ein klein wenig auch seitdem stromerzeugung relativ gefährlich geworden ist,stichwort fukushima.........

nicht umsonst habe ich zuhause inkl. meinen jetzigen htpc der übrigens aus einem laptop (toshiba a200) besteht alle desktop rechner verbannt.

man wird älter und 1996 als ich meinen ersten pc hatte und dann alle evolutionsstufen mitgemacht habe war mir der stromverbrauch auch herzlich egal.

da wurde brutal oc betrieben und ebenso brutal die vcore erhöht um einen stabilen betrieb mit seiner übertakteten cpu zu haben, um in irgendwelchen schwanzvergleichen vorne mitzuspielen :D

aber seit drei jahren als ich meinen q9400 rechner der auch auf fast 4ghz oc war verbannt habe und nur noch laptops nutze hat sich mein stromverbrauch um ein drittel gesenkt,bei gleicher nutzung des rechners.
seit dieser zeit interessiere ich mich dafür was ich nutze und wieviel der verbrauch ist.warum soll ich eine cpu kaufen die dreimal mehr strom verbraucht kaufen,auch wenn es vielleicht nur um einen einstellingen euro bereich geht im monat.da spielt das prinzip bei mir eine rolle ;)

Daedal schrieb:
Ein HTPC sollte schon ein paar Dinge können - sonst reicht auch ein Blueray-Player.
die HD4000 kann immer noch keine ruckelfreie 24fps - das ist schon ein ausschlußkriterium für HTPC.
Ansonsten schaut man sich mal die Tests an die auf HTPCs ausgelegt sind:
http://www.anandtech.com/show/6335/amds-trinity-an-htpc-perspective/7

also ich habe ein blueray laufwerk in meinen a200 mit t8300 eingebaut und konnte bisher alle filme anschauen.gut da ist auch ne hd 2600 verbaut inwieweit sie nun etwas beschleunigt weiß ich nicht,aber ruckeln etc. konnte ich nicht feststellen,sowohl bei 720p und 1080p,denke aber da wird der i3 mit seiner fortschrittlicheren technik doch ähnlich abschneiden??
 
Zuletzt bearbeitet:
dacapo schrieb:
seit wann interessiert sich otto normal dau für den stromverbrauch der cpu?

seitdem der strom ziemlich teuer geworden ist und ein klein wenig auch seitdem stromerzeugung relativ gefährlich geworden ist,stichwort fukushima.........

nicht umsonst habe ich zuhause inkl. meinen jetzigen htpc der übrigens aus einem laptop (toshiba a200) besteht alle desktop rechner verbannt.

man wird älter und 1996 als ich meinen ersten pc hatte und dann alle evolutionsstufen mitgemacht habe war mir der stromverbrauch auch herzlich egal.

da wurde brutal oc betrieben und ebenso brutal die vcore erhöht um einen stabilen betrieb mit seiner übertakteten cpu zu haben, um in irgendwelchen schwanzvergleichen vorne mitzuspielen :D

aber seit drei jahren als ich meinen q9400 rechner der auch auf fast 4ghz oc war verbannt habe und nur noch laptops nutze hat sich mein stromverbrauch um ein drittel gesenkt,bei gleicher nutzung des rechners.
seit dieser zeit interessiere ich mich dafür was ich nutze und wieviel der verbrauch ist.warum soll ich eine cpu kaufen die dreimal mehr strom verbraucht kaufen,auch wenn es vielleicht nur um einen einstellingen euro bereich geht im monat.da spielt das prinzip bei mir eine rolle ;)

Dann bist du einer von hunderten.. der Großteil sagt zwar Strom ist zu teuer, lässt aber dennoch das Licht in Zimmern an wo man nicht ist ;) Ausserdem überlege mal, wann hast du in den Median das letzte mal über Fukushima gehört? Richtig, garnicht.. Aber da ist ja nun auch alles wieder Gut :D [Ironie]
Schließe nicht immer von dir auf Andre.. Ich habe genug Kunden die sich eher davor scheuen auf LED oder Energiesparsysteme umzurüsten als jährlich 200€ mehr für Strom auszugeben. Traurig aber wahr, aber dieser Grüne Gedanke nunja der ist nicht in den Köpfen der Menschen da. Zumindest nicht in allen.. Und ich sage dir auch Klipp und klar, es lohnt sich mehr deinen alten Kühlschrank und die alt Gefriertruhe zu entsorgen und was neues zu kaufen als 50W bei einem PC zu sparen.

@Meetthecutthe:
Abwarten, und nein Verblendet nicht, aber der Trend geht woanders hin und das ist nicht der Weg der dir Gefällt ;) Neue Technologien brauchen Zeit, das hat man damals zu 64bit Zeiten schon gesehen. AMD war noch NIE Konkurent für Intel (sonst würde heuet AMD nicht so klein sein ;)), denn vorher wurde durch Unlauteren Wettbewerb sich ein Vorteil geschaffen, nun durch das Leistungsfähigere Produkt. Zur Guten alten Zeit des A64 konnte AMD rein gar keinen Vorteil verbuchen, denn Big Blue hat ja netterweise den Markt untergraben, sonst hätte man bei Vobis, MM und Saturn auch ein A64 System gesehen, aber die DAUs von Mitarbeitern wussten nichtmal dass es AMD gibt :D
 
Zuletzt bearbeitet:
AMD-Mafiosi schrieb:
Sagte der Branchenspezialist.. HSA wird grade durch ARM massiv gepusht.. Vllt bissl mehr als nur PCs betrachten ;) oder du nimmst deinen kleinen Intel und freust sich über ihn.

Du bist ein wenig verblendet. Nichts desto trotz wirst auch du langsam einsehen müssen das AMD mal wieder versagt hat.

Da Konkurrenz das Geschäft belebt hoffe jedoch auch ich das AMD bald mal wieder was brauchbares produziert :) .
 
@AMD-Mafiosi

eben deswegen schrieb ich ja das es für mich ein auschlußkriterium ist wenn die neue amd cpu signifikant mehr strom verbraucht,was andere machen geht mich nichts an ;)

jeder kann sein geld ausgeben für was er möchte und wenn einer meint sein geld den stromkonzernen in den rachen zu schmeissen.....nun denn soll mir recht sein :cool_alt:
 
Zurück
Oben