Test Trinity vs. Ivy Bridge im CPU-Test: A10-5800K gegen Core i3-3220

Meetthecutthe schrieb:
Da Konkurrenz das Geschäft belebt hoffe jedoch auch ich das AMD bald mal wieder was brauchbares produziert :) .

eben das hoffe ich auch,war jahrelanger amd liebhaber und zu zeiten des pentium 4 und a64 lohnte es sich auch amd zu holen,lustig ist da aber das genau diese argumente (stromverbrauch und leistung) angeführt wurden um amd zu kaufen.heute soll das auf einmal nicht mehr zählen,nur weil intel die besseren und effizienteren cpu´s baut?verrücvkte welt :D
 
@dacapo @Sontin
Trinity besteht nicht nur aus einem A10 5800K.
Hier wurde lediglich das aktuelle "Flagschiff" für FM2 getestet.
Für einen reinen HTPC mit Fokus auf HD Wiedergabe, würde ich eher auf den A4 5300 setzen.
Dieser verfügt ebenfalls über den UVD3 und dazu noch eine TDP von 65W. Die kleinere CPU braucht wesentlich weniger Strom und kostet dazu auch nur 55€ (aktueller gh Preis).
Warum sollte ich mich dann für den i3 Entscheiden?
Und zum anderen dieses dreimal mehr Strom betrifft die Vollast, ich wüsste jetzt nicht dass Blu Ray schauen meine CPU zu 100% auslastet. Zumindest spricht mein Taskmanager bei BluRay nicht von 100% last.
 
Interessant ist, dass der 5700 65W TDP ab Start verfügbar ist.
 
wegen Aussage "für HTPC unbrauchbar":
für HTPC würde man erstens die 65W Trinity-Version nehmen (A10-5700), die reicht dort auch vollkommen, und dann wohl ein kleineres Mainboard ohne OC-Funktionen und ein 200W SFX 80%+Netzteil, und nur 2 Speichermodule statt 4 und vielleicht sogar low-Voltage RAM.

Dann hat man ca. 25W idle Stromverbrauch, und unter Last weniger als 100W, und während bluray-Widergabe vermutlich um die 40W Leistungsaufnahme. Also die Werte schauen dann nochmals besser aus als in dem Test hier, der wohl das volle Leistungspotential der FMA2-Platform zeigen sollte (für HTPC Overkill).
 
Zuletzt bearbeitet:
1A Produkt für den OEM Massenmarkt.
Idle Verbrauch ist absolut in Ordnung, Last zwar weniger gut, aber da solche Systeme eh zu 90-95% im Idle verbringen ist das an Mehrverbrauch wurscht.

Was hier einige Forennutzer mal wieder ablassen, ist ja nur grausig. Sollten mal von ihrem hohen Roß herunterkommen und mal den Massenmarkt betrachten und nicht ihre eigenen Interessen als Referenz ansehen und ei gutes Produkt schlecht reden.
Im Spielebereich mag zwar die CPU leistung nicht die Beste sein, aber da ist eh die Grafikkarte der limitierende Faktor und nicht die CPU.
 
Da es ja mal wieder 2 seperate Tests gibt...
derGrimm schrieb:
War ja mal wieder klar, alle testen nur das Flagship, dabei würde mich ein A4-5300 vs. A4-3400/3300 viel mehr interessieren...

Und zwar nicht sinnlose Balken, sondern wie der Workflow läuft so mit nur einem Modul...

Auf deutsch:
Sind zum flüssigen Office arbeiten ein Modul ausreichend oder braucht man 2 Module?
 
was für eine Entäuschung AMD ! naja wie ich vor 1 Monat gesagt habe das ich auf den Test noch abwarten wollte bevor ich mich entscheide auf welcher Basis AMD oder INTEL ich mir neues Computersystem aufbaue! Da ich vor ein paar Tagen auf einer anderen Website einen ähnlicher Test mit Core I3 vs Trinity gesehen stand für mich die Entscheidungung fest!
Nach 10Jahren AMD CPU´s & AMD Treue sollte es jetz mal wieder ne Intel sein!:)
So orderte ich für 268€ (Gesamtpreis incl.Versand) den Core I7 3770k
Auch wenn der Preis für die CPU jetzt wieder auf 286€ gestiegen ist sind 268€ für mich ein absoluter Wucherpreis! Intel ist ein Halsabschneider! Nur weil sie die derzeit schnellere CPU verkaufen machen sie Preise die den Kunden an den Bettelstab bringen! Die Core I7 CPU müsste schon doppelt soviel leisten wie ne Trinity CPU wenn der doppelte Preis ca. 270€ ist gegenüber 130€ AMD A10-5800k !
 
Zuletzt bearbeitet:
hmm,mir fehlen die Worte.!
 
Die Core I7 CPU müsste schon doppelt soviel leisten wie ne Trinity CPU wenn der doppelte Preis ca. 270€ ist gegenüber 130€ AMD A10-5800k !
Wenn du das erwartest, dann gibt es nur eine CPU für dich: Celeron G550. Jede(!) andere CPU ist schlechter in Bezug auf Leistung/Euro
 
zu gut dass ich meinen Phenom II X4 965 vor nem Monat für 75€ gekauft habe.

Das ist mal ein Ding sage ich euch :D
 
Schon Amüsant wie man einen I7 mit einem A10 oder einem i3 gleichsetzen möchte :D Du weisst schon, dass auch ein Ivy i3 nicht Halb soviel Leistung hat wie ein I7? Naja wer Highend möchte, muss auch Highend zahlen

Abschließend sei zu sagen: Intel ist für das günstige 400€ Gamersystem mit I3 und 200€ Graka gut aufgestellt. AMD hingeben der HTPC mit Konsolenambitionen oder aber ein 300€ Rundum Sorglos OEM PC. Wie wir alle wissen sind diese Preise natürlich keine Marktpreise ;)

@ Jackforceone:
OC den mal den 965, dann geht der ab wie ein Schnitzel :D
 
phiber66 schrieb:
Nach 10Jahren AMD CPU´s & AMD Treue sollte es jetz mal wieder ne Intel sein!:)
So orderte ich für 268€ (Gesamtpreis incl.Versand) den Core I7 3770k

Eine gute Entscheidung mit der du nichts falsch machst (denn wer billig kauft, kauft zwei mal).
Du wirst zufrieden sein.

Wenn ich den Preis sehe ist die Sache aktuell sogar recht Wertstabil (habe für meinen 3770k vor einem halben Jahr ~300€ gezahlt) .
 
phiber66 schrieb:
Da ich vor ein paar Tagen auf einer anderen Website einen ähnlicher Test mit Core I3 vs Trinity gesehen stand für mich die Entscheidungung fest!
Nach 10Jahren AMD CPU´s & AMD Treue sollte es jetz mal wieder ne Intel sein!:)
So orderte ich für 268€ (Gesamtpreis incl.Versand) den Core I7 3770k

ICh weiß nicht ob ich dich bemitleiden soll oder mich einfach auf dem Boden Rollen soll.

Du machst an einem I3 bzw Trinity Test fest ob du einen i7 kaufst oder nicht?

Also ich hab am VW Up auch festgemacht ob ich mir einen Lamborghini kaufe :freak:


Es ist ja kein Problem das du anscheinend versuchst deinen Kauf zu rechtfertigen, aber doch nicht in diesen Thread :freak:
Ergänzung ()

Meetthecutthe schrieb:
Eine gute Entscheidung mit der du nichts falsch machst (denn wer billig kauft, kauft zwei mal).
Du wirst zufrieden sein.

Stimmt, aus diesem Grund kaufe ich günstig und hab dann von gleichen Geld mehr Jahre etwas davon...
 
Herdware schrieb:
Dann wäre diese CPU aber inkompatibel zu jeder klassischen x86-Software ...
Wurde zwar schon beantwortet, aber imho nicht ausreichend: Jede FP-Berechnung "in Hardware" ist inkompatibel zu klassischem "x86", a die zu "x86" daztugehörige FPU "x87" heißt und selbst die ist seit zwölf Jahren out of date. Mittlerweile ersetzt Intel sogar SSE und wir haben ein zu SSE völlig inkompatibles AVX. Merkste was?

GPGPU ist nichts, das sich AMD alleine ausgedacht hat. Der entscheidende Schub kam von Apple, als es die OpenCL-Entwicklung begann und dann an die Khronos Group abtrat.
 
Quad-core schrieb:
Ich wollte eigendlich auf trinty wechseln , da mein Phenom II X6 ja doch schon deutlich was an Strom braucht , allerdings wäre trinty in sachen Leistung ein deutlicher Rückschritt für mich.
Jezt erstmal warten was Piledriver zu bieten hat .

Naja,ist ja auch klar weil dir 2 Kerne fehlen.;)
Ansonsten hab ich den Test noch nicht richtig Zerlegt.:D

@dacapo: Muss man deine Aussage verstehen?
Wenn dir jetzt ein Laptop mit der Leistung vom + - Liano /Trinity reicht und du in Gegenzug zu deinem Alten Desktop keine Nachteile hast,dann frag ich mich,wieso du die Gurke auf 4GHz hast laufen lassen?!
Selbst Llano hab ich als normalen Desktop Rechner zusammen mit nem 21.5 Zoll Monitor im idle auf rund 50Watt gehabt und beim Spielen um 100Watt.

Trinity wird sicherlich noch ein wenig besser abschneiden bei gleicher/höherer GPU Leistung,nur muss man sich halt mit der Materie auskennen.
Wenn man das natürlich nicht kann,dann ist man der Dumme,Zahlt zuviel und kauf sich nen Intel.
 
nanoworks schrieb:
So falsch kann der Weg von AMD ja gar nicht sein, siehe NextGen-Konsolen, siehe HSA Foundation, siehe die iGP in jeder Intel Desktop CPU...

das ändert nichts daran dass die CPU-architekur gelinde gesagt ein griff ins klo ist. gegen das konzept von den APUs ansich sag ich ja nichts, das ist eine gute entwicklung. aber das reisst den gnadenlos verkackten x86-teil nicht raus. eine solche cpu architektur können sie meinetwegen in server stecken, da sind die vll. ganz gut aufgehoben. aber in einem desktop-pc, htpc oder gar in einem mobilen gerät hat die bolldozer-architektur (und ihre ableger) einfach nichts verloren!
 
Zuletzt bearbeitet:
phiber66 schrieb:
was für eine Entäuschung AMD ! naja wie ich vor 1 Monat gesagt habe das ich auf den Test noch abwarten wollte bevor ich mich entscheide auf welcher Basis AMD oder INTEL ich mir neues Computersystem aufbaue! Da ich vor ein paar Tagen auf einer anderen Website einen ähnlicher Test mit Core I3 vs Trinity gesehen stand für mich die Entscheidungung fest!
Nach 10Jahren AMD CPU´s & AMD Treue sollte es jetz mal wieder ne Intel sein!:)
So orderte ich für 268€ (Gesamtpreis incl.Versand) den Core I7 3770k
Auch wenn der Preis für die CPU jetzt wieder auf 286€ gestiegen ist sind 268€ für mich ein absoluter Wucherpreis! Intel ist ein Halsabschneider! Nur weil sie die derzeit schnellere CPU verkaufen machen sie Preise die den Kunden an den Bettelstab bringen! Die Core I7 CPU müsste schon doppelt soviel leisten wie ne Trinity CPU wenn der doppelte Preis ca. 270€ ist gegenüber 130€ AMD A10-5800k !

Das ist doch nicht dein Ernst. Du wartest auf einen APU Test nur um dann festzustellen, dass die APU (der CPU Anteil) nicht gegen einen i7 ankommt?

Und wozu brauchst du einen i7, wenn du vorher über eine APU nachgedacht hast? Ganz ehrlich: was machst du mit deinem Computer?
 
dacapo schrieb:
eben das hoffe ich auch,war jahrelanger amd liebhaber und zu zeiten des pentium 4 und a64 lohnte es sich auch amd zu holen,lustig ist da aber das genau diese argumente (stromverbrauch und leistung) angeführt wurden um amd zu kaufen.heute soll das auf einmal nicht mehr zählen,nur weil intel die besseren und effizienteren cpu´s baut?verrücvkte welt :D

so ist das nunmal in den ganzen nerd-foren. amd im cpu-bereich (und auch nvidia im gpu-bereich, wenn auch nicht so extrem) haben sich vor 7-8 jahren nen ruf aufgebaut, weil sie damals die besseren produkte hatten und zehren davon bis heute. auch wenn sich das blatt mittlerweile gewendet hat (oder zumindest auf der kante steht xD), ist es für die meisten völlig irrelevant, dass man mit den selben argumenten heute den jeweils anderen hersteller bevorzugen könnte. man wird dann gleich als marketingopfer bezeichnet, das sich sein wissen diesbezüglich aus dem media-markt katalog besorgt.
 
dacapo schrieb:
"33 Watt bringt der Core i3-3220 auf die Anzeige, wenn man den Differenzwert zwischen voller CPU-Last und Idle in Windows ermittelt. Der A10-5800K genehmigt sich satte 105 Watt – mehr als das Dreifache!"

schade amd aber somit disqualifizieren sich diese cpu´s für mich als htpc cpu und meine nächster htpc wird den i3-3220 beherbegen.

Dieser Differenz Idle-Last Vergleich ist das Dümmste was es gibt! Mit exakt NULL Aussagekraft!

Nehmen wir an wir haben ein System A und B.
A braucht im Idle 20W unter Last 100W
B braucht im Idle 60W unter Last 100W

Dann braucht nach dem Differenz Idle-Last Vergleich System A 80W und System B 40W, also das Doppelte! Nun die Frage an dich: Welches System ist aber in Wirklichkeit besser? Eindeutig System A!

Idle-Last-Vergleich ist nutzlos!

Interessanter wäre Idle, Teillast, Volllast (CPU), Volllast(CPU+GPU)

Und für den Alltag noch ne kleine nette Rechnung, die ein realistischeres Bild auf den zu erwarteten Verbrauch zuläßt.
Im Alltag ist eine CPU zu 85% der Zeit im Idle.

Also wäre eine Rechnung (0,85*Idle)+(0,15*Volllast) wesentlich besser geeignet um den tatsächlichen Durchschnittsstromverbrauch abzuschätzen.
Beim Beispiel oben kämen wir dann bei System A auf 32W und bei System B auf 66W, was ja mal wesentlich näher an der Realität liegen würde als die Aussage (nach Differenz Idle-Last) das System A das Doppelte braucht! :rolleyes:
 
Zuletzt bearbeitet:
Perry S. Hilton schrieb:
d... aber das reisst den gnadenlos verkackten x86-teil nicht raus. ...
Der x86-Teil ist der Integer-Teil und da liegt das Bulldozer-Konzept weit vorn. Die x87-Leistung war bei AMD schon immer schlehter, als bei Intel, weil AMD immer forcieren wollte, dass FP-Berechnungen so weit wie möglich mit SSE (bzw. früher mit 3Dnow!) durchgeführt werden. Hintergrund ist einfach, dass man nicht unnötig Silizium für zwei Einheiten verbrauchen will, wenn beide Einheiten theoretisch den gleichen Zweck verfolgen.

AMD hat den Schritt vielleicht deutlich (Jahre) zu früh gemacht, aber langfristig macht es Sinn auf SSE uä. zu verzichten, wenn FP-Berechnungen auf GPUs durchgeführt werden. Kann sein, dass AMD den "PC-markt" verlassen wird, bevor das Konzept aufgeht, aber auch Intel macht Fehlinvestitionen - AVX bringt jetzt kurzfristig Vorteile, der Code dafür muss aber auch erst geschrieben werden und bis genug Anwendungen von AVX profitieren ist das GPGPU-Für-Alles-Zeitalter vielleicht schon angebochen.

P.S.
Kann auch sein, dass GPGPU die falsche Richtung ist, und stattdessen doch Konzepte wie der Cell die Zukunft sind, aber im Moment siehts eher nach GPGPU aus.
 
Zuletzt bearbeitet:
Zurück
Oben