Test Test: AMD A6-3650 vs. Intel Core i3-2100

matty2580 schrieb:
@Cris-Cros:
Ich bin einfach nur traurig.
Wenn die Benchmarks stimmen, werde ich zu Intel wechseln.
Mit meinen 39 Jahren habe ich noch nie eine Intel-CPU/Board benutzt.
Wenn nach dem Phenom-Debakel der Bulldozer auch in die Hose geht, ist es reine Unvernunft an AMD weiter festzuhalten.
Aber noch habe ich die Hoffnung, dass die Werte falsch sind.

Was hast Du an den AMD APUs bei den Benchmarks denn auszusetzen?. Ich sehe da eine CPU/GPU Kompi die den Intel Gegenstücken überlegen ist.
Der A6 3850 hat 200Mhz weniger Takt als der Intel Core i3-2100 und liegt laut Test ca. 10-13 % hinter dem i3. Das ist kein schlechter Wert da die Intels eh etwas besser in der Taktleistung sind.
Die GPU Leistung dagegen ist beim A8 3850 mehr als deutlich höher als beim i3.
Um die selbe Spieleleistung beim i3 zu dem A8 zu erreichen müsste man eine zusätzliche Graka einsetzen und dies würde mehr Verbrauch und höheren Anschaffungspreis bedeuten.
Ich finde daher das AMD hier gute Arbeit leistet.
 
matty2580 schrieb:
@Cris-Cros:
Bulldozer muss sich auch nicht mit Sandy-Bridge, sonder mit dem kommenden Ivy-Bridge messen.
Wenn AMD dann immer noch das bessere P/L-Verhältnis hat, werde ich bei AMD bleiben, sonst nicht.

Ist das nicht ein bisschen unfair eine ausgereifte Architektur mit einer neuen Architektur zu vergleichen? Ivy-Bridge erscheint März-April, da würd ich Ivy-Bridge eher mit dem Bulldozer Nachfolger vergleichen.
 
Auch in dieser Produktgeneration wird es für AMD "hinten raus" wieder wegen der qualitativ minderwertigen dies extrem eng werden.
Ich hätte ja vorgeschlagen, das Releasedatum weniger offensiv zu setzen und sich dafür so aber teure Zeit am Ende des Produktzyklus' zu erkaufen. Es hört nur niemand auf mich ;)
 
Das Problem ist, dass Bulldozer ursprünglich sogar schon für 2009 angedacht war ... dann eine Weile nicht und dann für Q1/2011 und nicht für September. Der muss halt endlich mal in den Handel.
 
Ich finde es toll, dass in diesem Test Konkurenzprodukte verglichen werden. Sowas ist deutlich interssanter!
 
matty2580 schrieb:
AMD konzentriert sich im Moment auf Liano.
Aus betriebswirtschaftlicher Sicht ist das auch vernünftig.
Die neuen APU´s sind einfach gut, und der Intel Konkurrenz überlegen.
Bei dem sich abzeichnenden Bulldozer-Debakel, hat dass AMD auch nötig.
http://www.pcgameshardware.de/aid,8...Werte-auf-Hoehe-eines-Core-i7-2600K/CPU/News/
Und das schreibe ich als AMD-Fanboy.
@JZedtler und Matzegr:
Wie Ihr sehen könnte, finde ich den A6-3650 toll.
Ich hatte in den Posts nur mit Cris-Cros über den Bulldozer diskutiert.
Entschuldigt bitte meine Offtopic-Posts.
 
Zuletzt bearbeitet von einem Moderator:
Cris-Cros schrieb:
Das ist es. Würden mehr Programme auf der GPU laufen, was die Programme dann auch massiv beschleunigen würde, hätte Intel ein riesiges Problem. Ich glaube es liegt einfach daran, dass es schwieriger ist, ein Programm auf der GPU zum laufen zu bringen, als auf der CPU. Schade für AMD. Die hätten dann ein As im Ärmel.

Man kann einfach nicht alles auf der GPU laufen lassen. Vollkommen illusorisch zu behaupten: Da müssen nur die Softwareentwickler überstünden schieben und schon läuft alles auf der GPU. Das geht nicht.
 
Der Zukunftstrend ist doch aktuell klar abzusehen,
derweil wird nicht nur die Videoausgabe mit der Grafikkarte beschleunigt, sondern eben auch
die Browserausgabe á la IE9 und Firefox ;)

Die Zukunft spricht eben mehr GPU als CPU und das kommt AMD zu Gute.
Ich finde die Llano's durchaus gelungen, die CPU leistung reicht absolut aus, im Alltag braucht niemand mehr,
wer decodiert täglich Videos?
Die GPU Performance ist auch berauschend und ich durfte mich live davon überzeugen, dass Dirt 3 absolut flüssig mit dem großen Llano läuft und das war echt beeindruckend.

Der Wurf ist gelungen, wenn die Fertigung weiter voran schreitet die Voltzahlen sinken und eventuell die taktraten steigen steht dem grundlegenden Erfolg nichts im Wege.
 
MrChiLLouT schrieb:
... keiner der AMD CPUs die Intel CPUs auch nur um längen schlagen können. Der i3 2105 mit HD3000 hätte das noch besser gezeigt....ebenbürtige Alternative, die nicht wirklich Sinn macht, weil es Intel schon vorher hatte.

ich bin mir ziemlich sicher, dass du ein Balkenvergleicher bist. Es ging in diesen Test eigentlich um CPUs/APUs in der Preisklasse 90 euro. somit hättest du den Test gelesen solltest du das schon gleich am Anfang mitbekommen.

matty2580 schrieb:
@Cris-Cros:
Bulldozer muss sich auch nicht mit Sandy-Bridge, sonder mit dem kommenden Ivy-Bridge messen.
Wenn AMD dann immer noch das bessere P/L-Verhältnis hat, werde ich bei AMD bleiben, sonst nicht.

matty verstehe dich nicht ganz. Erstens wieso redet man hier nicht über Bulldozer, gibt es noch ein anderes Thema dass sich Bulli widmet. Weiteres verstehe ich nicht warum Bd schlecht sein sollte, falls er sich zum Bsp zwischen 2500k und 2600k einordnet.
Der Hohe takt übrigens hat mit der Architektur zu tun und sollte nicht mit den Takt von Sb verglichen werden. und nein Bulli muss sich mit sb duellieren denn die 2nd Generation sollte gegen evy ins feld ziehen. Die Folien deuten aber schon hin, dass man dieses mal sehr auf Effizienz und geringe idle werte geachtet hat, solltest sie vllt einmal durchlesen
 
Zuletzt bearbeitet:
han123 schrieb:
Ich verstehe nicht, warum AMD die Standard-Spannung von der CPU so hoch ansetzt. Ich habe jetzt mittlerweile 6 APUs verbaut und konnte alle um mindestens 25% undervolten-.- Gibts überhaupt eine APU, die solch ein Undervolting nicht mitmacht? Ich frag mich echt, was AMD da geritten hat.

Das hab ich mich bei den X6 auch schon gefragt. Im niedrigsten P-State satte 40%! weniger Spannung. Unter vollast sieht's wieder anders aus, da ists nicht so viel aber auch noch einiges.

Aber b2T AMD scheint im CPU Part noch etwas hinterher zu hängen. Haben die für den CPU Part noch kein Clock-Gating? Der GPU Part kann das ja.
 
@Volker
Warum gibts für den G840 keine CPU-Belastungsdiagramme für die Videowidergabe? Getestet wurde er ja doch oder? (Leitsungsaufnahme ist aufgeführt)
Wird das noch nachgereicht?
 
foggy80 schrieb:
nö, die Differenz zwischen Idle und Volllast sind die 51 Watt. Kann man sogar nachrechnen. 126 - 75 = 51

Habe ich im Text danach auch gesehen, für was stehen aber die 75 Watt? Ist doch ein Differenzwert?


Mein Eindruck:
Von der Llano-Prozessorreihe bin ich begeistert. Endlich wurde die klassische AMD Onboard-Grafikkarte abgelöst. Nennenswerte Abwärme fällt nun nur noch an einem Punkt an. Für Normalanwender sind die Lianos das momentan optimale Gesamtpaket. Die Bildqualität ist besser als bei den Intel GPUs, der Stromverbrauch bleibt dabei z. B. bei Blu-rays auch tief. Die Treiber für diese AMD Platform sind bereits ausgereift, die Mainboards mit FM1 Sockel haben alle wichtigen Features.
 
Zuletzt bearbeitet: (Eindruck)
Also mich überzeugt das fazit nicht so sehr, sorry. Ich rate auf keinenfall zu Intel mein Kollege hat sich so ein Bareborne gebastelt naja wenn keine gscheide GPU drin ist dann nutzt es auch nichts.
Das bisschen mehr an strom --:freaky:
 
Der muss halt endlich mal in den Handel.
Gut Ding will Weile haben, Intels Chipsatz Debakel und danach gleich noch eins mit den neuen Sandforce SSDs waren auch nicht gerade der Hit.

Ich find die APUs genial. Performance per Watt Intel haus hoch überlegen durch die Effizienz der GPU. In Zukunft wird immer mehr GPGPU Einzug halten. Das kommt den APUs von AMD entgegen. Idle Strom sparen auch perfekt umgesetzt und das mit der dicken GPU... Jetzt nur noch den CPU Part von Bulldozer und das Ding ist endgültig eine Klasse für sich...
 
Mit dem 65W A8-3800 sollte dann der letzte Kritikpunkt fallen
und AMDs APUs sind für alles außer High-End die erste Wahl.
Ich denke AMD wartet eine Stabilisierung des Fertigungsprozesses
ab, eh Spannungen gesenkt und Taktraten erhöht werden.
Wenn ich mir an sehe unter welchen Spannungen 99% der APUs
noch laufen, dürfte das nicht mehr lange dauern.
Die 65W-Llanos mit DDR3-1600 wären schlicht konkurrenzlose
Alleskönner für sehr vernünftige Preise. Selbst zum Spielen reicht
es tatsächlich. Bei fast 40fps für Starcraft 2 unter höchsten Details
kann man echt nicht meckern. Dafür brauche ich bisher eine 95W CPU
und eine 51W Grafikkarte.
 
Zuletzt bearbeitet:
Zurück
Oben