Zum Anfang muss ich erst einmal dem Journalisten des CPU Tests gratulieren, dass er es wieder mal geschafft hat die Nachteile der AMD Trinity CPU hervorragend übertrieben ins rechte Licht zurücken, während es Herrn Andermahr möglich war eine neutrale und sachliche Bewertung des Grafikteils zu formulieren.
Manch indifferente Formulierung und Präsentation des gemessenen ist teils blanker Hohn und war auch nach den Kommentaren des Testers gegenüber AMD Produkten zu erwarten.
Leider bringt auch die Zweiteilung des Produktes (AMD Trinity APU) in zwei separate Tests relativ wenig, wenn man am Ende gar kein Fazit zieht, was das Endprodukt bewertet, sondern nur Einheit für Einheit.
Aber zuerst mal zu folgendem:
Volker Riska schrieb:
Bereits von vornherein war klar, dass der A10-5800K und der Core i3-3220 nicht in einer Liga spielen. Doch was am Ende dabei herauskommt, sind keine kleinen Unterschiede; die Modelle trennen Welten. 33 Watt bringt der Core i3-3220 auf die Anzeige, wenn man den Differenzwert zwischen voller CPU-Last und Idle in Windows ermittelt. Der A10-5800K genehmigt sich satte 105 Watt – mehr als das Dreifache! Die TDP von 100 Watt wird von „Trinity“ genau so ausgenutzt wie vom Vorgänger „Llano“, der unterm Strich sogar noch etwas weniger Energiebedarf anmeldet.
Wenn ein Produkt in einer anderen Liga spielt, ist der Unterschied eher groß anzunehmen und nicht klein.
Zu erwarten AMD würde Intel mit Performance/Watt jetzt angreifen ist der blanke Hohn.
Man hätte ja wenn man schon dabei ist, zumindest auf die stromsparendere Variante alias 5700k hinweisen können.
Zu allererst wäre es sinvoll gewesen auf den gleichhohen Idle verbrauch beider Systeme einzugehen und vielleicht einmal Teillastszenarien oder die Leistungsaufnahme bei Spielen oder sonstigen Anwendungen zu messen um den Test etwas wertvoller als eher leider wenig differnt zu machen.
Sich nur auf den Last Verbrauch zu fokussieren und Buzzwörter wie "3mal so hoher Verbrauch" zu verwenden, aber dann nicht zu relativieren ist gelinde gesagt keine gute journalistische Arbeit und zeigt im Vergleich zu anderen Tests wie Tomshardware, der PCGH, Anandtech und etc.. Verbesserungspotenzial.
AMD war deshalb in den Ausführungen vor dem Start sehr deutlich, man solle doch stets die aktuellsten und neuesten Anwendungen nutzen, denn je älter das Programm ist, desto mehr fällt das Modul-Design zurück.
Was in einer Anpassung des Codes begründet ist und mit dem Modulkonzept an sich, eher wenig zu tun hat.
Perry S. Hilton schrieb:
naja leider wie zu erwarten: im wesentlichen ein faildozer halt. warum sollt ich mir dieses teil antun, wenn ich von intel für den gleichen preis ziemlich genau die gleiche leistung kriege, die aber semipassiv kühlen kann?
Naja, wenn du schon Wörter benutzt welche die Architekur pauschal als "schlecht" und ineffizient deklarieren, musst du auch den Fertigungshintergrund berücksichtigen.
Auch wenn dies hier der Thread zu CPU Leistung ist, muss stets das gesamte Produkt beurteilt werden. Der CPU Teil ist schließlich nicht alleine zu erwerben.
Diese einfache Erkenntnis ist natürlich durch die 2 Fazits zu den unterschiedlichen Einheiten etwas versperrt, soviel sei dir verziehen.
beckenrandschwi schrieb:
Die Leistung, wofür AMD hier mächtig die Muskeln (großes DIE, hohe Leistungsaufnahme) spielen lassen muss, schüttelt INTEL einfach so aus dem Ärmel.
Die Größe ist immer relativ, vor allem wenn Intel einen 22nm Prozess fährt und AMD einen 32nm Prozess.
Die
Die Größe würde sich bei AMD fast halbieren.
Krautmaster schrieb:
rinity macht in meinen Augen eine wirklich gute Figur. Gerade auch deshalb, da die Leistungsaufname idle gut ausfällt. Multimonitor wird aber wohl wieder so ein Fall sein... bei der die Aufnahme zu hoch ausfällt.
Jetzt fehlt noch der Test eines kleinen 25W Modells mit 2 Modulen. Der wäre HTPC technisch interessant.
Multimonitor wurde nicht getestet.
Der Grund warum die Blue Ray Leistungsaufnahme bei AMD höher ausfällt, sind etwaige Bildverbesserer deren Sinn sich für mich nicht ganz erschließen.
Man kann in den Optionen diese aber auch deaktivieren, bei den Desktopkkarten wird somit immerhin ca 20% der Leistungsaufnahme eingespart.
thomas_003 schrieb:
sorry, aber das rumgehacke auf dem stomverbrauch kann ich nicht ganz nachvollziehen
klar braucht das teil ein bisschen strom unter last, aber im idle, wo sich die cpu in 90% der fälle befinden dürfte, kann sie locker mit intel mithalten
und klar ist die leistung nicht überragend, aber dafür sind sie günstig
Du darfst bei Computerbase differente Betrachtungsweisen eher klein schreiben.
Dies liegt vor allem an den Nutzern, welche sich lieber durch einfach gehaltene Zusammenhänge wühlen und lieber eindeutigere, wenn auch bezweifelbare Fazits besser aufnehmen.
Zum Nachdenken ist keine Zeit
.
Herdware schrieb:
Und dann ist da noch der "gut genug"-Effekt, der AMD bisher geholfen hat, sich trotz Leistungssrückstand einigermaßen am Markt zu halten.
Es gibt keinen gut genug Effekt, sondern nur P/L.
Numrollen schrieb:
tromverbrauch bei Last ist ja spitze theoretischer Natur aber völlig unbrauchbar um darauf mehrfach einzugehen oder das Fazit komplett darauf auszulegen. Ich habe auf einen 3770K gewechselt von meinem 5 Jahre alten Q6600 (beide OC), habe ein Strommessgerät über eine Woche laufen lassen und ausgewertet.
Meine Rede. Man muss den Lastverbrauch nicht schönreden, hier hat AMD gegnüber dem effizienten 2 Kerner von Intel erheblichen nachholbedarf.
Meetthecutthe schrieb:
Die einen sagen dazu "innovativ" die anderen einfach "dumm" .
Man entwickelt nun mal als wirtschaftlich klug agierendes Unternehmen nicht am Markt vorbei. Das AMD sich nicht als solches Bezeichnen kann wurde wiederholt unter Beweis gestellt.
Gut dass es solche Weltverbesserer wie dich gibt.
Ich bin echt erstaunt über deinen fundierten Sachverstand. Leicht "daherreden" können viele Leute.
Wirklich Ahnung von der Materie haben die allerwenigsten und da schließe ich mich aus, weil ich vor dem Know How der Firmen und einigen Mitarbeitern Respekt habe, welche Produkte der Halbleiterbranche herstellen und entwickeln.
Es war ist das Fazit für eben diesen Test den wir aktuell kommentieren und somit richtig.
Davon ab kommt für 95% der CB-Leser ohnehin nur eine dedizierte Grafikkarte in Betracht. Der GPU Teil des Prozessors ist somit fü diese Nutzer irrelevant (und wurde nicht umsonst separat getestet)
Stelle dir mal vor du würdest den hier konstruktiv Diskussionsfähigen Usern so einen Unfug live beim Stammtisch erzählen.
Jeder würde sich für so viel Polemik und Plakativität Fremdschämen, aber hier im Netz gehen einem derartige Trollversuche viel einfach über die Lippen... ach ja ich vergaß.. Finger.
nanoworks schrieb:
"Ausschnitt aus dem Fazit:
Zitat:
Für den Preis von knapp über 100 Euro liefert AMDs Flaggschiff der neuen „Trinity“-Familie eine gute Performance.
Zitat:
durch diese Dinge schlägt man den Vorgänger und auch Intels Core i3 in Anwendungen
Zitat:
Im Bereich der Anwendungen hält man deshalb „Llano“ mit 16 Prozent auf spürbarem Abstand und selbst Intels Core i3-3220 wird geschlagen
Zitat:
Unterm Strich ist es letztlich das Gesamtpaket, das zugunsten von „Trinity“ gegenüber „Llano“ spricht
Damit ist eigentlich alls gut auf den Punkt gebracht. Wie immer ein einwandfreier Test. Danke CB."
Merkste was? So kann man doch nicht diskutieren!
Huch was ist denn da passiert @ meetthecutthe.
Man schmiert sich das Brot so wie es einem in den Kram passt, dein "schmieren" liegt aber leider noch eine Niveau klasse weiter unten.
Meetthecutthe schrieb:
CPU und dedizierte Grafikkarte - so sieht das Szenario des interessierten CB-Lesers aus. Das es selbst bei den meisten die das ganze nun versuchen schön zu reden so ist kann man in vielen Fällen ihrer Signatur und/oder ihren jüngsten Posting rund um ihre dedizierten Grafikeinheiten im entsprechenden Unterforum entnehmen.
Gab es dazu eine Umfrage?
Ich finde es relativ grotesk, dass du so minderbemittelt bist und schlicht erfundene Fakten als Beweismittel benutzt um andere User mit dedizierten Grafikkarten die Disksussionssubstanz zu nehmen versuchst.
Versuchs doch beim nächsten mal einfach mit Inhalten und Argumenten.
Sontin schrieb:
Wer wirklich mit seinem HTPC spielt, der kommt an einer dedizierten Grafikkarte nicht vorbei. Oder kauft sich eine Konsole.
Interessant. Dass Spiele mit Trinity teils erheblich besser spielbar sind als mit Intels HD 4000 ist also eine Lüge?
Und wenn man sich die Tests ansieht, kommt man in einigen Klassikern sehr gut um eine dedizierte Grafikkarte herum.
Du kommst wohl aus deiner relativ tiefen Suppenschüssel nicht mal mit dem Kopf herausgucken und hast wohl alle Tests Fazits zur Spieberkeit vieler Spiele schlicht nicht gesehen, würde man vermuten müssen.
Tomahawk schrieb:
Ich verstehe aber dennoch nicht, der das Ding kaufen soll. Für einfache Office-Rechner genügt ein Dualcore-Celeron. Wenn man sehr wenig ausgeben möchte, aber dennoch Spielen möchte, ist eine 40 Euro-CPU (z.B. Celeron G550) und dazu eine Grafikkarte wie z.B. eine HD6750/6770 deutlich schneller.
Korrekt, am besten einfach
gar nichts kaufen und Leistungsklassen und Unterschiede zwischen den Produkten mit -dreh dich im Kreis- Argumentationen ignorieren.
Meetthecutthe schrieb:
Du bist ein wenig verblendet. Nichts desto trotz wirst auch du langsam einsehen müssen das AMD mal wieder versagt hat.
Verstehe ich konkret nicht. Die Grafikeinheit ist gut und leistet 80% mehr als die Intel Grafikeinheit, die CPU Leistung ist gegenüber den I3 Konkurrenzfähig, der Idle Verbrauch ist vorbildlich und die Spielbarkeit vieler Titel ist durch immernoch bessere Treiber besser.
Nachteil ist der Stromverbrauch unter !Vollast!, welche aber nur sehr selten anliegt und das ist der Punkt den man mit in eine Bewertung des Produktes mitaufnehmen sollte.
Auch spielt das Mainboard rein, welches bei CB relativ üppig.
phiber66 schrieb:
So orderte ich für 268€ (Gesamtpreis incl.Versand) den Core I7 3770k
Auch wenn der Preis für die CPU jetzt wieder auf 286€ gestiegen ist sind 268€ für mich ein absoluter Wucherpreis! Intel ist ein Halsabschneider! Nur weil sie die derzeit schnellere CPU verkaufen machen sie Preise die den Kunden an den Bettelstab bringen!
Es war eigentlich schon bekannt in welchen Leistungsbereichen sich der Trinity CPU Teil bewegen wird.
Wenn du schon einen gegner für Intels i7 3770 suchst, hättest du Vishera abwarten müssen, aber da gibt es für AMD nur Chancen auf einen Stich bei Anwendungen.
Sontin schrieb:
Leute,
könnt ihre den Quatsch mit dem Marketingbuzzword HSA nichtmal lassen. Das ist nichts anderes wie reines GPGPU und wird auch in Zukunft eben nicht die Aufgaben der CPU übernehmen. CPUs sind eben keine GPUs. Und daran wird auch kein Marketingbuzzword etwas ändern.
Ich weiß nicht,woher du die Informationen beziehst, welche solch eine klare Ansage vorraussetzen.
Simon schrieb:
Also wie man die Ergebnisse als wesentlich besser und effektiver bezeichnen kann, ist mir persönlich ein absolutes Rätsel. Sieht eher nach einem gepflegten Treten auf der Stelle aus, wenn man die einzig und alleinigen Vorteile durch neue Befehlsätze auf CPU-Seite als Grundlage für die bessere Performances in ein paar Benchmarks gegenüber dem Llano zugrunde legt, ist das eher ein Rückschritt.
Seit jeher sind die Performanceschritte der CPU kleiner als der GPU.
Bei dem gleichen Fertigungsprozess von "gepflegtem" auf der Stelle Treten zu sprechen ist in Anbetracht der Rahmenbedingen eher weniger nachvollziehbar.
Und nur wegen der Befehlseerweiterungen ist man nicht schneller, schaue dir Spielebenchmarks von Anno 2070 an, oder Paint.net.