Test Test: Trinity vs. Ivy Bridge im CPU-Test

Betrachtet man zusätzlich noch die Grafikeinheit, dann macht die CPU schon wieder mehr Sinn. In den angepeilten Regionen spielt die absolute CPU-Power einfach keine so große Rolle, und bei AMD kommt man länger ohne extra Grafikkarte aus, da dort in dem Bereich mehr Rechenleistung vorhanden ist als bei ungefähr jeder Intel CPU. Sobald man die CPU sowieso mit einer dedizierten Grafikkarte paaren will ist dieses pro-Trinity-Argument natürlich bedeutungslos, und die hohe Leistungsaufnahme unter Last wird schwerer zu rechtfertigen sein. Aber im Leerlauf schenken sich AMD und Intel bei den 100 € CPUs nicht viel, und Systeme dieser Preisklasse werden ihre meiste Zeit nunmal im Leerlauf verbringen (außer man hat im Hintergrund permament SETI oder sowas laufen), von daher ist der höhere Last-Verbrauch von Trinity zwar unschön aber noch lange nicht so tragisch wie von der "omgwtf-amd-fail-braucht-viel-zu-viel"-Fraktion hingestellt wird.
 
Zuletzt bearbeitet:
AMINDIA schrieb:
LundM
Du bist ja mal drollig. Für diese unüberlegten Zeilen ist ja dein System kaum aus dem Idle Bereich gekommen. So würde dies auch bei einem System mit 5800K sein. Trotzdem frisst dein System für deine drolligen Zeilen 4-5x soviel wie ein 5800K System. Wer soll also deine Doppelmoral wirklich ernst nehmen?

Erschreckend ist das hier. Wenn man jemanden dieses Forum empfehlen will, müsste man ihr/ihn eine lange lange Liste an User Mitgeben auf deren Worte man zu 100% verzichten kann.

da kann ich nur zustimmen. Wer sicht nichtmal die Mühe macht, die bisherigen Seiten zu verinnerlichen, der gehört ignoriert :D !
 
Das letzte Bild auf der Seite
http://www.xbitlabs.com/articles/cpu/display/amd-a10-5800k_4.html

The highest performance advantage is only 7%, and on average the new design is only 1.5% faster in the benchmarks above.

Soviel zu den ganzen AMD Fans die im Vorfeld der Piledriver Tests immer sehr energisch darauf bestanden das die neue CPU eine 15%ig höhere IPC hätte , dabei wussten wir im Prinzip schon alle das der PerformanceGewinn über den Takt + Verbrauch erkauft wird und unterm Strich aus dem neuen Design kaum etwas übrig bleibt .
 
Voyager10 schrieb:
... über den Takt + Verbrauch ...
Naja,wir wussten, dass es über den Takt kommt, aber das hieß nicht gleich, dass deswegen der Verbrauch steigen müsse. IBM hat mit dem Power6 bewiesen, dass ein Prozessordesign, das von der Frequenz lebt, keine schlechte Performance per Watt haben muss. Dass Intel und AMD bisher daran gescheitert sind, bedeutet also noch lange nicht, dass niedrige Frequenz mit viel Parallelität der einzige Weg wäre. ;)
 
Voyager10 schrieb:
dabei wussten wir im Prinzip schon alle ....
Wer ist denn wir? Steckt hinter dem Nick Voyager10 eine Gruppe von Menschen?

Voyager10 schrieb:
..das der PerformanceGewinn über den Takt + Verbrauch erkauft wird
Vielleicht solltest du dir die Taktsachen nochmals anschauen. Denn man muss feststellen, dass du oder ihr keinen Überblick bei dem Urteil gehabt.

Es wurde ein 4170 gegen einen 5800K getestet.
Der 4170 taktet mit 4200MHz und im Turbo bis 4300MHz
Der 5800K taktet beim Gebrauch von beiden Modulen nur bist 4000MHz. Bedeutet, dass deine Aussage falsch ist mit mehr Takt, denn der 4170 hat 200MHz mehr davon. Zudem hat der 4170 einen 8MB L3 Cache der auch mehr Leistung bringt.
Insgesamt sehe ich einen 5800K mit 200MHz weniger Takt + ohne L3 Cache gleich auf mit einem 4170. Man kann da durchaus von 10-15% mehr IPC reden.

Sowohl unter Idle als auch unter Last zeigt dein Link, dass der 5800K immer deutlich weniger verbraucht als der 4170.

Verstehe also nicht was du oder ihr damit nun bezwecken wollt?
 
Zuletzt bearbeitet:
AMINDIA schrieb:
Der 5800K taktet beim Gebrauch von beiden Modulen nur bist 4000MHz. Bedeutet, dass deine Aussage falsch ist mit mehr Takt, denn der 4170 hat 200MHz mehr davon. Zudem hat der 4170 einen 8MB L3 Cache der auch mehr Leistung bringt

We will be comparing the new quad-core A10-5800K processor with Piledriver microarchitecture against a quad-core FX-4170 processor with Bulldozer microarchitecture. For a more illustrative result, both processors were working at 4.0 GHz frequency and their Turbo Core technology was disabled for the time of tests. Note that unlike A10-5800K with two-level cache-memory, FX-4170 has an 8 MB L3 cache, which cannot be disabled.
*hust*

Allerdings gibt es auch andere Ergebnisse: http://www.tweakpc.de/hardware/tests/cpu/amd_trintiy_a10-5800k/s13.php

Voyager10 schrieb:
das der PerformanceGewinn über den Takt + Verbrauch
Also der Verbrauch ist sowohl gegenüber Llano: http://www.tweakpc.de/hardware/tests/cpu/amd_trintiy_a10-5800k/s12.php als auch gegenüber Bulldozer geschrumpft (siehe CB Test - denn das Original in Form des FX-4170 ist in etwa gleich schnell, genehmigt sich aber noch mehr Strom)

Schade das CB keinen FX zwecks Piledriver-Bulldozer-Vergleich mitgetestet hat :( Das wird wohl eher zum Vishera-Test stattfinden.

@AMINDIA: we will see - früher hat der L3-Cache zwischen 5 und 10% Mehrleistung gebracht: https://www.computerbase.de/2009-07/test-was-bringt-bei-amd-der-l3-cache/
 
Zuletzt bearbeitet:
Pontiuspilatus *hust* Bleibt trotzdem der L3 Cache der locker 10% mehr IPC bringt. Man kann also laut den Ergebnissen immer noch von 10-15% mehr IPC sprechen. Somit stimmt weiterhin die Aussage von ihm nicht.
 
Zuletzt bearbeitet:
@AMINDIA *hust*
Wenn das mit der Aussage: <L3 Cache der locker 10% mehr IPC bringt> dann so stimmt, wäre es doch richtig schön, wenn der Trinity L3 Cache hätte oder sehe ich das falsch.
Geht aber wohl nicht, weil L3 Cache viel Strom braucht und es damit die TDP gesprengt hätte. Man könnte natürlich den Takt senken und dafür L3 Cache einbauen. Weniger Takt aber mit L3 Cache ist der Vorteil allerdings dann auch wieder weg.
 
Das geht deshalb nicht, weil Trinity eine APU ist und diese eben Architekturbedingt
keine L3 Caches nutzen. Hier geht es in Richtung gemeinsame Speicherbereiche für GPU und CPU. Intel muss L3 nach wie vor nutzten um CPU und GPU kommunizieren zu lassen.

Eine TDP von 100W auf 125W zu erhöhen dürfte kaum das Problem sein - haben ja die FX-8xxx ebenfalls.
 
Wenn du die dinger an OEMs/System Builder verkaufen willst ist das sehr wohl ein Problem. Die kreischen dann ganz laut, weil die Boards eine stärkere Spannungsversorgung brauchen und die Kühlung potenter sein muss.
 
Zuletzt bearbeitet:
riDDi schrieb:
Wenn du die dinger an OEMs/System Builder verkaufen willst ist das sehr wohl ein Problem. Die kreischen dann ganz laut, weil die Boards eine stärkere Spannungsversorgung brauchen und die Kühlung potenter sein muss.
Wir reden hier ja vom Top-Modell. OEMs können ebenso schön die 65W Modelle nutzen. Und genügend OEMs verbauen auch 125W Modelle. In jedem Fall hat den fehlende L3 Cache nicht die TDP verursacht - die Architektur nutzt einfach keinen. Es ist eine APU!

Zu dem Zeitpunkt als die Designentscheidung gefallen ist, konnte keiner wissen wie gut der Fertigungsprozess funktioniert und welche TDP Klassen exakt möglich sind. Es ist völlig hirrnig zu glauben, dass die Entwickler irgendwann die fertigen Chips bekommen haben und dann folgendes Gespräch stattfand:
"WTF - der braucht aber einen Haufen Strom"
"Hmmm - wieso schneiden wir nicht einfach den L3 Cache weg?"
"Ja hast recht - die IPC sinkt zwar, doch die OEMs können dann günstigere Systeme bauen"

Wirklich jetzt?

Abgesehen davon schau dir mal die Athlon II TDPs und die Phenom II TDPs an. Vergleiche wie viel der L3 Cache da wirklich ausmacht.
 
Zuletzt bearbeitet:
MikelMolto schrieb:
@AMINDIA *hust*
Wenn das mit der Aussage: <L3 Cache der locker 10% mehr IPC bringt> dann so stimmt, wäre es doch richtig schön, wenn der Trinity L3 Cache hätte oder sehe ich das falsch.
Geht aber wohl nicht, weil L3 Cache viel Strom braucht und es damit die TDP gesprengt hätte. Man könnte natürlich den Takt senken und dafür L3 Cache einbauen. Weniger Takt aber mit L3 Cache ist der Vorteil allerdings dann auch wieder weg.
*hust*
Wir reden hier von Preisbereich bis 100€. Warum sollte man die APU noch teurer in der Herstellung machen? Ich denke mal das du darüber nicht nachgedacht hast bei deinen Zeilen
 
@AMINDIA
Du musst unbedingt etwas gegen Deinen Husten machen.:)

Bei L3 Cache und AMD scheiden sich ja die Geister.
- Grundsätzlich braucht L3 Cache mehr Platz auf dem Die weil mehr Transistoren.
- Mehr Transistoren verbrauchen mehr Strom und erzeugen mehr Wärme.
- L3 und eine hohe VCore wirkt sich dann beim Verbrauch und der Wärme noch negativer aus.
- Mehr Transistoren erhöhen den Ausschuss. Es gab ja mal den Athlon II X4 mit und ohne L3, wo man CPU´s mit defektem L3 halt ohne L3 verkauft hat.

Es gab auch 2009 den Kurztest: Was bringt bei AMD der L3-Cache?

Ich glaube schon, dass AMD gerne L3 Cache nutzen würde. Klar schreien jetzt wieder Einige: Das ist eine APU verstehe das doch endlich.
Klar versucht AMD (krampfhaft) aus einer CPU und iGPU eine APU zu machen, aber heute ist es halt noch nicht so weit. Man testet ja auch immer noch den CPU und GPU part getrennt. Da AMD bei der CPU (sagen wir mal) verbesserungswürdig ist, würde der ein L3 Cache, der ja beim Zocken einiges bringt sicher gut tun.

Es wurde hier ja viel über den so geringeren Idle Stromverbrauch bei AMD geschrieben. Nehme ich aus dem i3 den L3 Cache raus, dann braucht der auch wieder viel weniger.

Fakt ist, dass Intel L3 verbaut. Selbst ein Intel Pentium G870 für €74 hat L3 und der I3 sowieso.

Somit ist mein persönliches Fazit, dass AMD keinen L3 Cache einbauen kann. Zu teuer, zu viel Ausschuss, zu viel Stromverbrauch. Der Performance würde es sicher sehr gut tun.
 
Man muss bei allem, was man zur Performance sagt, den Anwendungsbereich berücksichtigen. Beim Zocken bringt L3 was, aber beim Zocken wären auch Module mit nur einer x86-Integer-Einheit und zwei FPUs vorteilhaft, also genau umgekehrt, als es Bulldozer hat.
 
Zocken wären auch Module mit nur einer x86-Integer-Einheit und zwei FPUs vorteilhaft
Solche Versuche, oder Prozessor Typen gab es schon. Sowas würde der Gamer dann wahrscheinlich Ultra-Core nennen ^^

MikelMolto
Soviel ich mich nicht täusche, hätte Llano eigentlich statt dem Athlon II kommen sollen ^^ drauß wurde aber nichts, weil die (anfängliche C2) 45 nm Fertigung nichts brauchbares zustande bekommen hat.
 
Manchmal muss man echt den Kopf schütteln.
Einfach einmal lesen, was @DerKleine49 da verlinkt hat und selber verstehen.

Auf jeden Fall haben die mit so einer Überschrift einen Haufen Klicks bekommen, was ja wohl Sinn und Zweck war.
 
Mich würde interessieren ob COMPUTERBASE bei beiden CPU's auch die interne Grafikkarte "deaktiviert" hat (im BIos oder UEFI) und nicht nur einfach eine Grafikkarte ins den PCI Slot gesteckt hat.

Denn die GPU braucht (habe ich getestet) STROM wenn sie nicht deaktiviert wurde.
Falls dies vergessen wurde dann wären die Tests zur Leistungsaufnahme neu zu machen.

Wo könnte man das reklamieren bzw. einfach mal hinterfragen?

lg Stone
 
@stone1978

Ich hätte gedacht, dass die integrierte GPU automatisch deaktiviert wird, wenn eine dedizierte Grafikkarte eingebaut wird. :rolleyes:

Falls nicht, kann man sich natürlich streiten, wie die APUs getestet werden sollten.
Unter optimalen Bedienungen, also mit manuell deaktiverter iGPU, oder so, wie auch die Intel-CPUs getestet werden, und wie wohl auch 90% der Anwender es in der Praxis tun werden, also auf eine automatische Abschaltung vertrauend.

Wobei es natürlich schon aus "wissenschaftlichem Interesse" interessant wäre, um wie viel sich der Verbrauch der APUs dadurch reduzieren lässt.
Hast du vielleicht Links zu anderen Reviews, wo das überprüft wurde?

Ich kann mir aber eigentlich nicht vorstellen, dass dadurch viel Strom gespart werden kann. Wie gut das Deaktivieren inaktiver Teile (Powergating) bei den neuen APUs funktioniert, sieht man ja an den hervorragenden Idle-Werten.
 
Zurück
Oben