News AMD gibt erste Performancedaten zum A10 „Trinity“ bekannt

Am meisten Ausschlag an den positiven Trinity Ergebnissen liefert u.a. der optimierte 32nm Fertigungsprozeß:

http://www.3dcenter.org/news/amd-setzt-performance-erwartungen-fuer-trinity-nach-oben
Bei der reinen CPU-Performance hat man jedoch augenscheinlich Fortschritte erzielen können. Da an der Architektur selber nichts mehr veränderbar ist, könnte es sich hierbei durchaus um die lange erwarteten Fertigungsverbesserungen in der 32nm-Fertigung von GlobalFoundries handeln – eine bessere Fertigung ermöglicht dann eine niedrigere Verlustleistung auf gleichem Takt bzw. bei einer festgesetzten Verlustleistung dann einen entsprechend höheren CPU-Takt. Sollte diese Vermutung der Fertigungsverbesserungen bei GlobalFoundries zutreffen, so dürfte dieser Fortschritt natürlich auch bei anderen kommenden AMD-CPUs anschlagen – keinesfalls verkehrt angesichts des Rückstandes von AMD insbesondere bei den schnelleren Prozessoren

Zudem ist die VLIW4 Shader Struktur bei Trinity natürlich ein ganzes Stück Effizienter als die 5D-VLIW-Anordnung bei Llano. Laut AMD 10% mehr Performance pro mm²..das ist schon ordentlich

https://www.computerbase.de/2010-12...d-6950/3/#abschnitt_technik_1__die_neuerungen
 
Zuletzt bearbeitet:
Im Bereich APU ist AMD der bessere, dazu ist der Preis sehr passend. :D
Aber ich würde mich auf 22nm Llano´s freuen, denn die haben auch etwas CPU Leistung.
 
Zuletzt bearbeitet:
Eine solche interne GPU wird niemals so schnell sein wie eine diskrete Grafikkarte. Nicht die CPU ist der Flaschenhals, sondern das Speicherinterface bzw. die Speicherbandbreite.
Soweit ich weiss hat Trinity genauso wie Llano nur ein 64-Bit Speicherinterface zur Verfügung.
Die HD 5500 und aufwärts haben alle ein 128Bit-SI --> keine Chance für Trinity...
 
Zuletzt bearbeitet:
Also die einzigen CPUs von AMD mit nem 64 bit Speicherinterface sind Zacate und Ontario. Trinity und Llano liegen bei 128bit.
Aber das ist ja trotzdem noch ein Problem. Selbt Mittelklassekarten werden ja durch 128 bit @DDR3 ausgebremst. (siehe HD 5570 DDR3 vs. GDDR5)
 
Herdware schrieb:
Wenn man sich die enttäuschende Effizienz des Piledriver-Vorgängers Bulldozer im Vergleich zu K10 anschaut, wird dieses kleine Wunder nochmal etwas größer.

Da du von Piledriver und Bulldozer sprichst, also von der Architektur, muss ich dir widersprechen. Denn wenn man einen Blick zu den Serverprozessoren wirft, schneiden diese alles andere als schlecht ab was die Energieeffizienz betrifft.

Man muss dazu also konkrete Produkte mit konkretem Takt und der eingesetzter Fertigung bzw. dessen zum Zeitpunkt aktuellen "Qualität" heranziehen, um solche Aussagen treffen zu können.

Und gerade für deine Aussage ist das von entscheidender Bedeutung, da eben die niedriger getakteten Servermodelle sozusagen mehr Parallelen mit den Notebook-Trinitys haben, also die höchstgetakteten Zambezis...

Molex4pin schrieb:
Aber ich würde mich auf 22nm Llano´s freuen, denn die haben auch etwas CPU Leistung.

22nm wirds wahrscheinlich nicht werden. Erst 28nm und dann wahrscheinlich 20nm.

Swissjustme schrieb:
Eine solche interne GPU wird niemals so schnell sein wie eine diskrete Grafikkarte.
Solch eine interne GPU ist schon heute schneller als eine diskrete Grafikarte, z.B. als HD6450 :)
Fazit: Aussage zu allgemein, als das sie stimmen könnte

LG
 
AMD stützt sich mal wieder auf Grafikbenchmarks, also ist anzunehmen, dass die CPUs Intel mal wieder deutlich hinterherhinken. Schade.
 
LoRDxRaVeN schrieb:
Da du von Piledriver und Bulldozer sprichst, also von der Architektur, muss ich dir widersprechen. Denn wenn man einen Blick zu den Serverprozessoren wirft, schneiden diese alles andere als schlecht ab was die Energieeffizienz betrifft.
...

Die Bulldozer-Opterons schneiden im Vergleich etwas besser ab als die Desktopvarianten, aber wirklich deklassiert haben die die K10.5-Opterons auch nicht.

Sagen wir mal, Bulldozer ist in Sachen Effizienz vielleicht etwa gleich auf mit K10.5. (Bei Servern etwas besser, bei Desktops etwas schlechter.)

Piledriver müsste dann ca. um das Doppelte bis Vierfache zulegen, gegenüber Bulldozer, (CPU-Leistung verdoppeln und Verbrauch halbieren) damit die 17W-Trinitys ein würdiger Ersatz für die 17W-SB-ULVs wären. Das meine ich mit einem kleinen Wunder.
 
Herdware schrieb:
Piledriver müsste dann ca. um das Doppelte bis Vierfache zulegen, gegenüber Bulldozer, (CPU-Leistung verdoppeln und Verbrauch halbieren) damit die 17W-Trinitys ein würdiger Ersatz für die 17W-SB-ULVs wären. Das meine ich mit einem kleinen Wunder.

Trinity ist nicht nur Piledriver (also die CPU-Cores), sondern hat eben zusätzlich noch eine GPU an Board, was Schlüsse von Zambezi auf Trinity mMn äußerst einschränkt.
Auch ist es ein großer Unterschied, ob man sich nun im 100W TDP Bereich befindet, oder eben im <20W TDP Bereich - da kann vieles anders aussehen. Ich sag's zur Sicherheit nochmal: Kann!
CPU seitig wird man nach meiner Vermutung nicht die Leistung der 17W TDP SB erreichen, was man auch nicht muss um ein gutes Paket abliefern zu können.
Wenn man knapp 2,5GHz (ich sage mal 2,2GHz als noch als gut einzustufende Untergrenze, weniger geht da eher in die Richtung "OK" statt "gut") bei 2 Modulen erreicht (ausgehend von der IPC von Zambezi) und noch 500MHz Maximal-Turbo draufschlagen kann, dann wäre das mMn ein echt geiler CPU-Part des Prozessors. Die Stromsparmechanismen sind ja auch bei Zambezi schon hervorragend.
Bei den aktuellen Zacates habe ich immer ein wenig Bauchweh was die CPU-Leistung angeht und sage da immer: "Wenn da gut 2GHZ (bei gleicher IPC) in 28nm drinnen sind, braucht kaum einer mehr". Und soetwas in der Art könnte uns Trinity bescheren.

Wenn man nun den GPU-Part noch hinzunimmt, könnte mit den 17W TDP Trinitiys ein Produkt entstehen, dass Eigenschaften bietet, die Intel in dieser TDP Klasse nicht bieten kann - ein spielefähiges "Ultrabook" -, da man in dieser Geräteklasse eben schwer einen zusätzlichen Grafikchip unterbringt (egal nun in welcher Hinsicht).

Und wie schon anklingen habe lassen, vertrete ich die Meinung, dass nur wenige Anwender tatsächlich noch mehr CPU-Leistung benötigen (als eben selbst ein hypotetischer ~2GHz Zambezi 2-Moduler liefert) und somit die höhere CPU-Leistung eines 17W TDP SB gegenüber eines 17W Trinitys relativ unwichtig ist. Umgekehrt kann man das aber natürlich auch über die vermutlich stärkere GPU Trinitys sagen :)
Und leider ist es in erster Linie sowieso nur eine Frage des Marketings, was die Leute wollen und nicht was sie brauchen :/

Schussendlich spielt natürlich auch der Preis noch eine gravierende Rolle.

Aber wie man sieht: Sehr viele wenn und abers :)

LG

PS: Soweit man das derzeit sagen kann, sind die A10 übrigens 25W TDP Modelle...
 
Swissjustme schrieb:
Eine solche interne GPU wird niemals so schnell sein wie eine diskrete Grafikkarte. Nicht die CPU ist der Flaschenhals, sondern das Speicherinterface bzw. die Speicherbandbreite.
Soweit ich weiss hat Trinity genauso wie Llano nur ein 64-Bit Speicherinterface zur Verfügung.
Die HD 5500 und aufwärts haben alle ein 128Bit-SI --> keine Chance für Trinity...

falsch, Trinity hat 128 Bit. zudem kommt Llano doch auch jetzt schon auf diese Werte obwohl llano nichtmehr Shader zur Verfügung stehen. Das ist doch das was ich versucht habe zu sagen. zudem sind die Shader bei Trinity noch Leistungsfähiger.

Das Gesamtpaket machts.
LoRDxRaVeN hat das sehr gut dargestellt. Und JA was ich noch als K6 kenne wird nun als K10 bezeichnet :)

Vielleicht zur veranschaulichung:

ein 1,6 ghz Llano mobil schluckt 10 Watt...einfach mal als beispiel.
ein 1,6 ghz Trinity verbraucht dabei nur 7 Watt, leistet aber schon ca. 25% mehr.

Nun kann man den takt steigern auf z.b. 2ghz, bleibt dennoch in der gewünscht TDP...was die Grafik um den Faktor 1,5 pusht. also statt 50% mehr ca. 75%

Und da muß man nun schaun wo man welche Schraube wie weit drehn kann. Jednefalls stellt sich für mich das Gesamtpaket vorteilhafter dar weils zudem auch noch günstiger ist als IVY.

AMD hat bei 32nm in den letzten Monaten einige Energiekrücken beseitigt....zudem die andre Struktur von Trinity. K10.5 in APU war ja eher ne übergangsloesung damit man eine APU ca. 1 Jahr früher schonmal aufm Markt hat. Trinity ist ja imgrunde die allererste richtige Leosung so wies ursprünglich gedacht war...alles aufeinander abgestimmt.

Das sollte jeder aber für sich selbst entscheiden. Und die Leistung bei der die 128 Bit abriegeln...reicht mir pers. schon vollkommen aus für meine alltäglichen Aufgaben.
Ergänzung ()

was mir noch einfällt, es gibt bei den APU´s nicht nur Flaschenhälse weil hier ja immermal die 128 bit erwähnt werden....sondern es wurden auch andre Flaschenhälse beseitigt...koennt ihr hier mal nachlesen worauf man achten sollte:

http://www.tweakpc.de/hardware/tests/cpu/amd_a8-3850_llano_apu/s06.php
 
Zuletzt bearbeitet:
Zurück
Oben