News AMDs „Trinity“-APU kommt zur „Mitte des Jahres“

Also ich bin trotzdem gespannt, wie sich der 17 watt tdp trinity so gibt. Wenn man bedenkt, dass die Zacate Nachfolger (sollte ja auch ein quad aus bobcate werden) nicht auf dem markt kommen, sondern gleich auf die Nachfolger gesetzt wird (Immerhin muss man die 28nm Herstellungs-Möglichkeiten bedenken), könnte es für AMD auch eine Entscheidung gewesen sein, auf die 28 nm und Soc vorerst zu verzichten, da Trinity 17 watt tdp eventuell um einiges mehr Leistung bringt als zacate, dabei ähnlich sparsam ist. Für die unteren Segmente ist der Refresh.
Vorstellen könnte ich mir, dass der 17 watt trinity, 2MB l2cache hat, ein 2M ist, und 160 shader, eventuel 240, 320 shader (Denk man wird schauen dass man die HD4000 schlägt) haben könnte. Der Takt dürfte sicherlich 1,6 -2ghz (wenn die igp aber nur 10 watt frießt, könnte man schätz ich 2,5 ghz betreiben), mit einem Turbo auf 2,5-2,9 ghz ? haben. Ich glaube Bobcats IPC ist etwas unterhalb der Bulldozer IPC oder ?? Somit kann ich mir vorstellen, dass ein Trinity 17 watt tdp einem Zacate ordentlich den hintern versohlen kann. Somit muss man hoffen dass der Verbrauch von FM2 ebenso gering ist.
Man muss abwarten, immerhin kommt es drauf an, wie stark die igp wird, denn erst dann könnte man über einen möglichen Takt der CPU überlegen
 
Zuletzt bearbeitet:
ich denke eher, dass die 28nm Fertigung bei TMSC sehr teuer ist. Außerdem hätte man sich ja, wie du sagst, in der Tat etwas hausinterne Konkurrenz gemacht.

In 28nm war der Quad-Nachfolger mit 20 W angesetzt, und hätte vermutlich fast mehr Power als ein Trinity. Ein DualCore Zacate hat sicher ca die Leistung eines Modules. Bei selbem Takt. Ich denke Trinity wäre vor allem auf GPU Seite nochmal etwas fixer.

Ich versteh den Wegfall, hoffe aber auch, dass man die 17W Trinitys dann auch festverlötet, genau wie Zacate, auf ITX bekommt ;)
 
ExcaliburCasi schrieb:
Ja, weil die neue Architektur bedeutend ineffektiver ist, Theoretisch ist mit 28nm der 40nm Chip mit doppelter anzahl herzustellen was damit in doppelter Leistung enden würde.

Dann schau dir mal bitte die GTX 480 an

Doppelt soviel Hardwareeinheiten, dazu über 100W mehr Verbrauch als die GTX 285, trotzdem nicht doppelt so schnell, maximal so 70%. Also von den 100% schneller kannst du dich ganz schnell verabschieden ;)

ExcaliburCasi schrieb:
Das es jetzt 32 zu 32nm sind, und dennoch 50% macht, ist dann natürlich keine schlechte Leistung, ändert jetzt aber nichts mehr daran das ich (fälschlicherweise) mehr erwartet hatte :D

Keine schlechte Leistung?? 50% bei gleicher Fertigung und gleicher TDP kann man schon beinahe als kleines Wunder bezeichnen. Klar Herstellerangabe usw. man wird sehen was davon übrig bleibt.

--------------------------

Wegen der CPU-Leistung: Surfe hier grad auf einem 1,6GHz Dothan Pentium M mit 512MB RAM und das funktioniert einwandfrei. Ein Llano bzw. Trinity sind dieser CPU um Welten voraus, sollte für 90% aller Anwender locker reichen. Insgesamt ist Llano das deutlich bessere Gesamtpaket als INTEL i-rgendwas mit HD-2k, vor allem wenn man den Preis berücksichtigt.

Leute die eben doch den Tacken mehr CPU-Leistung brauchen, kaufen sich eben INTEL, fps-jäger was mit dedizierter GPU (was eigentlich zwangsläufig auf ein Notebook mit INTEL rausläuft).

Für mich käme nur Llano/Trinity in Frage. Zocke auch mal gern am Lappi, aber eher sowas wie Total War, Strategie, RPGs usw. usf.

Für Shooter brauch ich einfach den richtigen Sound meiner Teufel Anlage XD
 
Zuletzt bearbeitet:
@pipip
Ich denke nicht, dass der 17W Trinity eine Entscheidung für diese Verschiebung ist.
Trinity ist ein ganz anderer Marktbereich. In Sachen performance wird der sehr weit vor nem Zacate liegen, aber eben auch in Sachen Herstellungskosten. Trinity wird wohl ~240 mm² messen. Nen Zacate liegt grad mal bei 75 mm².

Das Teil wird AMD wohl deutlich teurer verkaufen wollen, was bei der zu erwartenden Performance auch kein Wunder ist.


@Kaoznake
Fang bitte nicht wieder damit an. Das bessere Gesamtpaket hängt von den eigenen Bedürfnissen ab. CPU-Leistung benötigt man sicherlich nicht nur als fps-Jäger.
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Doppelt soviel Hardwareeinheiten, dazu über 100W mehr Verbrauch als die GTX 285, trotzdem nicht doppelt so schnell
Man beachte bitte das Wörtchen Theoretisch. bei der GTX480 ist lange nicht alles einfach doppelt. Ich denke es ist schon klar welche aussage dahinter steckte.




@Disskusion Krautmaster anhänger und gegner :D
Euch kann ohnehin keiner mehr folgen worum es mittlerweile eigentlich noch geht.
AMD bringt mit den Piledriverkernen eine optimierte Basis, inwieweit auch eine verbesserte Herstellung noch Früchte trägt ist ja auch nicht bekannt.
Bulli verdankt sein Desaster ja zum Teil auch der schlechten Produktion.
Insofern müssen wir ohnehin gespannt bleiben was denn kommen wird.
 
Krautmaster
Das BGA-Format für dünne Notebooks, darin eingeschlossen die 17-Watt-Version

ganz links
https://pics.computerbase.de/3/9/0/9/1/4-1080.1749146719.jpg

Ich bin mir sogar ganz sicher dass dieser verlötet sein wird. Es wird hoffentlich auch einen eigenen angespeckten chipsatz geben, der nur so um die 3-4 watt verbraucht (FM1 hat momentan ca 7,4)

bensen
Ja dass zacate günstiger ist, ist logisch, was aber auffällig ist sind die preise. Mir kommt es oft so vor dass man die Preise bei Märkten wie Saturn und co oft nach der Multimedia leistung ausrichtet. Das heißt ein Llano ist oft teurer als ein i3 mit Grafikkarte (oder gleich teuer) obwohl der wesentlich billger sein sollte. Das gleiche sieht man bei Zacate. Oft sind die Netbooks mit einem e350 um die 350-450 euro, Atom selber um die 250 euro oder ähnliches.

Würde zacate eine ähnliche Grafikleistung haben wie ein trinity 17 watt tdp, glaube ich nicht, dass das Ultrabook mit dem zacate wesentlich billiger sein wird.

Online Preise sehen da sicherlich wieder realistischer.
Aber das ist eventuell ein Eindruck denn nur ich so empfinde.
Ergänzung ()

Eine Weitere Neuigkeit, die für ein AMD Trinity Ultrabook sprechen könnte. http://www.anandtech.com/show/5413/amds-lightning-bolt-low-cost-thunderbolt-alternative-for-usb-30dp

Besonders "bezahlbar" hört sich gut an, denk aber man möchte das eyefinity Konzept damit weiter ausbauen, Notebook anstecken in der Arbeit und mit mehreren Monitore arbeiten.

http://www.anandtech.com/show/5411/amds-trinity-apu-at-ces-shipping-in-mid2012
AMD claims the 17W Trinity should offer similar aggregate CPU/GPU performance to existing Llano notebook APUs at ~35W. The standard voltage notebook Trinity APU will offer a 25% increase in CPU performance and a 50% increase in GPU performance over the A-series Llano APUs available today. Finally the desktop Trinity will be 15% faster on the CPU side and 25% faster on the GPU. Although AMD didn't disclose details, it's likely that these numbers are comparing a two-module Piledriver based Trinity to a quad-core Llano.

The CPU gains seem modest on the desktop Trinity, but the standard voltage notebook part is pretty interesting as the gains should be enough to mostly bring it up to mobile Sandy Bridge performance (if AMD's numbers are correct).

http://www.youtube.com/watch?v=U6vH9OXHUJs&feature=related Hier noch n video über das gelesene von der Messe

Wenn das stimmt dürfte das 17 watt tdp Modell einem http://www.notebookcheck.com/AMD-A-Series-A8-3520M-Notebook-Prozessor.61299.0.html ähneln und man hätte somit eine 17 watt tdp Modell das weit aus leistungsstärker ist als Bobcate. Somit kann man nur hoffen, dass es Chipsätze gibt die sehr effizient sind. Wenn das board selber 3 watt frießt hätte man ca einen Verbrauch von 20 watt, und es wäre ein guter schritt gewesen, Ressourcen zu sparen und die 28 nm Struktur ausreifen zu lassen

http://www.notebookcheck.com/Welche-Spiele-laufen-auf-Notebook-Grafikkarten-fluessig.13827.0.html
Der A8-3520M schafft BC2 auf 1366x768 high, HBAO on 1xAA 4xAF flüssig zu spielen.
Naja ich bin schon gespannt.
Die HD 3000 schafft gerade mal low 1024x768 low, HBAO off 1xAA 1xAF

Somit CPU technisch wäre IB sicher besser, grafisch wohlmöglich wieder bei AMD.
Doch kann man sagen, dank turbo 3.0, sollte die CPU viele Aufgaben meistern können. Im Endeffekt wären die einen mit AMD und die anderen mit Intel je nach Anforderung gut bedient. Da AMD scheinbar auf erschwinglich schwenkt sieht es bei Intel eher auf Richtung Premium aus (Preis). Hoffe aber das AMD die Auflagen nicht zu locker macht, den Plastikbomber möchte man dann auch nicht sehen.
Oder täusch ich mich da ?
 
Zuletzt bearbeitet:
Naja bezüglich Lightningbolt bin ich mehr als skeptisch. Ich glaube kaum, dass die Hersteller einen weiteren Stecker unterstützen wollen. Das sind alles zusätzliche Kosten. AMD hat jetzt auch nicht zwingend die Marktmacht wie Intel um einen Standard mal eben so durchzudrücken. Zumal die damit Ende 2012 kommen wollen. Gerade wo jetzt so langsam einige hersteller mit Thunderbolt-Geräten ankommt ist der Zeitpunkt vielleicht etwas spät.
 
Die Verschiebung ist mMn einem Strategiewechsel geschuldet, da AMD/GloFo das neue Werk in NY mit 32nm-SOI nutzen wird und nicht wie offenbar ursprünglich geplant mit 28nm-Bulk. Damit hat AMD die Möglichkeit, die Trinity in sehr viel größeren Mengen auf den Markt zu bringen als bisher Llano. Das Werk in Dresden würde somit sehr viel früher zur Umrüstung auf 28nm-SOI frei werden. Mit dem Prozessor an sich wird das also nicht viel zu tun haben, aber er wird mMn nicht in der aktuellen Rev.B0 auf den Markt kommen, sondern als Rev.C, diffused in USA - aber eben erst im Sommer, weil es Zeit braucht die neue Fab, die jetzt fertig ist, auszurüsten und einzufahren. Zur Info: Die Fab8 in NY ist fast 5x größer als die Fab1 in Dresden, allerdings wird auch IBM diese Fab zur Massenproduktion ihrer 32nm-SOI-CPUs mitnutzen.
 
Zuletzt bearbeitet:
HOT schrieb:
Die Verschiebung ist mMn einem Strategiewechsel geschuldet, da AMD/GloFo das neue Werk in NY mit 32nm-SOI nutzen wird und nicht wie offenbar ursprünglich geplant mit 28nm-Bulk. Damit hat AMD die Möglichkeit, die Trinity in sehr viel größeren Mengen auf den Markt zu bringen als bisher Llano.

Wenn man nicht massive Probleme bei der Fertigung hätte, hätte man auch Llano in größeren Mengen absetzen können auch ohne zusätzliche Fab. Nur wenn man halt aus einer Wafer im Schnitt nur 66 funktionsfähige Chips bekommt, ist es nun mal schlicht scheiße. Ich habe schlicht die Befürchtung, dass man bei Trinity vor denselben Problemen steht wie damals beim Llano. :(
 
Matzger

wieso ? weil die cores kleiner sind, wegen VLI4 ??? Weil 32nm schon seit ein Jahr läuft ??? Worauf machst du das fest ?
 
die Cores kleiner sind? Trinity wächst sogar etwas, nicht durch die anderen Shader, schlicht dadurch dass 4D an sich etwas mehr Platz braucht für selbe Leistung, aber maßgeblich dadurch, dass man bei Trinity einiges an GPU dazupackt was eben in 240mm² resultiert, bei Llano waren es noch 226mm².

Bessere Effizienz wird man wohl hauptsächlich durch Absenkung der Voltages + neuere Stromsparmodi erreichen.

Bezüglich der neuen Fab bin ich auch gespannt, gibt es Aussagen dazu ob Trinity in der neuen Fab gefertigt wird, die soll doch aber erst 2013 durchstarten oder?
Ich denke Trinity kommt genau gleich wie Llano aus Dresden, in so fern hat Matzegr schon recht, die Yield muss steigen.

Natürlich ist eine 17W Trinity APU schneller als die dann 1,5 Jahre alten Bobcat APU. Alleine schon durch 40->32nm. Allerdings ist Bobcat auch extrem auf kleine DIE getrimmt.

Mit <80mm² ist ein E-350 extrem klein. Trotz 40nm.
(ein Bobcat in 32nm @ 2x2 geht mit 3 ghz Turbo wäre auch extrem interessant) ;)

Ich denke auch dass Trinity fest verlötet auf ITX kommen kann, wäre schade wenn nicht.

@Ultraboks

Problem, die ganzen Geräte sind zu 95% wieder auf ultimativ LowCost getrimmt, siehe Llano, da gibts extrem wenig etwas teurere Ableger mit guter Auflösung, toller Verarbeitung und Ausstattung.
Was bringt mir ein Ultrabook für 600 statt 1000€, mit dann schlechtem Akku, 1366er Auflösung, geringe Helligkeit und vermutlich schlechter Tasta und Touchpad...

Schade dass sich kaum ein Hersteller an Qualitativ hochwertigere AMD Notebooks wagt.
 
Zuletzt bearbeitet:
pipip schrieb:
Matzger

wieso ? weil die cores kleiner sind, wegen VLI4 ??? Weil 32nm schon seit ein Jahr läuft ??? Worauf machst du das fest ?

Reine Spekulation meinerseits. Aus wirtschaftlicher Sicht wäre es erst sinnvoll Trinity zu bringen wenn die Ausbeute höher als beim Llano ist. Da Trinity rund 5 % größer als Llano ist, würde Llano ansonsten bei gleicher Ausbeute und Preis mehr Gewinn abwerfen. Warum also mit aller Gewalt Trinity bringen wenn es im Prinzip nicht wirklich nötig ist? Die Llanos sind ja nicht schlecht. Und zum Thema 32 nm läuft seit ein Jahr: Vor ein Jahr hätte man sich gefreut wenn man eine Yield-Rate von 25% gehabt hätte. Bei Marktstart vom Llano war man näher an 0% als an 100%.
 
Krautmaster schrieb:
Natürlich ist eine 17W Trinity APU schneller als die dann 1,5 Jahre alten Bobcat APU. Alleine schon durch 40->32nm. Allerdings ist Bobcat auch extrem auf kleine DIE getrimmt.

Mit <80mm² ist ein E-350 extrem klein. Trotz 40nm.
(ein Bobcat in 32nm @ 2x2 geht mit 3 ghz Turbo wäre auch extrem interessant) ;)
Ich denke du verwechselst hier zwei völlig unterschiedliche Namensschemata bei AMD:
Bobcat sind die CPU Kerne der Zacate und Ontario APUs in 40nm. Das entspricht den "Bulldozer" Kernen oder deren Nachfolger "Piledriver", welche ja in "Trinity" zum Einsatz kommen. Diese folgen aber den "Stars" Kernen nach und nicht "Brazos".
 
Krautmaster schrieb:
@aylano

es ist "AMD Bashing" zu erklären, warum man der Auffassung ist, dass AMDs Bulldozer Modul Architektur in der Basis kränkelt?
Gut, dann schwächelt sie eben... macht das einen Unterschied.
Natürlich, genauso das man Leute in diesem Forum nicht jetzt jedesmal als Dummen bezeichnen darf, wenn sie glauben etwas zu wissen, aber null Ahnung haben bzw. ein geringeres Ausbildungsniveau besitzen.

Warum sollten wir dauern deine Subjektiven Bewertungen ertragen, wenn deine Bildung eine objektive Bewertung nicht gelehrt hat bzw. für dich nicht so verständlich war, dass du es auch gemerkt hast?

Wenn man wie ich sagte, davon ausgeht, so wie du, das man 50% mehr Takt macht, ohne auf Kosten der Effizienz / W,
Seinen eigenten Text verstehen, macht manchmal sinn.
Du schriebst, wenn man erwartet:
Klar, wenn man erwartet, dass BD bei 5,5 Ghz denselben Verbrauch bietet wie heute bei 3,6 Ghz, dann kann man nicht von "kränkelnder" Architektur reden.

Ich finde immer deine Ansichten Lustig.
Einfach mehr Erwarten und schon kann man alles negativ bewerten, weil er die erwartende Ziele nicht erreicht hat.
Egal ob er in Server-Bereich gleichwertig ist. Und das schon jetzt im unausgreiften Fertigungs-Zustand.

Und wo haben in deinem sinn-freien Nvidia G80 Vergleich wo was 80% mehr Takt bei gleichem Verbrauch, hä?
was hat die Fertigung damit zu tun dass ein FX4100 mit 2 Modulen @ 3,6 Ghz recht langsam ist? Das ist ein architekturelles Problem, genau wie das Schedulerverhalten.
Du Schriebst selber von einem architekturelle Problem wegen dem Taktes und das ist eben Falsch, nur auf den Takt zu beziehen.

Die Nachträgliche Ausrede von, es hängt von der Die-Größe & Verbrauch ab, kann man nicht gelten lassen, weil die Die-Größe ja wieder von der Fertigung (Fertigungs-Quiltät & -Größe) abhängt.

Vorallem, wenn Bulldozer im Server mehr als Konkurrenzfähig ist, brauchst du nicht von Kränkeln der Basis sprechen, wenn die Bulldozer-Architektur jetzt die Basis für die nächsten 3-7 Jahre Entwicklung steht.

Es ist klar erkennbar, dass das Effizienzoptimum bei gängiger DesktopCPU Fertigung (32nm) bei AMD als auch Intel bei ca 2,5-3,8 Ghz liegt. Es ist aber meiner Ansicht nach, vollkommen utopisch zu glauben, dass AMD mit ihrer takt-orientierten Bulldozer-bauweise nun plötzlich 5 Ghz fahren kann.
Das Problem, zu bezeichnst ja schon die AMD-CPU, wenn sie im Server-Markt gleich effizient ist.
AMD hat ja angekündigt, dass die Bulldozer-Basis-Entwicklung (Piledriver & Nachfolger) nicht nur über den Takt gesteigert wird.
Kurz gesagt, es muss deswegen nicht so hoch getaktet werden und Bulldozer ist nur für Mitte 2011 bis Mitte 2012 da.

Das ging wie gesagt schon bei Netburst schief.
Die Gerüchte weit vor Bulldozer Release zeigten ja schon darauf hin das AMD ursprünglich wohl mit Taktraten von 5 Ghz gerechnet hat...
Man sollte Gerüchte nicht als Fakten sehen und bei niederen Takt dann als Krank bezeichnen.

Ja es gibt bei Netburst schief und du hast in den Jahren nie laufend Netburst als Krank bezeichnet Warum konntest du damals Intel nicht Krankreden?
Und ja, FX-4100 hat viel unnützes Zeugs mit im Gepäck, keine Maske, das habe ich auch ausdrücklich dazu geschrieben (lesen!) - natürlich ist eine eigene Maske effizienter, deswegen fällt Trinity auch garantiert effizienter aus als ein FX-4100, auch ohne L3. Dennoch wird er durch den benötigten höheren Takt kaum von Llano absetzen können, CPU seitig (bei Effizienz).
Es ist typisch für dich, irgendwelche Zahlen hinzuschmeißen, wo jeder selbstständig irgendwas abziehen und dazuziehlen kann, und dann bewertetst du es als Verschlimmbesserung.
Du musst einmal lernen: Was man nicht nachvollziehen kann, ist bedeutungslos/Wertlos.
Bzw. Wenn nicht in Ansatz richtige Zahlen hat, dann lässt man den objektiven Vergleich.
Wie oft hatte ich schon über deine ungeeigneten Vergleiche geredet?
Da der 6100er nur paar Watt mehr braucht, was es auf den ersten Blick die Unsinnigkeit ersichtlich, weil man nichts rausreden kann.

Ich habe nicht gesagt dass Trinity langsamer ausfallen wird.
Konkret sagst du ja nichts, da du am Schuss immer alles hinbiegen kannst, wie du es willst.

=Herdware;11334791@ Krautmaster
Aber wie gesagt, ansonsten ergibt ein 17W-Trinity einfach keinen Sinn. Was soll AMD mit einer weiteren APU, die bei ähnlicher TDP ähnliche Leistung abliefert wie eine Bobcat-APU und deshalb zwangsläufig zu einem ähnlichen Preis verkauft wird?

[Krautmaster;11334863]@ Herdware
ich sehe das im Prinzip genauso,...

Du dachtest sogar, ein Trinity-Quad-17W-TDP wird sogar 50% langsamer (bzw. 100% schneller) sein, als jetzt gedacht, er nur ähnlich schnell wie Bobcat-Performance sein soll.
Ich musste mal reinreden, weil der Unsinn irgendwann seine Grenzen hat und mich zu lange zurückgehalten habe.

Im übrigen muss ich Ralf555 in der Hinsicht recht geben, dass es bei deinen "LaberPosts" oft schwer ist, durchzusteigen.
Und was sagt die Mutti?
Da kann ich nur lachen, wenn du nichtmal den Unterschied zwischen Objektiven- und subjektiven Bewerten kennst und dann andere indirekt als "LaberPosts" subjetiv bezeichnest, obwohl das aufgrund deiner Subjektivität genau auf dich fällt.

Und falsches wird nicht richtig, nur weil man es öfters wiederholt oder wenn es mehr Leute sagen.
 
@Daedal

Joa, mir gings mir um den Vergleich Bobcat / Stars/ Piledriver und Bulldozer Kerne, wobei es hier eher 3 Klassen gibt, Bobcat braucht äußerst wenig Platz, Stars ist eher K10, also Athlon II Niveau mit leichten Optimierungen - Bulldozer und Piledriver kann man auch in eine Tüte packen, wobei man bei Trinity hier den fehlenden L3 beachten muss.

Dennoch scheinen 2 Bulldozer / Piledriver Module ausgehend vom DIE Shot, nur unwesentlich kleiner als 4 echte Stars Kerne zu sein, dazu liefern sie weit weniger IPC und bei MultiThreading auf 4 Threads stehen die echten Kerne sicher auch besser da, zumindest bei selbem Takt.

Bezogen auf die DIE holen die Brazos Kerne, nehmen wir Zacate als Beispiels APU, pro mm² am meisten raus, trotz 40nm. Trinity wird natürlich auch mit 17W eine Klasse darüber spielen, aber verglichen mit einem 28nm Quad Brazos 2.0 wäre letzterer vermutlich besser dagestanden.

Man darf gespannt sein mit welchem Takt Trinity in 17W daherkommt.

@aylano

was hat das wieder mit irgendwelchen Bezeichnungen im Forum zu tun, du laberst schon wieder mit vollkommen anderem Zeugs daher weil es dir nicht passt dass die Module in den heutigen Bulldozern enormen Takt benötigen um mithalten zu können, was bei heutiger Fertigung in schlechter Effizienz und hohem Verbrauch resultiert. Streitest du das ab?

Wäre die IPC / Thread deutlich höher, imho hieß es im Vorfeld auch immer von AMD, dass die IPC gestiegen ist, stände Bulldozer heute besser da. Vermutlich hat AMD entweder mit höherer IPC oder weit höherem Takt in modernden Fertigungen gerechnet. Bulldozer macht den Eindruck, als wäre er schon zu Netburst Zeiten entwickelt worden, Fokus auf Takt.

Such es dir raus, entweder ist es ein Architektur Problem, da man zu viel Takt für selbe Leistung benötigt (sogar deutlich mehr Takt als alte K10 Kerne), oder es ist, wie deiner Meinung nach, ein FertigungsProblem da Bulldozer keine 5 Ghz bei 95W macht.

Letzteres wäre für mich eher der Fall, wenn Bulldozer eine für hohen Takt und moderatem Verbrauch typische kleine DIE hätte, mit relativ wenig Transitoren, unabh. von 32nm. Für mich ist das schlicht nicht der Fall, es müsste also eine revolutionäre 32nm Fertigung her die extreme Taktraten bei kleinem Verbrauch erlaubt um es darauf zu schieben.

Da der 6100er nur paar Watt mehr braucht, was es auf den ersten Blick die Unsinnigkeit ersichtlich, weil man nichts rausreden kann.

Ich nehme an du meinst das hier:

http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/index9.php

dreimal darfst du raten warum der FX-6100 hier so gut weg kommt, mit ähnlichem Verbrauch bei UV wie der FX-4100... Er braucht sogar 4 W weniger als der 2 Modul FX-4100. Richtig, weil die Spannung niedriger ist, und die ist wiederum niedriger weil sein Takt bedeutend niedriger ist.

Bleibt die Frage ob es also gut ist, eine moderne X86 Architektur dermaßen auf Takt auszulegen wo doch schon 300 Mhz hier einen Mehrverbrauch generieren, die ein ganzes Modul aufwiegt.

Aber ja, das ist ein reines Fertigungsproblem. :rolleyes:

Du dachtest sogar, ein Trinity-Quad-17W-TDP wird sogar 50% langsamer (bzw. 100% schneller) sein, als jetzt gedacht, er nur ähnlich schnell wie Bobcat-Performance sein soll.
Ich musste mal reinreden, weil der Unsinn irgendwann seine Grenzen hat und mich zu lange zurückgehalten habe.

hä? Ich werd aus dem Satz nich schlau :D

Herdware bezog sich auf den 28nm Bobcat Shrink mit 20W der offensichtlich gestrichen wurde. 4 Kerne, 28nm, vermutlich höheren Takt und Turbo.
Mit angekündigten 20W TDP und 28nm wäre der vermutlich sogar schneller gewesen als ein 17W Trinity.

Interessant wäre es heute mal einen FX-4100 zu nehmen, auf 1,6 Ghz und 1 Modul zu fixieren und dann mit einem E-350 zu vergleichen.

Das Problem, zu bezeichnst ja schon die AMD-CPU, wenn sie im Server-Markt gleich effizient ist.
:freak: was?
AMD hat ja angekündigt, dass die Bulldozer-Basis-Entwicklung (Piledriver & Nachfolger) nicht nur über den Takt gesteigert wird.
Kurz gesagt, es muss deswegen nicht so hoch getaktet werden und Bulldozer ist nur für Mitte 2011 bis Mitte 2012 da.

Hab ich was anderes gesagt(?), Bulldozer wird man natürlich optimieren um eben die kritische IPC zu steigern, imho das was man vermutlich seit Jahren versucht und weshalb Bulldozer vermutlich verschoben wurde. Piledriver legt laut AMD bis 10% nach. Was dies in Trinity bedeutet kann man nicht sagen, da Trinity der L3 fehlt.

Die Nachträgliche Ausrede von, es hängt von der Die-Größe & Verbrauch ab, kann man nicht gelten lassen, weil die Die-Größe ja wieder von der Fertigung (Fertigungs-Quiltät & -Größe) abhängt.

Llano hat bereits eine enorme Density.

http://www.anandtech.com/show/5176/amd-revises-bulldozer-transistor-count-12b-not-2b

Die 1,2 Mrd für Bulldozer halte ich immer noch für wage, auch wenn sich AMD dahingehend korrigiert hat halte ich die 2 Mrd. für realistischer, die Wahrheit dürfte irgendwo dazwischen liegen. Das aber OT.

Was ich sagen will... Llano packt die Transistoren schon extrem eng damit die DIE nicht noch größer wird. Bei Trinity wird es auf ähnlichem oder gar dichterem Niveau sein. Diesbezüglich hängt DIE Größe natürlich also ein stück-weit von Fertigung ab, keine Frage, aber Trinitys Größe ist bekannt, also wird man dahingehend keine Überraschung erleben, genauso wenig bei Takt und Verbrauch.

Ja es gibt bei Netburst schief und du hast in den Jahren nie laufend Netburst als Krank bezeichnet Warum konntest du damals Intel nicht Krankreden?

natürlich, Netburst ist Vergangenheit. Damals war sie genauso kränkelnd wie AMDs Bulldozer. Intel hat sie nicht umsonst und zurecht absolut über den Haufen geworfen. Eventuell geht AMD auch diesen Weg, je nach dem was man mit Bulldozer erreicht. Bei Netburst war es so, dass der Pentium III weiter entwickelt wurde, über Pentium M etc zum Core Duo, lediglich im mobil Segment. Wer weiß, vielleicht stirbt bei AMD Stars / K10 nie aus bzw erlebt in paar Jahren sein Come Back :D

Im Gegensatz zu AMD hatte Intel die Finanzen zweigleisig zu fahren, für AMD schwer stemmbar.
 
Zuletzt bearbeitet:
aylano schrieb:
Natürlich, genauso das man Leute in diesem Forum nicht jetzt jedesmal als Dummen bezeichnen darf, wenn sie glauben etwas zu wissen, aber null Ahnung haben bzw. ein geringeres Ausbildungsniveau besitzen.

Warum sollten wir dauern deine Subjektiven Bewertungen ertragen, wenn deine Bildung eine objektive Bewertung nicht gelehrt hat bzw. für dich nicht so verständlich war, dass du es auch gemerkt hast?

Seine Aussage würde ich eher als objektiv einordnen. Wenn selbst Charlie von S|A die Architektur des Bulldozers kritisiert und sehr viele Stellen nennt an dem die Architektur in der Realität nicht mehr so gut aussieht wie auf dem Papier. Potenzial hat sie. Da hat keiner hier was anderes gesagt. Nur momentan hakt es noch an zu vielen Ecken und Kanten. Bei dir sind das ja alles Fertigungsprobleme....

Ich glaube du gehst hier als einziger zu subjektiv ran, sitzt auf deinem hohem Ross und denkst nur du bist der objektivste Mensch den es je gegeben hat.
 
Krautmaster schrieb:
@Daedal

Joa, mir gings mir um den Vergleich Bobcat / Stars/ Piledriver und Bulldozer Kerne, wobei es hier eher 3 Klassen gibt, Bobcat braucht äußerst wenig Platz, Stars ist eher K10, also Athlon II Niveau mit leichten Optimierungen - Bulldozer und Piledriver kann man auch in eine Tüte packen, wobei man bei Trinity hier den fehlenden L3 beachten muss.

Dennoch scheinen 2 Bulldozer / Piledriver Module ausgehend vom DIE Shot, nur unwesentlich kleiner als 4 echte Stars Kerne zu sein, dazu liefern sie weit weniger IPC und bei MultiThreading auf 4 Threads stehen die echten Kerne sicher auch besser da, zumindest bei selbem Takt.

Bezogen auf die DIE holen die Brazos Kerne, nehmen wir Zacate als Beispiels APU, pro mm² am meisten raus, trotz 40nm. Trinity wird natürlich auch mit 17W eine Klasse darüber spielen, aber verglichen mit einem 28nm Quad Brazos 2.0 wäre letzterer vermutlich besser dagestanden.

Man darf gespannt sein mit welchem Takt Trinity in 17W daherkommt.
Ich denke du solltest mal einen Blick in diesen Brazos Artikel werfen ;)
https://www.computerbase.de/2011-05/test-amd-brazos/2/#abschnitt_prozessor
Die größten Einschränkungen folgen jedoch erst in den kommenden Bereichen: bei den Integer- und Gleitkommaberechnungen. So kann die Gleitkommaeinheit nur zwei Ausführungseinheiten ansprechen, von denen jeweils eine multipliziert und eine addiert. Die weitere Einschränkung besagt, dass diese Befehle auch nur maximal 64 Bit große Operanden enthalten dürfen, was ein weiteres Hindernis darstellt. Ähnlich geht es bei der Integer-Berechnung zu: Zwei Scheduler sprechen zwei ALUs und zwei AGUs an, wobei sich letzte wiederum in eine AGU für Speicher- und eine für Lade-Operationen aufteilen.
Ich denke kaum dass eine Architektur die als Konkurrent für Atom gebaut wurde und auch in Tablets zum Einsatz kommt in irgendeiner Form Leistungsmäßig mit Athlon/Llano/Trinity vergleichbar ist. Zwischen Bobcat und den Stars Kernen liegen Faktor 3-8 je nach Anwendung. Vor allem die FPU bei Bobcat ist ja gerade mal 64bit breit.
 
genau deswegen wäre ein Vergleich interessant, um welchen Faktor es geht.

Hast du ne Quelle zu den genannten Faktoren? Würde das gerne takt-bereinigt sehen. Also für den Anfang 2x Stars gegen 2x Brazos.

AMD sprach ja von ~80% wenn ich mich recht entsinne. War aber glaub auf K8 bezogen.


Edit:

http://ht4u.net/reviews/2011/amd_zacate_e350_review/index35.php

Hier sieht man zumindest den Athlon II X240e @ 2x 1,6 Ghz als Vergleich
Man ist teilweise fast auch X2 5000+ Niveau, all over 31% hinter dem Athlon II X2

Faktor 3-8 halte ich für übertrieben, mir ging es ja um taktbereinigte Leistung.

Die Frage ist, wie sich 2x1,6 Ghz Bazos Kerne gegen 1Modul @ 1,6 ghz stellen. =)

Leider finde ich keine Tests mit einem FX-4100 @ 1 Modul @ 1,6 Ghz. Interessant wäre es.

Schwammig könnte man das

https://www.computerbase.de/2011-10/test-amd-bulldozer/29/#abschnitt_cinebench_r115

vs das

https://www.computerbase.de/2011-05/test-amd-brazos/24/#abschnitt_cinebench_r115

stellen.

Hätten wir 2,97 @ 3,6 Ghz bei 2 Modulen = FX-4100.
1 Modul halbiert sich das ganze nahezu, sagen wir 1,5 @ 3,6 Ghz

Takt skaliert bei CineBench nahezu linear, würde auf E-350 Niveau heruntergerechnet ~ 1,6*(3600/1600) = 0,67 ergeben.

Ein Zacte bringt es laut Test auf 0,62.

Sehr schwammig da auch bei Cinebench @ 4 Kernen der Turbo leicht zieht beim FX-4100. Leider hab ich keinen FX hier, aber wenn jemand einen Bulldozer hat wäre es interessant ihn auf 1 Modul und 1,6 Ghz mit Tubro Off mal durch Cinebench 11,5 zu jagen ;)

Der Unterschied von 2 Brazos Kernen und einem Bulldozer Modul ist gar nicht so riesig.

Ich rechne mit <1 für ein Bulldozermodul.
 
Zuletzt bearbeitet:
@Daedal
Ich sehe da nicht solche Welten zwischen Bobcat und K10/Llano.

Laut Notebookcheck schafft ein A4-3300M (1,9-2,5GHz, 35W TDP) in Cinebench R10 ca. 3300 Punkte und ein E-350 (1,6GHz, 18W TDP) ca. 2000.

Viel kleiner sollte der Abstand bei einem 17W-Trinity besser nicht werden.

Außerdem liegt der A4-Llano damit gerade mal so auf dem Niveau von Intels älteren mobilen Celerons und Pentiums. Intels aktuelle ULV-CPUs haben fast doppelt so viel CPU-Leistung und Ivy Bridge wird wahrscheinlich gerade bei diesen CPUs nochmal einiges drauflegen.

Wenn AMD den 17W-Trinity in Subnotebooks/Ultrabooks zu deutlich höheren Preisen verkaufen will, als derzeit die Bobcat-APUs für Netbooks, dann müssen sie schon ein kleines Wunder schaffen.

Die erste Generation der Bulldozer-Architektur konnte nicht mal K10 schlagen. Piledriver müsste bei halbiertem Verbrauch doppelt so schnell sein wie K10 und wäre damit bestenfalls konkurrenzfähig mit Sandy Bridge-ULVs, wird sich aber mit IVB messen müssen.
 
Zuletzt bearbeitet:
hm.

http://www.legitreviews.com/article/1766/9/

hier kommt der FX-4100 bei 1Core @ 3,6 Ghz mit 0,93 Punkten weg (! mit Turbo).

Ein Llano mit 2,6 Ghz kommt auf 0,8 Punkte

Beides heruntergerechnet auf einen Zactate Core @ 1,6 Ghz hätten wir:

1x Modul = 0,41 bzw 0,39 (unter Turbo Berücksichtigung)
1x Llano = 0,49
1x Zacate = 0,31

Zu beachten ist allerdings, dass sich bei dem Zacate und Llano bei 2 Kernen die Leistung verdoppelt, was bei dem Modul nicht ganz der Fall ist.

Edit:

https://www.computerbase.de/2011-06/test-amds-a-serie-llano/12/#abschnitt_synthetische_benchmarks

Hier finden sich 1 Core Cinebench Werte für den E-350 und Llano.
0,31 passen exakt.
Der Llano käme hier auf 0,40 (sogar unter meinem errechneten Wert, was am problem-Turbo des A6-3400M liegen dürfte ) was nochmals die lineare Skalierung unterstreicht.

Der 3400M taktet von 1400 -2300, wenn man 2000 Schnitt für Cinebench 1 Kern annimmt, kommt man auf 0,465 Punkte.

Lustige Zahlensspiele ;)

Ein Test zur IPC wär geil.

Edit:

Die CPU Performance von Zacate ist eigentlich erstaunlich gut, wenn man bedenkt, dass von der APU DIE (75mm²) ebenfalls ein sehr großer Teil die GPU darstellt. Und das in 40nm.

amd_zacate_dual_core_die_shot.jpg

Zacate Dual-Core: links die zwei Kerne mit L2-Cache (oben und unten), iGPU in der Mitte, Speicherinterface rechts
ontariovsatom.jpg
 
Zuletzt bearbeitet:
Zurück
Oben