News AMDs „Trinity“-APU kommt zur „Mitte des Jahres“

Herdware schrieb:
Intel nutzt kein x86 für GPUs. Das Larrabee-Projekt wurde schon längst wieder eingestampft. Eventuell wird das Konzept irgendwann nochmal für spezielle-GPGPU-Anwendungen wieder aufgegriffen, aber die aktuellen HD-GPUs von Intel sind ganz konventionelle spezialisierte GPUs, wie bei AMD oder Nvidia auch.

Nicht nur eventuell. Mit Knights Corner und Ferry gibt es schon 2 Nachfolger von LRB. Alle beiden sind für GPGPU und für die Programmierung auf viele Kerne gedacht. Eingestmpft würde ich das nicht nennen.
 
ExcaliburCasi schrieb:
Fertigung von 40nm auf 28nm, aber bin mir gerade nit sicher, war der GPU-teil auch schon 32nm !? xD dann wären die 50% wieder klar ...
Es gibt noch keine 28 nm APUs. Trinity ist komplett 32nm Fertigung.
"Krishna" und "Wichita" wären die ersten 28nm APUs geworden, wurden gecanceled:
https://www.computerbase.de/2011-11/streicht-amd-den-echten-brazos-nachfolger/

Auch hat AMD noch nie 2 verschiedene Fertigungen für CPU und GPU benutzt - nur Intel hatte bei den Clarksdale 2 verschiedene Fertigungen für GPU und CPU verwendet. APUs werden aus dem selben Wafer hergestellt.

100% Leistungszuwachs gab es noch nie durch einen Die-Shrink. AFAIR nicht mal bei reinen GPUs, geschweige denn bei den APUs die eine recht neue Geräteklasse sind und wesentlich komplexer durch die integrierte Bauweise.

Die erste 28 nm GPU von AMD (Radeon HD 7970) bietet auch ca. 30% Mehrleistung gegenüber dem Vorgänger in 40nm. Siehe: https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/24/#abschnitt_fazit
In 1.920 × 1.080 arbeitet die Karte etwa 20 Prozent schneller als eine GeForce GTX 580 (8xMSAA außen vor gelassen) und ungefähr 35 Prozent flotter als die Radeon HD 6970. Das ist kein schlechtes Ergebnis, aber auch kein außerordentlich gutes. Besser gefallen hat uns die Geschwindigkeit in höheren Auflösungen wie 2.560 x 1.600: Dann gibt es rund 30 bis 35 Prozent mehr Leistung als auf der GeForce GTX 580.

Also die Erwartung von 100% Leistungssteigerung gegenüber Llano ist mehr als nur etwas unrealistisch, vor allem da die thermischen Budgets bei APUs eine wesentlich höhere Rolle spielen als bei Spitzen GPUs.
 
Krautmaster schrieb:
@aylano

es ging darum, dass ich nicht von Zahlen auf einer AMD Folie auf die Laufzeit nachher im Notebook schließe. Was hat das mit dem Energiegesetz (lol, welchem Energiegesetz) zu tun?
Das hat mit dem "Folien von Hersteller"-Gesetz zu tun, ganz einfach :D
Keine Ahnung, was du die ganze Zeit meinst.

Les doch mal die Footnotes. 12,5 h bei einem C-60 und einem 62,16 WH Akku. Schöne Angaben, alles toll...

Was aber bei Note 5 -> Trinity-> 12h + zum Einsatz kam ist vollkommen offen. Dazu Labor, vermutlich TFT komplett abgeklemmt, Wlan etc aus...
Hab ich eh, und genau den entscheidenden Satz sogar in Thread rausgeschrieben.

Nochmal, AMD hatte bisher alle Angaben laut Notebook-Check eingehalten. Dass sie dann +20% dürber lagen, laut sicher auch ein Teil an der niedrigsten Dispaly-Anzeige.
Dazu hat AMD den Akku immer mit 57-62Wh definiert, was eben auch Praxistauglich war, wenn das Notebook wenn Akku-Zeit beachtet wurde.
Aber das ist eben bei Intel genauso. Der Schwankungsbereich liegt im Notebook bereich bei Plus-Minus 50% im Akku-Idle.

Außerdem sehe ich keinen Bezug zu Llano.
Wie gesagt, Trinity als auch Llano dürften Idle kaum was verbrauchen, das reißt eher die Plattform raus.
Woher kommen denn deine 50% ?
Ich hatte mit All-Day nur 8 Stunden im Kopf. (Folie ist auch Pre-View und nach Kurzem suchen fand ich nur 8 Stunden)
Das erklärt dann einiges und dann ist der Sprung kein gleiches wunder sondern eine positive Überraschung.


Krautmaster schrieb:
P.S.: Genau das meine ich mit die Architektur kränkelt in der Basis.
Nur das du es weißt.
Das wäre typischen Fanboy-Bashing. Die Fertigung hat da noch ein gewichtiges Wort mitzureden, und somit sind deine Aussagen bei weitem nicht so eindeutig, wie du es glauben mögest.
Ersten, da a) Intel eine sehr gute Fertigung hat und b) AMD eine Problematische, die in 32nm ohne ULK nicht so hochwertig ist, wie du es glauben willst.

Gerade ULK brachte in 45nm so viel, was du eben hochjubelst. Magny-Coures konnte damals hauptsächlich wegen der Spannungsabsenkung in Sachen (Server-)Effizienz zulegen, während der 16C-Bulldozer eben wieder mehr Spannung haben kann.

Das von Fertigungs-Reife sowie Spannungsvergleiche ist ein schwerwiegender Fehler von dir!!!

Drittens,
nur weil Bulldozer-Architektur in Desktop paar Schwächen hat, brauchst jetzt du den Kamm nicht auf alle Bereiche jedesmal wiederkauen.
Von Krank spricht man, wenn so wie Atom seit 2-3 Jahren in Smartphone-Markt versagt und in Netbook-Markt deutlich an Bedeutung verloren hat.
Gerade in diesem Forum wurde ich massive Kritisiert, weil ich Atom als Fehlentwicklung darstellt, weil er zwischen Smartphone & Netbook entwickelt wurde bzw. Planlos und starke Schwächen in beiden Segmenten zeigte. Nur im Monopol-Hype konnten es die wenigsten sehen.

Sowie krankt Larrebee bisher, weil dieser nach vielen Jahren immer noch nicht erschienen ist und vielleicht nur mit bester Intel-Fertigungs am Markt kommen kann.
Itanium viel seiner Krankheit ins Koma, während Netburst an der Krankheit starb.

Bulldozer kann @ Server mithalten und das spricht man nicht von Krank, nur weil Bulldozer mit Problemtischen 32nm-non-ULK nicht den auf Energie-effizienten optimierten K10-45nm-ULK-niederen-Spannungen noch nicht davon ziehen kann.
Nur das du es weißt.
Du konntest bisher nicht belegen, ob die Bulldozer/K10-Architektur überhaupt schlechter ist als Sandy-Bridge, da Intels Fertigung auch einiges ausmacht. Also, bei so eine Ungewissheit muss man sehr vorsichtig sein, was man sagt, da vielleicht Bulldozer mit ULK urplötzlich alle überraschen kann.

Und nein, AMD kann mit 1/10 R&D-Gelder nicht jedesmal überlegene Architekturen designen, die dann noch die ganzen Fertigungs-Nachteile mehr als kompensieren kann.
Da Intel selber in den letzten Jahren neben Core-Weiter-Entwicklung keine Erfolgreiche NEUE CPU-Architektur am Markt bringen konnten, in der sie auch geplant war, dürfte es halt doch nicht so einfach sein, eine komplett neue Architektur zu entwickeln.
 
Zuletzt bearbeitet:
Herdware
Außerdem bin ich der Meinung, dass man eine schnellere CPU eigentlich immer gebrauchen kann, während bei sehr vielen Anwendungen eine schnellere GPU einfach gar keine Wirkung mehr zeigt.

Sry da kannst du einen Platzhalter lassen, CPU und GPU kann man auch vertauschen, das ist Ansichtsache, und muss mehr oder weniger jeder für sich selber regen.

Der E350 reicht auch vielen, und ist aufgrund der GPU interessanter als der ATOM oder ?

aylano
ULK ? für was steht das :) ? kenn ich nicht.

Rein von der Logik, ja 45 nm (besonders AMD war ja schon ziemlich ausgereift) produziert sicherlich mehr und besser als 32nm zu beginn
 
Zuletzt bearbeitet:
meiner Ansicht nach ist er vor allem wegen der höheren SingelThread Leistung interessanter und wurde deswegen auch immer vom AMD lager mit höchsten Tönen gelobt, zurecht, denn im Gegensatz zum ATOM kann man mit einem E350 Windows 7 halbwegs bedienen, was aber an der CPU Leistung liegt, weniger an der GPU.

Die ist hauptsächlich für HD Beschl und das ein oder andere Game @ lowest setting gut...

@aylano

was hat die Fertigung damit zu tun dass ein FX4100 mit 2 Modulen @ 3,6 Ghz recht langsam ist? Das ist ein architekturelles Problem, genau wie das Schedulerverhalten.

Da hilft es nicht groß um den Brei zu reden weil es einem selbst nicht passen mag.

BDs Modell steht ganz zu beginn, Optimierungen wird es geben, keine Frage, aber AMD selbst backt mit den genannten 10% schon kleine Brötchen, dazu bringt der Patch praktisch 0.

Es ging in keinster weise um den Prozess oder die Fertigung an sich. Die kann in GFs neuer Fab mit Trinity (sofern er da gefertigt werden sollte) schon besser ausfallen, auch angesichts 22nm bei Intel dringend notwendig.


Edit:

Jetzt driftest du wieder auf R/D Finanzen ab, als nächstes kommt wieder Intels unfairer Wettbewerb. Bleib bitte bei dem Thema um das es in meinem Postings ging, Architektur mit Modulen, CMT, Scheduling, Leistung der Trinity APU auf CPU Seite.

Der Prozess wird bei Trinity schon deutlich besser sein als Llano, 10:28 auf 12:28 h Laufzeit, sofern der Akku gleich geblieben ist, ist doch super. mal sehen was dabei in der Praxis rumkommt. Zeig mir mal ein Llano Notebook mit 10h Laufzeit bitte ...

Meistens wird bei den 500€ Billig Books am Akku gespart.
 
Zuletzt bearbeitet:
ExcaliburCasi schrieb:
Fertigung von 40nm auf 28nm, aber bin mir gerade nit sicher, war der GPU-teil auch schon 32nm !?
Die APUs bestehen aus einem Die. Die CPU und GPU sind nicht verschiedene Chips, sowohl beim Llano als auch beim Trinity. Von da aus ist dann auch der Herstellungsprozess gleich.

Und sowohl Llano als auch Trinity sind in 32nm gefertigt. Da hat sich also nichts getan.
Aber die Fertigung an sich wurde bestimmt verbessert. llano war ja der erste Chip. Da haben die schon ziemlich viel Spannung drauf gegeben. Von da aus ist da noch viel Verbesserungspotential vorhanden.
 
Daedal schrieb:
100% Leistungszuwachs gab es noch nie durch einen Die-Shrink.

Die erste 28 nm GPU von AMD (Radeon HD 7970) bietet auch ca. 30% Mehrleistung gegenüber dem Vorgänger in 40nm.

Ja, weil die neue Architektur bedeutend ineffektiver ist, Theoretisch ist mit 28nm der 40nm Chip mit doppelter anzahl herzustellen was damit in doppelter Leistung enden würde.
Ein geshrinker + verdoppelter Cayman wäre sicherlich im schnitt bedeutend schneller in Spielen gewesen, unter dem Gesichtspunkt das die Fertigung den Chip auch bringen kann.
AMD hat aber bewusst Einheiten für andere dinge verbaut, womit Platz für Spieleleistung verlorgen ging.
(edit: Daher wird Nvidia auch große Sprünge machen können müssen sollen :D )

mein Fehler war
bensen schrieb:
Die APUs bestehen aus einem Die. Die CPU und GPU sind nicht verschiedene Chips, sowohl beim Llano als auch beim Trinity. Von da aus ist dann auch der Herstellungsprozess gleich.

Und sowohl Llano als auch Trinity sind in 32nm gefertigt.
Das ich dachte Llane hätte 40nm IGP und ich dachte jetzt kämen 28nm IGP im Trinity zum Einsatz, daher habe ich natürlich ein simples hochrechnen der "simplen" GPU´s chips erwartet.
Daher die 100%, die ich erwartet hatte.
Das es jetzt 32 zu 32nm sind, und dennoch 50% macht, ist dann natürlich keine schlechte Leistung, ändert jetzt aber nichts mehr daran das ich (fälschlicherweise) mehr erwartet hatte :D
 
Krautmaster schrieb:
meiner Ansicht nach ist er vor allem wegen der höheren SingelThread Leistung interessanter und wurde deswegen auch immer vom AMD lager mit höchsten Tönen gelobt, zurecht, denn im Gegensatz zum ATOM kann man mit einem E350 Windows 7 halbwegs bedienen, was aber an der CPU Leistung liegt, weniger an der GPU.
Und wie kann man das belegen?

@aylano

was hat die Fertigung damit zu tun dass ein FX4100 mit 2 Modulen @ 3,6 Ghz recht langsam ist? Das ist ein architekturelles Problem, genau wie das Schedulerverhalten.
Da hilft es nicht groß um den Brei zu reden weil es einem selbst nicht passen mag.
Das ist komplett falsch.
Genauso, wie Nvidia fast 50-100% höhere Core-Takte hat, hat IBM auch lange deutlich höhere Takte. Dazu sagt ein Takt nichts über den Stromverbrauch aus.

Nochmal, nur weil Bulldozer paar Schwächen hat und Intel trotz besserer Fertigung im Server-Bereich jetzt doch nicht platt macht, braucht du nicht von Krank reden.
Und Intels Fertigung hat sehr wohl auch Einfluss. Wäre er nicht so gut, könnte Intel die Takt weniger Hoch schrauben um die TDP nicht zu sprängen bzw. niedere TDPs einführen.

BDs Modell steht ganz zu beginn, Optimierungen wird es geben, keine Frage, aber AMD selbst backt mit den genannten 10% schon kleine Brötchen, dazu bringt der Patch praktisch 0.
Du kannst dir gerne mal die Kommentare lesen, wo geringere CPU-Performance mit Trinity gegenüber Llano Befürchtet wurde, weil sie eben so dachten wie du bzw. deine ganzen Aussagen lasen. Alleine Im diesem Thread dachte noch einer, Trinity-17W-TDP wird ähnliche Bocat-17W-Performance erreichen.
Diese Erbsen-Zählerei von paar Prozent kannst du vergessen, weil in einen unausgreiften 32nm-Prozess noch zu viel ungenutzes Potential steckt. 17W-Trinity ist der klare Hinweise, weil ein 17W-Llano nicht möglich war.
Genauso wars mit K10, wo damals AMD in 6 Monat-Abständen je 15%-Takterhöhungen erreicht und nachher mit ULK nochmal deutliche Effizienzsteigerungen erreichte, während die IPC damals nur <10% wuchs.

Jetzt driftest du wieder auf R/D Finanzen ab, als nächstes kommt wieder Intels unfairer Wettbewerb. Bleib bitte bei dem Thema um das es in meinem Postings ging, Architektur mit Modulen, CMT, Scheduling, Leistung der Trinity APU auf CPU Seite
Kurz gesagt, um die Kranke Bulldozer-Architektur, was mit CPU-Only-Denken ja immer dein
Thema ist.
Thema ist Trinity und nicht die Bulldozer-Architektur. In Trinity steckt zu deinem Bedauern eine Feritgungsqualität bzw. kann leider noch nicht in 22nm gefertiget werden.
Stimmt, es müsste laut dir ja ein Architektur-Problem sein, nicht in 22nm fertigen zu können.

Ich drifte nicht ab, aber mir geht es am Keks, wenn Leute wie du die 10fache R&D-Ausgaben bewusst vernachlässigen und Architektur-Krank reden, nur weil z.B. in Server-Bereich Bulldozer die Intels-CPUs mit deutlich bessere Fertigung nicht platt macht.

PS: Dann gibt mir einen Beleg, dass Forschung keinen Einfluss auf Architektur-Effizienz-Steigerungen haben.


Der Prozess wird bei Trinity schon deutlich besser sein als Llano, 10:28 auf 12:28 h Laufzeit, sofern der Akku gleich geblieben ist, ist doch super. mal sehen was dabei in der Praxis rumkommt. Zeig mir mal ein Llano Notebook mit 10h Laufzeit bitte ...
Warum sollte ich. Deine Folie ist nicht einmal Offiziell.
Und die von mir zuerst gedachten 8 Stunden @ 62Wh werden bei diesem Test erreicht, obwohl es sehr sehr wenige Test gibt.
http://www.notebookcheck.com/Test-HP-ProBook-6465b-LY433EA-Notebook.68520.0.html

Der Hauptfazit ist ja, dass die Akku-Zeit länger wird und das ist die positive Überraschung. Ich sagte ja schon bevor du mir auf den 8/10-Stunden-Llano All-Day Informations-Fehler aufmerksam machtest. "Wenn von den 50% nur 25% überbleiben, ist das trotzdem noch sehr viel!!!"

Wie es im Verhältnis zu Ive-Bridge aussieht, weiß ich nicht, da mit momentan keine Ive-Bridge-Akku-Angaben bekannt sind.
 
nochmal, es ging nicht im die Fertigung.

Klar, wenn man erwartet, dass BD bei 5,5 Ghz denselben Verbrauch bietet wie heute bei 3,6 Ghz, dann kann man nicht von "kränkelnder" Architektur reden.

In meinen Augen kränkelt sie aber etwas in der Basis, was nicht heißt dass sie Müll ist. Ganz unabh. von der Fertigung, da gerade AMD wohl kaum 6 Ghz fahren wird bei selbem Verbrauch wie Intel, in kleinerer Fertigung bei 4 Ghz.

IBM fährt höhere Taktraten, aber schau dir da den Verbrauch und die Kühlung an. Dein Post liest sich als willst du die fehlende IPC über die schlechte Fertigung wegreden, träumst von 6 Ghz bei 95W TDP...

Es hat in der Vergangenheit ja immer ganz toll funktioniert, siehe Netburst.

Bulldozer mit CMT ohne L3 (siehe Trinity) wird sicher schon effizienter ausfallen als heutige Zambezi CPU... das steht außer Frage, auch der Prozess entwickelt sich.

Im optimistischsten Fall holt Bulldozer heute in einer kleineren Fertigung bei höherem Takt und selbem Verbrauch etwa die Leistung der alten Architektur heraus (der Prozess Stand heute bei AMD läuft gar nicht so schlecht, heißt es doch immer). Das nenn ich kränkeln, denn irgendwas kann da nicht passen. Das liegt nicht an Server Optimierung oder fehlendem R/D Budget, wenn auch daran noch am ehesten. Da lief was schon 2005 falsch bei der Konzeption, den das Konzept sieht auch heute noch super auf dem Papier aus, hält aber nur bedingt das was es verspricht.

Das unterstreicht AMD auch schon über die 10% + Ankündigung für die neuen Piledriver Kerne mit L3. Kleine Brötchen backt man, sich trauen BD komplett über Board zu werfen geht auch nicht, dafür steht zuviel vom kleinen Entwicklungsbudget drin und das würde AMD komplett das Genick brechen.

Ich sehe durchaus Potential und gerade was die Energiebillanz bei Servern angeht steht man gut da, stand man in 45nm aber auch schon, fast so gut wie heute in 32nm.

Viel schönreden kann ich leider nicht.

Genauso, wie Nvidia fast 50-100% höhere Core-Takte hat, hat IBM auch lange deutlich höhere Takte. Dazu sagt ein Takt nichts über den Stromverbrauch aus.

Nvidia?

nein, der Takt sagt da nicht drüber aus. Aber eine CPU mit mehr Transistoren, größerer DIE, höherem Takt, grobere Fertigung... wann haben die zuletzt weniger Strom gebraucht?

Genauso gut kannst du mit dem Argument auffahren, dass ein OC 2x1,6 Ghz ARM in deinem Galaxy S2 weniger Saft braucht als ein 1,3 Ghz Core i3.

Wie es im Verhältnis zu Ive-Bridge aussieht, weiß ich nicht, da mit momentan keine Ive-Bridge-Akku-Angaben bekannt sind.

ach? Aber bei Trinity?

Wir unterhalten uns weiter wenn du mir ein Trinity Notebook zeigst, dass mit 55whr Akku und 45W Trinity APU und nun 7h + 25% durchhält...

Ich halte das für durchaus möglich, ohne Frage, aber Trinity ist noch weiter weg als Ivy Bridge und der Vergleich ist heute defakto unmöglich.


Edit:

Bezüglich CPU Leistung sind FX-4100 und A8-3870 wohl in etwa gleich schnell, eher n Tick zugunsten des Llano:

Schauen wir uns die Untervolting Ergebnisse an:

http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/index9.php
&
http://ht4u.net/reviews/2011/amd_a8_3870k_llano_apu/index13.php

In Zahlen:

A8-3870K:
53W Last (Linx CPU & Wandler) - 1,15V

FX-4100:
74W Last (Linx CPU & Wandler) - 1,24V

Wieviel davon der L3 zieht ist die große Frage , aber 3,6 Ghz zollen ihren Tribut. Und der FX4100 ist noch ohne iGPU.

Auch hier ist die Modulbauweise eher eine Verschlimmbesserung. Ich bin wirklich gespannt wie es ohne L3 aussieht, der ja eigentlich die CPU beschleunigen sollte (wohl aber im Server Bereich mehr Vorteile bringt).
 
Zuletzt bearbeitet:
pipip schrieb:
Krautmaster
Wäre der FX 4100 immernoch so ein schlechter Prozessor wenn man ihm in ein 65 watt tdp klasse einstufen könnte ??

http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/index9.php
Mit undervolting kommt man mit dem FX 6100 schon auf 70 watt. Somit spielt die Fertigung schon mit. Denn wenn diese besser wird, kann man einen höheren Takt realisieren.

was heißt schlecht...

Es geht darum, dass ein Llano mit 4 Kernen in selber Fertigung deutlich sparsamer ist bei gleicher Leistung. Denn CPU Seitig entspricht Llano einem Athlon II X4 der leicht verbessert wurde und in 32nm geshrinkt.
Die DIE läge bei kleinen ~110mm² wenn man den GPU Part weg lässt, der FX-4100 frisst soviel wie ein Vollausbau Zambezi mit ~300 mm² + .

"Schlecht" ist er im Vergleich zum i3, der bei ~40W Max Load liegt und dabei ne Latte schneller ist.

Im Falle des FX-4100 liegt das hauptsächlich am L3 und einfach daran, dass 3/4 des Chips ungenutzt bleiben aber dennoch ihren geringen Teil zur Aufnahme beitragen. Eine eigene DIE ohne L3 wie bei Trinity wird natürlich sparsamer ausfallen.
 
Zuletzt bearbeitet:
aylano schrieb:
Ohne Argument ist eine Aussage wertlos.
Vorallem, wenn man es nochmal wiederholt.
Warum sollte Trinity nicht gegen Ivebridge @ 17-TDP konkurrieren können, wenn ersteres mit Quad daherkommt und zweiteres mit Dual-Core?


Dein Problem ist folgendes: Textverständnis. Ich sage Trinity kann maximal mit den 35W Dualcore Modellen konkurrieren. 17W liegt drunter, also habe ich 17W gar nicht ausgeschlossen. AMD hat keine konkurrenzfähige CPU, um die 45W Quadcore Modelle von Ivy Bridge anzugehen. Jetzt verstanden? 17w vs 17W dürfte übler aussehen für Trinity. AMD müsste es gelingen der 17W APU eine ähnlich schnelle Grafik bereitzustellen, was AMD mit ihrer Leistungsangabe selber ausschließt. Auch ist ein 2 Modul Trinity kein Quadcore. Den Rest von deinem Laberpost habe ich gar nicht mehr gelesen. Statt um den heißen Brei rumzulamentieren, komm auf den Punkt.
 
Ralf555 schrieb:
Statt um den heißen Brei rumzulamentieren, komm auf den Punkt.

Da kann ich auch was zu schreiben:
Die mehr an CPU-Leistung ist unnötig, Verschwendung, Unsinn, Unnütz....
Wäre zwar schön, aber trotzdem unnötig... :)

Die APU ist von AMD ist eben sehr wohl konkurrenzfähig, eben weil die CPU-Leistung ausreicht.
Wie auch hier schon im Thema geschrieben wurde, arbeitet ja selbst Intel nicht an der großen Leistungssteigerung der CPU sondern an der Effizienz dessen und besserer Grafikleistung der GPU (was aber eher an den Tick-Tock Modell von Intel liegt).

Bestimmt leistet der Grafikteil des 17W TDP-Modells von AMD mehr Grafik als das 17W TDP-Modells mit Ivy-Bridge.

Neben bei sei noch erwähnt:
Viele spielen hier noch mit einer Jahre alten CPU und hohen Details. Für Office-Rechner werkeln trotz Windows 7 oder Vista auch Jahre alte CPUs.
Wofür also mehr CPU-Leistung? Man kann durchaus behaupten, mehr CPU-Leistung wird nur noch bei Workstations oder Servern benötigt. Selbst bei spielen wohl erst nach der nächsten Spielkonsolen-Generation.

Gerade hier im Forum ist die negative Kritik gegenüber Llano noch recht groß weil eben für Enthusiast-User der Grafikteil nicht genügend Leistung bietet um vernünftig zu spielen aber eindeutig zu viel für Multimedia.

Vielen sollte auch mittlerweile der Wandel aufgefallen sein, dass dank iOS und Android die Hemmschwelle gerade bei älteren sinkt auch ab und an ein Spielchen zu spielen und dass mal eben schnell im Web-Browser - wenn es geht eben auch mit guter Grafik, in Zukunft...
Ich schätze mal in der Richtung wird sich der Markt sicherlich ändern und wenn dann die Grafik von Intel immer noch an einigen Dingen krankt...
Viele Menschen wollen zwischendurch ein kleines Spiel spielen, neben das bisschen Office und Internet, da ist AMD mit ihren APUs eindeutig besser geeignet.
Ich würde mir auch definitiv ein Notebook mit Llano bzw. bald Trinity einen Intel vorziehen.

Wer CPU-Leistung braucht sollte sich da eben Intel holen.
Aber wie gesagt, die bisherige CPU-Leistung reicht locker...
 
http://ht4u.net/news/24989_amds_mobile_trinity-apu_erneut_in_aktion/
naja so schlecht schaut die Demo nicht aus


Krautmaster
Da spricht deine Argumentation schon fasst für die Bulldozer Architektur. Denn wenn man eine eigene Maske so wie dem i3 realisiert hätte, würde dieser deutlich effizienter sein.
Und sry, i3 ist sehr weit gefächert, aber nein nicht jeder i3 schlägt den FX 4100, bzw ist diese Aussage sehr relativ.
Somit dürfte diese Erkenntnis, (wegfallen des l3caches, verbessertes frontend (hoffentlich) bzw besser ipc) für eine bessere Effizenz der Trinty gegen den FX 4100 heißen. Somit könnte ein 3,6 ghz Trinity so schnell sein wie ein FX 4100, aber eventuell nur 65 watt tdp Stufe. Somit noch die IGP und man kommt zu der bekannten 100 watt tdp klasse.
Zu hoffen bleibt weiteres eine bessere Fertigung, und somit eine niedrigeres ansetzten der v-core. Weiteres ist die Trinity Plattform FM2 viel stromsparrend. Ich glaube dass trinity, seinem konkurrenten (IB-i3) locker das Wasser reichen kann. Denn Llano undervoltet ( 53 watt unter last) http://ht4u.net/reviews/2011/amd_a8_3870k_llano_apu/index13.php, steht verglichen zum i3 CPU technisch schon fast gleich auf.
Übrigens der Llano ähnelt zwar mehr dem Athlon II ist Performance-mäßig (6%) eher mit einem Phenom II zu vergleichen...

Im besten Fall überbietet die IPC Steigerung den Verlust des L3 caches. Dann hätte man somit einen FX 4100 mit einer 6570 bze 6670. Der A10 sollte ja eine 125 watt tdp haben, und könnte somit mit den FX 4100 weit hinter sich lassen (4 ghz usw).
Doch ob das Wunschdenken ist, oder realität wird man wahrscheinlich Mai oder später sehen.

Ralf555
kann maximal mit den 35W Dualcore Modellen konkurrieren

ist
"maximal bis 35 watt Dualcore Modellen" die Formulierung, die du suchst ?
 
Zuletzt bearbeitet:
chendal schrieb:
Testets einfach: Versucht mal mit einer Intel HD 3000 mal das spiel the whitcher nur zu starten....das geht nicht...obwohl die Leistung der HD3000 theoretisch sogar für minimalste einstellungen reichen dürfte. aber Whitcher meldet dass es keine Grafik findet mit der das spiel spielbar wäre.

Dagegen kannste Whitcher sogar mit der 18 Watt zacate starten und in minmalen details durchspielen.Mit Llano gehts erstrecht zu spielen auf kleinen details.


Wir haben das getestet. Es war mir ein leichtes rauszufinden, dass es keine Probleme mit dem Spiel gibt. Das Problem ist hier der Entwickler. Der Intel HD Graphics stehen über DVMT maximal 1,7 GB zur Verfügung vom Hauptspeicher. Das Spiel ist zu blöd das zu erkennen. Das Spiel geht vom dediziert eingestellten Speicher aus, meist sind es 64 MB als Default Einstellung. Das Spiel setzt aber 128MB VRAM als Mindestanforderung voraus, bei weniger verweigert es automatisch den Start, egal welche GPU mit weniger als 128 MB im System steckt. Ich habe jetzt mal testweise 512MB dedizierten Speicher eingestellt, da startet es. 128 MB sollten reichen.
 
Krautmaster schrieb:
nochmal, es ging nicht im die Fertigung.

Klar, wenn man erwartet, dass BD bei 5,5 Ghz denselben Verbrauch bietet wie heute bei 3,6 Ghz, dann kann man nicht von "kränkelnder" Architektur reden.
Nein, darf man nicht, weil es bei Netburst auch keine Leute gegeben haben, die jahrlang von Kranker Architketur hattn, nur weil Netburst ein so bie 4-7 Ghz Alu-Takt hatte.

Krank ist übergends sein AMD-Bashing. Sonst könte man hier im Forum dich ja auch Krank bezeichen, wenn du dir irgendwelche Zahlen zurechtbiegst und glaubt etwas zu wissen. Das merkt man dann daran, wenn du keine Schlüsse für die Zukunft draus schließen kannst, wie dein 17W-TDP-Quad-Trinity sowie +25% und +50%-GPU statt -??% CPU (siehe Unten.)

Und das darf man eben nicht.

In meinen Augen kränkelt sie aber etwas in der Basis, was nicht heißt dass sie Müll ist.
Basis?
Wo ist der Beleg, dass die Basis das Modul-System-Bulldozer für den Zeitraum 2011 und teils 2012 liegt, wo dieser Markt für AMD nichtmal 20% abdeckt.
Sorry, wenn ich nachhake, aber deine Zahlen kann ich nie sinnvoll nachfollziehen.

Dazu eine Argumente sind eben bezugslos und Trinity ist übergens Piledriver.
Du kannst noch so oft sagen, dass Bulldozer so krank ist, aber bis jetzt konnte ich von dir nichts hören, was AMD macht um & wieviel diese Performance-Zuwächse bekommt. Wenn man das nicht sagen kann, dann zeigt man, wie wenig Ahnung man hat, weil du eben genau damit nicht weiß, wo der Fehler liegt (Fertigung-Reife, Fertigungs-Qualität (ULK & Co), Architektur (CMT, Front-End, Back-End), Architektur-Desginfehler)

Und nein, dass "AMD die CMT bzw. Module verbessert" ist keine Facheliche Detail-Argumentationen.
Das etwas nicht optimal bei Bulldozer läuft sieht eh jeder, aber du brauchst es nicht laufend erwähnen und es als Krank ausschmücken.

Im optimistischsten Fall holt Bulldozer heute in einer kleineren Fertigung bei höherem Takt und selbem Verbrauch etwa die Leistung der alten Architektur heraus (der Prozess Stand heute bei AMD läuft gar nicht so schlecht, heißt es doch immer).
Okay, Fazit: Trinity wird bei gleichen TDP langsamer als Llano = ineffizienter.

Das nenn ich kränkeln, denn irgendwas kann da nicht passen. Das liegt nicht an Server Optimierung oder fehlendem R/D Budget, wenn auch daran noch am ehesten. Da lief was schon 2005 falsch bei der Konzeption, den das Konzept sieht auch heute noch super auf dem Papier aus, hält aber nur bedingt das was es verspricht.
Genau so ein Schwachsinn kommt raus, wenn du dann sagt, dass die 10Fache R&D keinen Einfluss hat.
Es ist etwas falsch gelaufe, ja. Weil sei eben nicht 2-4 CPU-Desing-Teams haben, die alle paar Jahre Totkranke Architketuren am Markt und irgendwann noch eins vernünftig funktionrt.
Mit begrenzten R&D-Mittel ist die Gefahr für fehler nicht nur größern, sondern können auch einige Features eingebaut hätten, was die Ingenieure gerne gemacht haben.
Dazu kann Intel dann viel mehr Grundlagenforschung betreiben, die sich dann in 1 oder 5 oder 10 Jahren einbauen.

Ich sehe durchaus Potential und gerade was die Energiebillanz bei Servern angeht steht man gut da, stand man in 45nm aber auch schon, fast so gut wie heute in 32nm.

Viel schönreden kann ich leider nicht.
So eine Argumentation kommt immer von.
Ich seh potential & hoffe & bette usw. für die Zukunft.
Konktete Maßnahmen und zahlen nennst du nie.
Das ist pures schönreden in die Berechtung jetzt Bulldozer-Bashing zu betreiben.
Das ist immer die typische Taktik des "Reden was die Masse sowieso meint" um kompitent zu wirken. Konkreten Angeben hat den den Nachteil, dass einem die Vergangenheit zurückholt, wenn es falsch läuft.

Nvidia?

nein, der Takt sagt da nicht drüber aus. Aber eine CPU mit mehr Transistoren, größerer DIE, höherem Takt, grobere Fertigung... wann haben die zuletzt weniger Strom gebraucht?
Da hatte ich ins volle Getroffen. Statt Krank redest wieder von weniger Stromverbrauch.
GTX580 bzw. G80 davor zeigt ja, wie man mit 60-80% mehr Takt gleiche bzw bessere Effizienz habne kann wie die Konkurrenz.

ach? Aber bei Trinity?
Wir unterhalten uns weiter wenn du mir ein Trinity Notebook zeigst, dass mit 55whr Akku und 45W Trinity APU und nun 7h + 25% durchhält...
Okay, 10-->12h sind zwar nur +20%, aber gut.
Natürlich so wie jetzt +6 Monate nach Trinity-Start.

Ich halte das für durchaus möglich, ohne Frage, aber Trinity ist noch weiter weg als Ivy Bridge und der Vergleich ist heute defakto unmöglich.
Typisch für dich, damit sicherst dich gleich für beide Fälle (schafft es oder schafft es nicht.).
Egal was eintrifft, du hast es dann eh damals schon gewusst.

Bezüglich CPU Leistung sind FX-4100 und A8-3870 wohl in etwa gleich schnell, eher n Tick zugunsten des Llano:

Schauen wir uns die Untervolting Ergebnisse an:
http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/index9.php
http://ht4u.net/reviews/2011/amd_a8_3870k_llano_apu/index13.php
In Zahlen:
A8-3870K: - 53W Last (Linx CPU & Wandler) - 1,15V
FX-4100: - 74W Last (Linx CPU & Wandler) - 1,24V

Auch hier ist die Modulbauweise eher eine Verschlimmbesserung. Ich bin wirklich gespannt wie es ohne L3 aussieht, der ja eigentlich die CPU beschleunigen sollte (wohl aber im Server Bereich mehr Vorteile bringt).
Also dein Fazit ist die Verschlimmbersserung.
Tinity wird laut dir eine geringe CPU-Performance gegen Llano haben, wenn Bulldozer jetzt schon wegen 53/74= 29% schlechter ist.

Dann bin ich auf den Trinity-Start noch viel gespannter.

sacridex schrieb:
Was ist denn jetzt ULK? Raffs grad auch nicht. ^^
Ultra Low-K.
Das ist AFAIK der Widerstandswert der Bahnoberflächen zwischen den Transistoren.
Mit einem höheren Wert können die Abstände verringert werden, ohne das elektroen in eine andere Bahn springen.
Und die dünneren Widerstandswände (oder was auch immer) braucht dann weniger Strom.
Letzter Satz ist etwas blöd geschrieben, aber irgendwo bleibt mit ULK weniger Strom hängen (Oberfläche?), die sich dann in Wärme-Energie ändert.

Ralf555 schrieb:
Dein Problem ist folgendes: Textverständnis. Ich sage Trinity kann maximal mit den 35W Dualcore Modellen konkurrieren. 17W liegt drunter, ...
Faslch, du hättest es "max bis" sagen müssen und dazu von welche Richtigung, da die Zukunft in Ultrabook liegt und nicht bei den 45 & 55W-Modellen.
"Max dem Produkt" heißt, es kann max nur gegen das eine Model antreten.
Ein Produkt hat Eigenschaften und ist keine Wert.
 
Zuletzt bearbeitet:
@aylano

es ist "AMD Bashing" zu erklären, warum man der Auffassung ist, dass AMDs Bulldozer Modul Architektur in der Basis kränkelt?
Gut, dann schwächelt sie eben... macht das einen Unterschied.

Danke für die Argumentation...

Wenn man wie ich sagte, davon ausgeht, so wie du, das man 50% mehr Takt macht, ohne auf Kosten der Effizienz / W, dann ist die Architektur natürlich spitze. Das wäre allerdings eher der Fall, wenn die DIE auch entsprechend kleiner ausfallen würde.

Und wo haben in deinem sinn-freien Nvidia G80 Vergleich wo was 80% mehr Takt bei gleichem Verbrauch, hä? Natürlich gibt es Chips bei weit höherem Takt die einen zu anderen Chips geringeren Verbrauch aufweisen. Selten aber bei selben Rahmenbedingungen wie Fertigung und Chipgröße.

Es ist klar erkennbar, dass das Effizienzoptimum bei gängiger DesktopCPU Fertigung (32nm) bei AMD als auch Intel bei ca 2,5-3,8 Ghz liegt. Es ist aber meiner Ansicht nach, vollkommen utopisch zu glauben, dass AMD mit ihrer takt-orientierten Bulldozer-bauweise nun plötzlich 5 Ghz fahren kann. Das ging wie gesagt schon bei Netburst schief. Die Gerüchte weit vor Bulldozer Release zeigten ja schon darauf hin das AMD ursprünglich wohl mit Taktraten von 5 Ghz gerechnet hat...

Und ja, FX-4100 hat viel unnützes Zeugs mit im Gepäck, keine Maske, das habe ich auch ausdrücklich dazu geschrieben (lesen!) - natürlich ist eine eigene Maske effizienter, deswegen fällt Trinity auch garantiert effizienter aus als ein FX-4100, auch ohne L3. Dennoch wird er durch den benötigten höheren Takt kaum von Llano absetzen können, CPU seitig (bei Effizienz).
Stand heute gibt es keine vergleichbare Modulmaske, Nativ, 2 Module ohne L3, genau deswegen trete ich auch Trinity angespannt entgegen und freu mich darauf. Wenn man so will die L3 befreite, "light" Variante vom FX-4100 Bulldozer, ohne L3.

Also dein Fazit ist die Verschlimmbersserung.
Tinity wird laut dir eine geringe CPU-Performance gegen Llano haben, wenn Bulldozer jetzt schon wegen 53/74= 29% schlechter ist.

das wird sich zeigen, AMD wäre schön doof wenn sie Trinity nicht mit Ach und Krach über Llano CPU Performance heben würden. Machen sie, genau dazu werden sie eventuell sogar die TDP auf 125W erhöhen im Desktop Umfeld. Wenn AMD also heute von höherer Effizienz bei Trinity im Vgl. zu Llnao redet, müssen sie in vielen Fällen einfach die Core Spannung etwas absenken.

Ich habe nicht gesagt dass Trinity langsamer ausfallen wird. Ich habe gesagt, dass es für AMD schon schwer werden dürfte Llanos Effizienz zu erreichen, allein aus dem einfachen Grund, dass Trinity deutlich mehr Takt benötigen wird um die Performance zu erreichen.
Gegen einen Llano mit hoher VCore = default wird man gut aussehen, gehen einen UV mit geringerem Takt eher alt. Hätte Llano noch einen massiven Turbo die er auf seine einzelnen 4 Kerne anwenden könnte...

Edit:

Im übrigen muss ich Ralf555 in der Hinsicht recht geben, dass es bei deinen "LaberPosts" oft schwer ist, durchzusteigen.
Ergänzung ()

pipip schrieb:
Denn wenn man eine eigene Maske so wie dem i3 realisiert hätte, würde dieser deutlich effizienter sein.
Und sry, i3 ist sehr weit gefächert, aber nein nicht jeder i3 schlägt den FX 4100, bzw ist diese Aussage sehr relativ.
Somit dürfte diese Erkenntnis, (wegfallen des l3caches, verbessertes frontend (hoffentlich) bzw besser ipc) für eine bessere Effizenz der Trinty gegen den FX 4100 heißen. Somit könnte ein 3,6 ghz Trinity so schnell sein wie ein FX 4100, aber eventuell nur 65 watt tdp Stufe.

genau so schrieb ich das ja auch :)

genau deswegen habe ich aber UV Ergebnisse genommen, Llano hat gute alte optimierte Athlon Kerne ohne L3 aber mit Optimierungen die wie du sagst PII Niveau erreichen. Ohne L3 ist er dennoch schlank, die UV Ergebnisse sind gut und wurden auch immer gelobt. Er kann eine wirklich gute Effizienz erreichen.
Im besten Fall überbietet die IPC Steigerung den Verlust des L3 caches. Dann hätte man somit einen FX 4100 mit einer 6570 bze 6670. Der A10 sollte ja eine 125 watt tdp haben, und könnte somit mit den FX 4100 weit hinter sich lassen (4 ghz usw).

So seh ich das auch, Optimierungen werden eventuell den L3 wegmachen, ich bin guter Dinge das es sogar n Tick mehr sein könnte.

Die Leistung eines FX-4100 sollte bei einem 2 Modul mit eigener Maske und niedrigerer Spannung die 65W unterbieten, keine Frage (auch unabdingbar). Der noch schlankere i3 bietet aber ~<40W @ default, in 22nm wohl eher 25W - 30W - das schafft er nur, weil die Fertigung weiter ist, die CPU nochmals schlanker und der Takt niedriger.

Ab 3,6 Ghz wirds eben auch bei AMD und 32nm ineffizienter, ich denke daran wird sich auch in den kommenden Jahren nicht viel ändern. Genau deswegen machen oft ein paar 100 Mhz deutliche Verbrauchsunterschiede aus.

Ich denke Trinity wird vor allem auf GPU Seite auftrumpfen. Das ist auch gut so, hier man man Intel mit links weit hinter sich lassen.
 
Zuletzt bearbeitet:
Zurück
Oben