Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Komplette Details zu AMDs „Trinity“ durchgesickert
- Ersteller Volker
- Erstellt am
- Zur News: Komplette Details zu AMDs „Trinity“ durchgesickert
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.456
Laut den Folien gibt es also für Trinity 65/100/125 watt. Ich persönlich hätte mir 35 watt tdp gewünscht, wobei sich 65 schon gut semipassiv kühlen lässt.
deadohiosky
FM1 gefallt mir von der Ausstattung, Verbrauch um einiges besser als AM3+, und hier wird Trinity (auf FM2) für viele User ein gutes/rundes Produkt abgeben.
deadohiosky
FM1 gefallt mir von der Ausstattung, Verbrauch um einiges besser als AM3+, und hier wird Trinity (auf FM2) für viele User ein gutes/rundes Produkt abgeben.
Zuletzt bearbeitet:
deadohiosky
Banned
- Registriert
- Jan. 2011
- Beiträge
- 1.598
@ Kasmopeya
Der 8150 ist nicht die FX-Series. Es gibt auch noch andere Modelle. Und dass der 8150 soviel verbraucht liegt zum Großteil am ineffizienten Turbo und sobald man übertaktet wird klar, dass der 32nm-Prozess immer noch nicht rund läuft, denn diese exorbitante Steigerung der LA lässt sich nur auf Leckströme zurückführen.
Wie gesagt, der FX-4100 verbraucht (genauso wie der FX-6100) weniger als der A8-3850, dass das Gesamtsystem mehr bzw. gleich viel verbraucht liegt am 900/800/700er Chipsatz und an der integrierten Northbridge beim Llano.
@Voyager10
Was "sagt" denn die News. Würdest du uns an deiner Interpretation teilhaben lassen und etwas Substantielles zum Thema beitragen, anstatt Beiträge wie diesen hier(Exzerpt)
Also sich zum Thema differenziert äußern ohne vorgefertigte Meinungen kundzutun. Ich dachte nämlich wir sind hier in einem Computerforum, nicht bei Bild o.ä..
Der 8150 ist nicht die FX-Series. Es gibt auch noch andere Modelle. Und dass der 8150 soviel verbraucht liegt zum Großteil am ineffizienten Turbo und sobald man übertaktet wird klar, dass der 32nm-Prozess immer noch nicht rund läuft, denn diese exorbitante Steigerung der LA lässt sich nur auf Leckströme zurückführen.
Wie gesagt, der FX-4100 verbraucht (genauso wie der FX-6100) weniger als der A8-3850, dass das Gesamtsystem mehr bzw. gleich viel verbraucht liegt am 900/800/700er Chipsatz und an der integrierten Northbridge beim Llano.
Ergänzung ()
@Voyager10
Was "sagt" denn die News. Würdest du uns an deiner Interpretation teilhaben lassen und etwas Substantielles zum Thema beitragen, anstatt Beiträge wie diesen hier(Exzerpt)
zu verfassen die überflüssig sind?Ich stimme mit Compute überein da kann ich mir die Ausführung ersparen.
Also sich zum Thema differenziert äußern ohne vorgefertigte Meinungen kundzutun. Ich dachte nämlich wir sind hier in einem Computerforum, nicht bei Bild o.ä..
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.456
deadohiosky
Jo du hast es gerade auf den Punkt gebracht was ich sagen wollte. Ich hab einfach mal zum spaß halber auf HT4U jeweils die CPU + Wandler unter voll last, weniger CPU unter voll last + Board differenziert, und dann mal geschaut, wieviel das AMD Board mehr verbraucht. Ich wage mich zu erinnern es waren 30-39 Watt, wenn wem fad ist kann er das ja nach rechnen. Da im Trinity die Northbridge (und andere Bauteile) auch integriert ist wird die Plattform um einiges effizienter sein. Somit bitte keine blinden Vergleichen zwischen FX und Trinity.
Hab übrigens fairer weiße den 2500k und den FX 8150 verglichen, und man kommt auf ca 70 watt mehr verbrauch (gesamtsystem)
Wird sich wohl zeigen müssen wo sich Trinity Topmodel sich einpendelt, i3, eventuell untere i5 .... kann man jz noch sehr schwer sagen. Muss aber bedenken dass die i4 eine niedrigeren verbrauch haben, dafür schwächere igp.
Jo du hast es gerade auf den Punkt gebracht was ich sagen wollte. Ich hab einfach mal zum spaß halber auf HT4U jeweils die CPU + Wandler unter voll last, weniger CPU unter voll last + Board differenziert, und dann mal geschaut, wieviel das AMD Board mehr verbraucht. Ich wage mich zu erinnern es waren 30-39 Watt, wenn wem fad ist kann er das ja nach rechnen. Da im Trinity die Northbridge (und andere Bauteile) auch integriert ist wird die Plattform um einiges effizienter sein. Somit bitte keine blinden Vergleichen zwischen FX und Trinity.
Hab übrigens fairer weiße den 2500k und den FX 8150 verglichen, und man kommt auf ca 70 watt mehr verbrauch (gesamtsystem)
Wird sich wohl zeigen müssen wo sich Trinity Topmodel sich einpendelt, i3, eventuell untere i5 .... kann man jz noch sehr schwer sagen. Muss aber bedenken dass die i4 eine niedrigeren verbrauch haben, dafür schwächere igp.
Zuletzt bearbeitet:
deadohiosky
Banned
- Registriert
- Jan. 2011
- Beiträge
- 1.598
@Voyager
Welche Kommentare?
Eine News ist eine News ist eine Neuigkeit ist eine Mitteilung des aktuellen Geschehens, hier wurde ein Forumsbeitrag bei Chiphell aufgegriffen, was soll man da kapieren und was kapieren "die AMD Fans", im Gegensatz zu den normalen, intelligenten Leuten die Intel kaufen, nicht?
Warum kann man nicht einfach sachlich diskutieren. Bzw. es stellt sich die Frage, willst du überhaupt sachlich und qualifiziert über die Sache diskutieren?
Denn wenn ich mir die Kommentare anschaue dann wimmeln diese nur von Fehleinschätzungen und Falschinformationen und bewussten Fehlinterpretationen.
Anstatt sich differenziert auszutauschen werden Ressentiments gepflegt, anstatt Fakten sprechen zu lassen, werden "Personengruppen" denunziert... und dieser Thread ist gerade einmal eine Stunde alt.
Welche Kommentare?
Eine News ist eine News ist eine Neuigkeit ist eine Mitteilung des aktuellen Geschehens, hier wurde ein Forumsbeitrag bei Chiphell aufgegriffen, was soll man da kapieren und was kapieren "die AMD Fans", im Gegensatz zu den normalen, intelligenten Leuten die Intel kaufen, nicht?
Warum kann man nicht einfach sachlich diskutieren. Bzw. es stellt sich die Frage, willst du überhaupt sachlich und qualifiziert über die Sache diskutieren?
Denn wenn ich mir die Kommentare anschaue dann wimmeln diese nur von Fehleinschätzungen und Falschinformationen und bewussten Fehlinterpretationen.
Anstatt sich differenziert auszutauschen werden Ressentiments gepflegt, anstatt Fakten sprechen zu lassen, werden "Personengruppen" denunziert... und dieser Thread ist gerade einmal eine Stunde alt.
Vidy_Z
Lieutenant
- Registriert
- Okt. 2009
- Beiträge
- 851
Ich sehe das so, dass AMD sich quasi aussuchen konnte, ob sie sich wegen einer miserablen Performance oder wegen eines zu hohem Stromverbrauchs von der Welt ausbuhen lassen sollten. Da haben sie sich wohl einfach für Zweiteres entschieden. Hätte ich wohl genauso getan. Der Hohe Takt wird wohl irgendwelche Schwierigkeiten bei FM1 Chipsätzen hervorrufen. Anders kann ich mir auch diesen krassen Schritt nicht erklären. So was geschieht halt bei einem Konzern, der seinem(in meinen Augen) bestem Mann mal eben den Laufpass gibt: Chaos.
Flup schrieb:20% mehr CPU-Leistung bei 31% mehr Takt, und das trotz Piledriver, oh je....
Bei 4 Kernen zu 4 Integer Kernen bei 2 Modulen könnte es etwas werden. Dann sind 20% bei 31% gar nicht so schlecht. Das natürlich unter der Vorraussetzung das die TDP nur aufgrund der GPU ansteigt.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Schon übel die ganze APU Geschichte, warum kann man nicht beides haben, Sandy IPC/Effizienz und AMD Grafikkern. Intel müsste sich mal einen NV GPU Kern einbauen, dann hätten sie die perfekte APU.
Wenn ich das grob überschlage ist Sandy-E ca. 100-200€ teurer als er sein müsste.(kleinstes K Modell) Und nur weil AMDs Bulli so enttäuscht.
Wenn ich das grob überschlage ist Sandy-E ca. 100-200€ teurer als er sein müsste.(kleinstes K Modell) Und nur weil AMDs Bulli so enttäuscht.
dgschrei
Lt. Commander
- Registriert
- März 2009
- Beiträge
- 1.672
deadohiosky schrieb:@dgschrei
Das ist natürlich völlig unfundiert und totaler Quark.
Dass Llano Desktop "soviel" verbraucht liegt einzig und allein am Fertigungsprozess und den daraus resultierenden hohen Versorgungsspannungen.
Weswegen er soviel verbraucht, ist kurz gesagt sc****egal. Und wenn er so viel verbraucht, weil AMD auf dem Die ne Halogen-Gehäusebeleuchtung unterbringt. Der Effekt ist der gleiche. Fakt ist, AMD bringt damit ein Produkt auf den Markt, das bei der gezeigten Leistung einen zu hohen Verbrauch aufweist. Der Rest interessiert den Kunden nicht. Wenn der nächste Golf 12 Liter säuft interessierts auch keinen ob das nun an der Einspritzpumpe von Bosch oder an der Aerodynamik von VW liegt.
Schlimmer noch ist, dass mit 125 W viele kleinere Gehäuse einfach nicht mehr in Frage kommen. Steck mal so ein Monster in ein HTPC Gehäuse, bei dem der Platz mal eben für einen 80mm Lüfter reicht. Und das war eigentlich DIE Zielgruppe die für Lano in Frage kam.
deadohiosky schrieb:Den zweiten Fehler den du machst, ist vom Desktop auf Mobile Chips zu schließen, dass ist natürlich auch völliger Blödsinn, denn hier werden deutlich konservativere Taktraten angesetzt und daher sinkt die Leistungsaufnahme, unter anderem weil eben die Versorgungsspannung deutlich niedriger ist.
Die IPC wird auch beim Mobile Chip kleiner sein als beim Desktop Chip, sind ja beides die selben Kerne. Also wird man auch da notgedrungen die Taktrate höher schrauben müssen. Und bei einer derart höheren Taktrate müsste es schon mit einem Wunder zugehen, damit man da noch Verbrauch einspart. Selbst gleicher Verbrauch dürfte da schon echt überraschend sein.
deadohiosky schrieb:Und das Intel pro 1% höherer Leistungsaufnahme 2% mehr Leistung herauskitzelt ist natürlich auch zu... 100% unfundiert.
http://www.anandtech.com/show/2493/6
The Intel Atom was the first Intel CPU to redefine the rule of thumb and now the requirement is that a designer may add a feature if it yields a 1% increase in performance for at most a 1% increase in power consumption. It's a pretty revolutionary change and it's one that will be seen in other Intel architectures as well (Nehalem comes to mind), but Atom was the first.
Der Atom kam 2008 raus und war davor schon ne ganze Zeit in Entwicklung. Damals war es noch so, dass 1% schneller maximal 1% mehr verbauchen durfte.
Wie sieht das ein bisschen später aus?
http://www.anandtech.com/show/2658/2
The only hope I had for Nehalem was that it was the first high performance desktop core that implemented Intel's new 2:1 performance: power ratio rule. Also used by the Atom's design team, every feature that made its way into Nehalem had to increase performance by 2% for every 1% increase in power consumption otherwise it wasn't allowed in the design.
Sofern du deine Beziehungen zu Intel jetzt besser einschätzt, als die von Anandtech, dann korrigier mich bitte.
Zuletzt bearbeitet:
Nordwind2000
Commodore
- Registriert
- Dez. 2009
- Beiträge
- 4.323
Naja ich sehe es garnicht mal so schlimm, dass die TDP angehoben wurde. Wenn die GPU ein bissel was an Leistung hat spart man sich ja immerhin ne extra GraKa. Und eine Halbwegs vernünftige GraKa verbraucht unter Last ja mehr als 125 W. Und bei "Trinity" hat man beides für die 125 W.
Meine Meinung.
Meine Meinung.
Nordwind2000
Commodore
- Registriert
- Dez. 2009
- Beiträge
- 4.323
Aber ist den die TDP nicht für die gesamte APU angegeben?! D.h. auch die interne Grafik eingeschlossen?
crackett
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.946
Leistungszuwächse auf gut 20 Prozent beim Prozessorteil und 30 Prozent bei der Grafikeinheit
Wozu auf eine längst ausreichende Grafik für dieses APU-Konzept nochmals 30% drauf packen ? HighEnd wird es damit immer noch nicht. Der Schwachpunkt der APU war doch lediglich die CPU, aber da taktet man im Grunde genommen nur hoch (auch wenn es BD ist) und treibt damit den Verbrauch und die Kühlung in Regionen, für die es weitaus bessere Lösungen gibt und die das APU-Konzept m.M. nach unbrauchbar machen.
Es ist wohl ganz einfach so, daß AMD in Punkto Grafik die Leistung problemlos steigern kann, aber bei der CPU wirklich rein gar nichts Brauchbares zur Verfügung steht im Vergleich zum Konkurrenten. Also treibt man die GPU-Leistung künstlich hoch, damit man was zum Bewerben hat obwohl das APU-Konzept eigentlich nur 30% mehr CPU-Leistung gebrauchen könnte. Mehr als 65Watt TDP machen für mich das APU-Konzept zur Farce.
AMD fährt die Karre noch weiter in den Dreck. IvyBridge wird das, was AMDs APU eigentlich mal werden sollte. Die werden eine ausreichende Grafik- bei sehr guter Prozessorleistung haben. Gute Nacht AMD......
Zuletzt bearbeitet:
Ich hoffe mal das AMD bei dem Prozessor-Part wenigstens durchschnittliche Werte angibt, und keine Optimal-Werte, wie das bei Bulldozer der Fall war. denn ein FX4100 ist bei 3600 GHz Basistakt ähnlich schnell wie der aktuelle A3850, was dann bedeuten könnte, das die Piledriver Kerne dann eben auch um 20% schneller als die aktuellen Bulldozer Kerne sein werden.
Sandy Bridge könnte man damit evt. einholen, aber gegen Ivy Bridge dürfte es objektiv betrachtet sehr schwer werden, selbst wenn es gut für AMD läuft
Sandy Bridge könnte man damit evt. einholen, aber gegen Ivy Bridge dürfte es objektiv betrachtet sehr schwer werden, selbst wenn es gut für AMD läuft
N
noman_
Gast
@crackett:
100% Zustimmung. Dazu kommt, dass Intel auch noch in der Fertigung immer mehr an AMD vorbeizieht. 2012 werden die Unterschiede quer durch die gesamte Produktpalette richtig drastisch werden. AMD-CPUs sind auf dem Weg zur Belanglosigkeit.
100% Zustimmung. Dazu kommt, dass Intel auch noch in der Fertigung immer mehr an AMD vorbeizieht. 2012 werden die Unterschiede quer durch die gesamte Produktpalette richtig drastisch werden. AMD-CPUs sind auf dem Weg zur Belanglosigkeit.
deadohiosky
Banned
- Registriert
- Jan. 2011
- Beiträge
- 1.598
@dgschrei
Das ist jetzt aber nen Witz oder?
Die 2% mehr Leistung bei 1% mehr Leistungsaufnahme ist doch völliger Humbug. NAtürlich hat sich Intel diese Ziel gesetzt und JA, bei "einigen" Anwendungen trifft das auch zu, aber eben nur deswegen weil diese Hyperthreading nutzen können. HTT ist zum Teil sehr effizient und und kann in diesen Szenarien auch die "rule of thumb" einlösen in anderen Szenarien aber wiederum nicht. Und genau das zeigt auch der von dir verlinkte Nehalem-Artikel, schade dass du ihn dir anscheinend noch niemals durchgelesen hast und lieber Google für deine Buzzword-Suche genutzt hast.
Typischer Fall von Eigentor.
Und zu Llano.
Ich verstehe immer noch nicht warum die hier zehn verschiedene Dinge zusammenmischst. Llano ist Llano und Trinity ist Trinity.
Und auch wenn es für den Endkunden egal ist "warum" Llano soviel verbraucht, kann man es trotzdem als Begründung heranführen, denn wir reden ja hier über die technische Seite, wir sind ja hier nicht bei einem Preissuchmaschenportal.
Und das ist auch nicht als Rechtfertigung gedacht, sondern nur als Fakt der einfach akzeptiert werden kann. Intel hat "offiziell" deutlich bessere Yields im 32nm Prozess als AMD und kann daher auch das Binning deutlich agressiver fahren, und das heißt dann wiederum, dass die Chips deutlich sparsamer und dadurch effizienter sind.
Das Llano Desktop defacto deutlich sparsamer sein könnte, es aber durch die schlechten Bedingungen nicht ist, heißt aber eben nicht im Umkehrschluss dass Trinity, ein (im Vergleich zu Llano) völlig neues Produkt, mit neuer CPU-Architektur (und überarbeiteten Kernen) UND komplett neuer GPU-Architektur (VLIW4 anstatt VLIW5) dann auch genauso ineffizient ist. Denn logischerweise ist der GF 32nm-Prozess nach ca. einem dreiviertel Jahr Produktion schon deutlich ausgereifter.
@noman_
Hmm... Problem ist nur, dass sich Llano sehr gut verkauft, besonders in China (50% der Llano-Produktion, laut digitimes) und anderen Schwellenländern. Und genau DA wächst der PC-Markt während er hier stagniert und schrumpft. Deine Untergangsszenarien sind daher leider nicht unterfüttert mit Fakten, sondern sind eher FUD.
Das ist jetzt aber nen Witz oder?
Die 2% mehr Leistung bei 1% mehr Leistungsaufnahme ist doch völliger Humbug. NAtürlich hat sich Intel diese Ziel gesetzt und JA, bei "einigen" Anwendungen trifft das auch zu, aber eben nur deswegen weil diese Hyperthreading nutzen können. HTT ist zum Teil sehr effizient und und kann in diesen Szenarien auch die "rule of thumb" einlösen in anderen Szenarien aber wiederum nicht. Und genau das zeigt auch der von dir verlinkte Nehalem-Artikel, schade dass du ihn dir anscheinend noch niemals durchgelesen hast und lieber Google für deine Buzzword-Suche genutzt hast.
http://www.anandtech.com/show/2658/9If you actually go through and do the math you'll find that Nehalem, despite using more power, is more efficient than Penryn. Performance per watt is around 24% better in POV-Ray, 15.5% better in Cinebench and 13% better in the x264 HD test. Crysis, the only benchmark where Nehalem actually falls behind, does require more power and thus Nehalem loses the efficiency battle there.
It seems as if Nehalem is even more polarizing than I had though. Despite the move to a fully static CMOS design, the changes aren't enough to make up for the scenario where Nehalem can't offer more performance; power consumption still goes up, albeit not terribly.
Typischer Fall von Eigentor.
Und zu Llano.
Ich verstehe immer noch nicht warum die hier zehn verschiedene Dinge zusammenmischst. Llano ist Llano und Trinity ist Trinity.
Und auch wenn es für den Endkunden egal ist "warum" Llano soviel verbraucht, kann man es trotzdem als Begründung heranführen, denn wir reden ja hier über die technische Seite, wir sind ja hier nicht bei einem Preissuchmaschenportal.
Und das ist auch nicht als Rechtfertigung gedacht, sondern nur als Fakt der einfach akzeptiert werden kann. Intel hat "offiziell" deutlich bessere Yields im 32nm Prozess als AMD und kann daher auch das Binning deutlich agressiver fahren, und das heißt dann wiederum, dass die Chips deutlich sparsamer und dadurch effizienter sind.
Das Llano Desktop defacto deutlich sparsamer sein könnte, es aber durch die schlechten Bedingungen nicht ist, heißt aber eben nicht im Umkehrschluss dass Trinity, ein (im Vergleich zu Llano) völlig neues Produkt, mit neuer CPU-Architektur (und überarbeiteten Kernen) UND komplett neuer GPU-Architektur (VLIW4 anstatt VLIW5) dann auch genauso ineffizient ist. Denn logischerweise ist der GF 32nm-Prozess nach ca. einem dreiviertel Jahr Produktion schon deutlich ausgereifter.
Ergänzung ()
@noman_
Hmm... Problem ist nur, dass sich Llano sehr gut verkauft, besonders in China (50% der Llano-Produktion, laut digitimes) und anderen Schwellenländern. Und genau DA wächst der PC-Markt während er hier stagniert und schrumpft. Deine Untergangsszenarien sind daher leider nicht unterfüttert mit Fakten, sondern sind eher FUD.
ExcaliburCasi
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.691
Das Gefühl hab ich auch, vor Bulli war ich ja optimistisch, aber dieser enorme tritt in meine Eier, macht mich einfach so skeptisch.Flup schrieb:20% mehr CPU-Leistung bei 31% mehr Takt, und das trotz Piledriver, oh je....
Wer den schwerpunkt auf die CPU legt, wird wohl mit Ivy besser fahren, wer den schwerpunkt auf GPU legt, muss auf Trinity setzen, da bleibt kein Spielraum offen.Blutschlumpf schrieb:Schade, dass AMD da wieder nichts brauchbares abliefern wird, dann wird Ivy wohl auch wieder preislich schön weit oben landen.
Ich Persönlich finde das Verhältnis der beiden Leistungen bei AMD besser, wenngleich mir in diesem bereich die CPU Leistung wichtiger wäre, aber den Markt gibts für beide.
Kasmopaya schrieb:Intel müsste sich mal einen NV GPU Kern einbauen, dann hätten sie die perfekte APU.
Selten hat das wort "Perfekt" so gut gepasst hier!
MacroWelle
Commander
- Registriert
- Apr. 2006
- Beiträge
- 2.239
Ist ja mal wieder peinlich hier.
In der News steht, dass es auch 125 Watt TDP geben wird, also zusätzlich zu den bisherigen 65 und 100 Watt. Möglich wäre, dass die Produktserie dadurch mehr Markt abdecken soll. Oder die neuen CPU/GPU-Designs oder die Fertigung mehr Luft nach oben (z. B. wegen Turbo) schaffen, natürlich auf Kosten der TDP.
Ebenfalls stehen in der News keine Details darüber, auf welcher Grundlage die um 20/30% höhere Leistung vs. Llano berechnet sind, also z. B. Topmodell, gleicher Energiebedarf, Preis oder was auch immer.
In der News steht, dass es auch 125 Watt TDP geben wird, also zusätzlich zu den bisherigen 65 und 100 Watt. Möglich wäre, dass die Produktserie dadurch mehr Markt abdecken soll. Oder die neuen CPU/GPU-Designs oder die Fertigung mehr Luft nach oben (z. B. wegen Turbo) schaffen, natürlich auf Kosten der TDP.
Ebenfalls stehen in der News keine Details darüber, auf welcher Grundlage die um 20/30% höhere Leistung vs. Llano berechnet sind, also z. B. Topmodell, gleicher Energiebedarf, Preis oder was auch immer.
H
HiLogic
Gast
Ja, geil... Der nächste Prozessor auf Faildozer Architektur ist unterwegs. Das Ding wird Llano nicht verbessern, sondern dem Markt-Tod näherbringen.