News Komplette Details zu AMDs „Trinity“ durchgesickert

Die für mich interessanten Themen der letzten Post greife ich nochmals auf.

Interessant finde ich in der Tat das Fehlen von L3 Cache bei Trinity.
Wenn man die DIE von Bulldozer anschaut stellt man schnell fest, dass die eigentlichen Recheneinheiten die Leistung bringen bei ~30-40% liegen, der Cache ist ein rießen Klopfer und treibt auch den Vebrauch nach oben.

Für mich ein Resultat, dass BD natrürlich mit Fokus auf Server Umgebungen konzipiert wurde (viel Cache), Trinity für den Massenmarkt wohl eher aus Stückzahlgründen darauf verzichtet.

5-1080.2811401480.jpg


Weiter wird es interessant in wie fern die neuen GPU Shader dastehen, auch bezüglich Leistung / Fläche da die bisherige bereits sehr effizient war (zumindest was Spieleleistung angeht).
 
Zuletzt bearbeitet:
Ich meine hier aus einigen Beiträgen herausgelesen zu haben, dass man mitunter der Meinung ist, dass APUs eine Art natürliche Leistungsgrenze haben, über die hinaus es keinen Sinn mehr macht die weiter zu steigern.

Dem ist aber nicht so. Der Trend geht eindeutig in die Richtung, dass APUs mittelfristig alle dedizierten Grakas bis auf den Bereich der Perfomance- und Highendkarten ersetzen werden, da nur dort die hohen Margen zu holen sind. Somit brauchen auch APUs Leistungsreserven, die über 2D und Multimedia hinausgehen.

Von daher ist es nur zu begrüßen, wenn die Hersteller die GPU in der der APU von Generation zu Generation weiter aufbohren.
 
Das halte ich für ein Gerücht.

Wenn die GPU-Leistung immer stärker werden muß, um immer anspruchsvollere Games zu packen ist eine APU der falsche Weg.

1. Wie groß ist dann der APU, wenn er z.B. die Leistung eines 2600K + GTX 580 erreicht? Brauche ich dann einen 160-200mm APU-Lüfter

2. Was ist mit dem Speicher? Die GPU-Leistung der APUs ist maßgeblich von der Speichergeschwindigkeit abhängig, brauche ich dann extrem teuren GDDR5-Speicher?

Mann, sind wieder abenteuerliche Vorstellungen hier
 
@Fonce

Das ist aber nicht dein Ernst oder? Magst du uns dann bitte mal erzählen in welcher TSMC Fab der hergestellt wird?

Denn das letzte Mal als ich von TSMC hörte, hatten sie nicht einen HKMG+SOI Prozess geschweige denn, einen in 32nm Strukturbreite.

Llano, Bulldozer und Trinity werden bei GF in Dresden hergestellt, die einzige Foundry die in 32nm fertigt.

Brazos hingegen und seine Nachfolger werden bei TSMC gefertigt (werden), im 40nm bulk Verfahren, und ab nächsten Jahr dann im 28nm Verfahren.

Aber auch GF hat einen 28nm Prozess in Vorbereitung, es ist also theoretisch nur eine Frage der Zeit bis GF als Zweitlieferer einsteigen kann.

TSMC jedoch kann es nicht, ihnen fehlt die Fab dafür.


Mann, Mann Mann. Kann man sich nicht informieren, bevor man losbrabbelt?
Ergänzung ()

@Staubwedel

Soooooo abwegig ist das aber nicht:


3-1080.3003893496.jpg


Diese Technologie kann es möglich machen, APU mit dediziertem Speicher zu versorgen und dabei wenig Platz auf dem Die zu verbrauchen.


@KM


Dass mit dem fehlenden L3 Cache war eigentlich schon länger klar und wenig interressant. Bei logischer Herangehensweise hätte das eigentlich keine Überraschung sein müssen.

VLIW4 ist 10% flächeneffizienter als VLIW5.
 
Staubwedel schrieb:
1. Wie groß ist dann der APU, wenn er z.B. die Leistung eines 2600K + GTX 580 erreicht? Brauche ich dann einen 160-200mm APU-Lüfter

2. Was ist mit dem Speicher? Die GPU-Leistung der APUs ist maßgeblich von der Speichergeschwindigkeit abhängig, brauche ich dann extrem teuren GDDR5-Speicher?

Mann, sind wieder abenteuerliche Vorstellungen hier
Sagt ja keiner:
Drifter! schrieb:
Der Trend geht eindeutig in die Richtung, dass APUs mittelfristig alle dedizierten Grakas bis auf den Bereich der Perfomance- und Highendkarten ersetzen werden[...]

Ich weiß ja nicht, was du für eine Grafikkarte hast, aber für mich ist eine GTX580 durchaus gerade noch im Bereich "Performance- und Highend[...]";) und soll daher nicht durch eine APU ersetzt werden. Die soll eher bis hin zur GTX550 oder 6670 als Ersatz dienen, und mehr hat Drifter nicht gesagt.

Das Problem mit dem Speicher lässt sich ohne weiteres auch lösen. Wenn man die Gerüchte der letzten Wochen verfolgt hätte, dann hätte man auch gesehen, wie AMD das wohl in ca. 2 Jahren handhaben will. Bei den bisherigen IGPs in den Chipsätzen gab's ja schon einen ähnlichen Ansatz mit Sideport, nur dass der Speicherdurchsatz bei Sideport relativ langsam war (32Bit SI mit DDR3 1066MHZ). Trotzdem wundert mich, dass AMD aktuell keinen Sideport Speicher auf dem CPU Package der Topmodelle verbaut, dadurch könnte man noch mal mit vorhandener Technik ordentlich Leistung raus holen (und wäre wohl nur 20% hinter einer 6570, wäre dabei aber nicht so abhängig von schnellem Speicher).
M.f.G.
 
Wenn ich mit einem Kühler sowohl die CPU als auch die GPU wegkühlen kann, dann ist mir die größe egal.
Auch wenn ich dann 200W TDP weggkühlen müsste. Schau mal was du heute alles auf dem Board kühlen musst.

Das Speicherproblem wird man mit Technologien wie stacked memory & co. in den Griff kriegen, zusätzlich sollte man nicht vergessen das die Strukturen immer kleiner werden.

Wir stehen zwar noch am Anfang, aber die Richtung heisst OpenCL/Direct Compute, ist die Software/Anwendung dafür ausgelegt brauche ich keine x86 Kerne mit der Leistung eines 2600K, Nvidia bewegt sich auch in die Richtung, Intel forscht da auch dran.
AMD wird ja auch dementprechend seine GPU Architektur umstellen und eher in die Richtung von Nvidia gehen.
Sicherlich man wird wahrschneinlich nicht alles auf OpenCL/Direct Compute umstellen können, aber es wird reichen.
Und vergesst bitte ARM nicht, für simples surfen & Office reicht auch sowas hier:
http://www.globalscaletechnologies.com/t-dreamplugdetails.aspx
 
digger66a schrieb:
Das ist eine Mutmassung seitens CB

Sehe da keinen Beleg dafür das die Mehrleistung auf Mehrtakt begründet ist.

Das magst du nicht sehen, aber so liegen die Fakten aktuell. Aktuell braucht man einen Bulldozer mit zwei Modulen und vier "Kernen" bei 3,6 GHz um mit nem Llano bei 2,9 GHz mithalten zu können - im Durchschnitt über viele Tests. Macht 700 MHz Unterschied!! Bulldozer folgt Piledriver - dieser soll laut offiziellen AMD-Informationen 10 bis 15 Prozent schneller sein: https://www.computerbase.de/2011-10/amd-gibt-ausblick-auf-schnellere-bulldozer-nachfolger/ Also brauchst diese Prozente an Leistungssteigerung schon, um einen eventuellen Gleichstand bei gleichem Takt hinzubekommen!

Auf 20 Prozent Zuwachs kommst du so aber noch nicht, dafür muss der höhere Takt her. Du hast halt auch mit Piledriver noch keine vier echten Kerne und Windows 8 als erhoffte Wunderwaffe gibt es beim Launch von Trinity auch noch nicht. AMD wird die IPC steigern und auch noch einiges andere optimieren, doch einige Probleme werden auch bei Trinity mit Piledriver-Kernen noch existieren, die Bulldozer aktuell hat. Ein halbes Jahr nach dessen Launch kann man auch nicht plötzlich die eierlegende Wollmilchsau hervorzaubern. Dieser Glaube ist naiv.

20 Prozent Zuwachs allein im CPU-Part geht fast immer nur über den Takt, das hat die Vergangenheit doch schon so oft gezeigt. Taktnormiert sieht das immer deutlich schlechter aus, aber das kann man ja auch nicht so gut vermarkten.

Also nenn du es Mutmaßung, wir nennen es Erfahrung.
 
MikelMolto schrieb:
AMD entlässt 10% seiner Mitarbeiter um das gesparte Geld in Low-Power-Chips und Cloud-Computing zu investieren. Selbst AMD hat es geschnallt, dass die CPU´s weniger Strom verbrauchen müssen. Nur hier im Forum ist man anscheinend noch nicht soweit.
Die Gründe werden ja immer witziger.

Nur zu Info.
Llano & Bulldozer können nie auf Low-Power optimiert werden. Sie sind auch nicht dafür ausgelegt.
Dafür wurde Bobcat entwickelt. Es ist nicht verwunderlich, dass sich AMD jetzt stärker auf Bobcat konzentriet, da dies der Einzige Markt ist, wo sie neu Einsteigen und dort gerade ein harter Kampf gegen ARM entsteht.
Achja, dieser Low-Power-Markt ist viel größer als Tablet & Netbook & Low-End-Desktop/-Notebook-Markt, sodass einfach Einstiegs-Investitionen in komplett neue Märkte selbstverständlich sind.

2012 ist da auch ein sehr wichtiges Jahr und daher ist eine Verstärkte Konzentration auf den Low-Power-Markt sehr wichtig.

Witzig,
jetzt sieht man schon ein Flop, wenn AMD nur 20-30% Performance-Steigerung bei gleicher Fertigung sieht.

Vorallem wurde von vielen wegen dem "Bulldozer-Flop" beim Trinity gegenüber Llano mit (deutlichen) Performance-Rückgänngen was viel schlimmeres befürchtet.
 
deadohiosky schrieb:
Erst einmal abwarten, wieviel TDP-Budget für die GPU mit über 700!!! MHz und Turbo-Funktion veranschlagt wird.



@Compute


Keine Ahnung wie du von Bulldozer auf Trinity schließen kannst, es gibt bis jetzt keine Vergleichswerte, weder über die Leistungsaufnahme noch zur tatsächlichen Leistung.
Darüber hinaus, wird Trinity natürloich weiterhin im 32nm HKMG+SOI-Verfahren hergestellt, wie Llano und Bulldozer auch.:rolleyes:

Dass ein neuer Sockel nötig wird, sollte ja wohl offensichtlich sein, bei dem Ausmaß der Änderungen.

Trinity soll doch Piledriver-Kerne besitzen und wie man ja bei den aktuellen BD schon sieht, ist die Architektur Schrott.
 
quod erat demonstrandum.:rolleyes:



Wow, wie kann man es sich denn eigentlich sooo einfach machen, wir sind hier nicht in der Grundschule wo man 1 und 1 zusammenrechnet und dann .... herauskommt.

Algebra ist nur ein Teilgebiet der Mathematik, und ist ungleich komplexer als du es gerade darstellen willst.


Und genauso verhält es sich bei der Halbleiterindustrie. Jedes Produkt sollte bei Erscheinen für sich betrachtet werden.
Denn wenn man jetzt schon glaubt zu wissen was Trinity leisten wird, das gilt auch für die professionellen Redakteure hier, dann braucht man ja auch eigentlich darüber gar nicht zu berichten und das Ganze musst du, werter Compute, dann auch nicht mit substanzlosen Einzeilern zu kommentieren.
 
deadohiosky schrieb:
@KM
Dass mit dem fehlenden L3 Cache war eigentlich schon länger klar und wenig interressant. Bei logischer Herangehensweise hätte das eigentlich keine Überraschung sein müssen.
naja, bis heute kenne ich keine Bulldozer Benchmarks bei welchen BDs mit deaktiviertem L3 zum Einsatz kommen, der Einfluss dahingehend (weniger Cache) ist schwer abzuschätzen.

VLIW4 ist 10% flächeneffizienter als VLIW5.

Quelle?

10% ... bei 28nm vs 40 nm oder bezogen auf selbe Fertigungsgröße?

Denn wenn man jetzt schon glaubt zu wissen was Trinity leisten wird, das gilt auch für die professionellen Redakteure hier, dann braucht man ja auch eigentlich darüber gar nicht zu berichten und das Ganze musst du, werter Compute, dann auch nicht mit substanzlosen Einzeilern zu kommentieren.

ich denke es gehört auch als Redakteur dazu zu differenzieren und basierend auf eigenem Wissen und Erfahrungen Einschätzungen wagen zu dürfen.

Keiner hier behauptet Trinity wird ein Rückschritt gegenüber Llano. Die Leistung wird steigen.
Dennoch darf man die Zahlen kritisch sehen, gerade unter den auf der Folie(n) genannten Zahlen.

AMD wird es noch am "leichtesten" fallen die GPU Leistung etwas nach oben zu schrauben, durch höheren Takt und bessere Speicheranbindung durch ebenfalls höheren Takt. 30% mehr GPU Leistung sind hier ein gut erreichbares Ziel.

AMD hat aber eher andere Sorgen, auf CPU/Architektur/Fertigung Seite. Hier wird Trinity zeigen was die BD Gen 2 Module Leisten, wenn auch ohne L3.

Dass ein neuer Sockel nötig wird, sollte ja wohl offensichtlich sein, bei dem Ausmaß der Änderungen.

auf welche Änderung genau sprichst du hierbei an?

aylano schrieb:
Witzig,
jetzt sieht man schon ein Flop, wenn AMD nur 20-30% Performance-Steigerung bei gleicher Fertigung sieht.

naja, wie gesagt, 20-30% stehen ja nicht leer im Raum sondern in Verbindung mit anderen Zahlen wie höherer TDP, deutlich mehr Takt... Ram Anbindung.

Das abgeschätzte Gesamtbild selbst bei gleicher Fertigung ist bei diesen Aspekten eher ernüchternd. Die eigentliche Leistung wird sich erst bei Release zeigen.

Genauso wäre es ernüchternd wenn IB in 32nm kommen würde und mit 125W TDP und 4,5 Ghz 20% mehr Leistung bereitstellt.

Vorallem wurde von vielen wegen dem "Bulldozer-Flop" beim Trinity gegenüber Llano mit (deutlichen) Performance-Rückgänngen was viel schlimmeres befürchtet.

sicher. Nach dem Bulldozer Launch neigt man dazu so zu vermuten, die Folien ändern daran aber wenig.
Den Folien entnimmt man eher, dass diese "Performance-Rückgänngen" über Takt und Verbrauch ausgemerzt werden.
 
Zuletzt bearbeitet:
Oberst08 schrieb:
Sagt ja keiner:


Ich weiß ja nicht, was du für eine Grafikkarte hast, aber für mich ist eine GTX580 durchaus gerade noch im Bereich "Performance- und Highend[...]";)

Mißverständliche Ausdrucksweise, die Formulierung "außer Performance- und Highend" wäre besser gewesen.


=Azrael=- schrieb:
Auch wenn ich dann 200W TDP weggkühlen müsste. Schau mal was du heute alles auf dem Board kühlen musst.

Das Speicherproblem wird man mit Technologien wie stacked memory & co. in den Griff kriegen, zusätzlich sollte man nicht vergessen das die Strukturen immer kleiner werden.

Chipsatz, Spannungswandler, Soundchips, Raid-Controller und was alles onboard ist wird weiterhin gekühlt, da hilft eine APU auch nix. Außerdem ist das meist alles passiv gekühlt, also fällt da nix aktives weg

Stacked Memory wird noch Jahre benötigen bis es marktreif ist
 
@KM


Da der L2 Cache bei der BD Architektur recht groß ist (im Vergleich zu Sandy Bridge, Llano hat ja insgesamt genauso viel, also 4 MB) könnte das Fehlen des L3 Cache einigermaßen aufgefangen werden, hinzu kommt, dass der L3 durch seine Größe und die Cache Architektur sehr langsam ist.



@VLIW4 vs VLIW5

Ich dachte eigentlich, dass das logisch ist? Eine SPU weniger macht die SIMD Einheit schlanker

SIMDs.png


Aber hier ein Zitat von Ryan Smith dazu:

There are a number of advantages to this change. As far as compute is concerned, the biggest advantage is that much of the space previously allocated to the t-unit can now be scrounged up to build more SIMDs. Cypress had 20 SIMDs while Cayman has 24; on average Cayman’s shader block is 10% more efficient per mm2 than Cypress’s , taking in to account the fact that Cayman’s SPs are a bit larger than Cypress’ to pick up the workload the t-unit would handle.
http://www.anandtech.com/show/4061/amds-radeon-hd-6970-radeon-hd-6950/4
 
@deadohiosky

achso, joa, gut bei VLIW4 vs VLIW5 ist das offensichtlich wobei im günstigsten Fall die VLIW5 mehr Leistung abrufen kann, im Schnitt die VLIW4 nen Tick effizienter ist. (hatte bei meinem Posting eher die neuen Compute Shader im Hinterkopf, weniger VLIW4)

Der Unterschied ist dennoch kaum der Rede wert. Hatte mich ohnehin gewundert wieso AMD diesen Schritt vollzieht und nun bei 28nm GPUs ja auf ihre Computer Shader setzt die wohl die größere Veränderung mit sich bringen. Grund für VLIW4 war wohl eher die durchschnittliche bessere Auslastung.

Ich hatte nichts dazu gefunden ob bei Trinitry nun bereits diese Compute Shader der 28nm HD7XXX die noch zuvor kommt genutzt werden oder VLIW4 wie bei den HD6XXX.

Ist es VLIW4 sind die 10% natürlich absolut korrekt, ich denke die Compute Shader bringen eher eine größere DIE und Shaderbauweise mit sich, ähnlich wie bei Nvidia.

@L3&L2

ja, hierbei unterschieden sich beide Architekturen sehr. Für mich ist noch vollkommen offen wie es mit weniger L2 und L3 bei Bulldozer Modulen aussieht. Genau deshalb ist zB ein Athlon II X4 aus meiner Sicht eine sehr effiziente CPU. Wenig Fläche/Transitoren bei recht guter Leistung.

Der FX4100 kommt ja mit vollem L3 daher. Die Leistung hält sich dennoch sehr in Grenzen. Interessant wäre eine "light" Variante mit eigener Maske wie der Athlon II im Vergleich zu Phenom II... Trinity geht ja in die Richtung. Denke gerade das kann die Effizienz steigern ohne all zuviel Leistung einzubüßen.
 
Zuletzt bearbeitet:
........und was ist damals nicht alles über den Bulldozer "durchgesickert" :lol:
 
@Staubwedel
Also mal schauen, ich muss heute immer noch CPUs bis 130W TDP wegkühlen und hab doch noch zusätzlich GPUs und in meinen Fall haben die alle zwischen 150 und 2xx W TDP, die auch noch gekühlt werden müssen.
Selbst wenn ich jetzt zur GTX 570 z.B. nur den i7 2600 packe muss ich die Kühlung immer noch auf fast 300W auslegen und der Rest des System ist noch gar nicht drin.
Und wenn mir AMD beides in einem bietet mit einer in Zukunft vergleichbaren Leistung zur GTX570/HD6950 whatever und ich die Kühlung auch noch auf 100W weniger auslegen muss hmmm...... rein theoretisch versteht sich.
Also ich seh da schon Vorteile drin und das nicht nur bei der Kühlung.


Dann wird stacked memory halt Jahre benötigen, ist mir völlig wuppe.

AMDs Erfolge im Mobilen Markt und insbesondere in Asien mit ihren APUs gibt ihnen Recht.
 
Zuletzt bearbeitet:
Volker schrieb:
Das magst du nicht sehen, aber so liegen die Fakten aktuell. Aktuell braucht man einen Bulldozer mit zwei Modulen und vier "Kernen" bei 3,6 GHz um mit nem Llano bei 2,9 GHz mithalten zu können - im Durchschnitt über viele Tests. .[Macht 700 MHz Unterschied!!

Ja wenn man z.B. Dualcore Spiele mit Windows 7 mittestet, kommt so etwas heraus. Meine Tests unter Windows 8 oder mit Deaktivierung des Turbos und manuellem Hochtakten und Zuweisen der Kerne (Win8 Scheduler) unter Win7, sagen etwas völlig anderes. Und zwar kann ein FX-6100, der noch sparsamer als ein Deneb ist, knapp mithalten BEI GLEICHEM TAKT. Aber er versohlt Deneb gnadenlos den Hintern in Anwendungen.

Wenn euer Sample noch zur Verfügung steht. einfach mal mit Fritz Chess Benchmark und 2 oder 3 Threads testen. Der Unterschied zum "wilden Herumgehopse" der Threads ggü. dem auf 2 oder 3 CU festgepinnten Zustand, beträgt ca. 20 %. Das sind genau die 20 %, die lt. deiner an sich korrekten Rechnung fehlen.
 
@KM

Ich habe explizit von VLI4 geredet, nicht von GCN. Und auch bei den 28nm GPUs wird sich das aufteilen auf 7x00 bis 7800 (oder wie auch immer die "vollkommen transparente und nachvollziehbare" Namensgebung bei AMD es vorsieht:rolleyes:) VLIW4, also 6900er Architektur und GCN bei den 7900er HighEnd GPUs.

Das gleiche wird bei Nvidia und Fermi und Kepler erwartet, Thermi wird hoffentlich mal zu Fermi, dank 28nm, bei Kepler wird man es noch sehen wie es mit dem TDP-Budget und der Wärmeentwicklung aussieht, ich als Nvidia Besitzer hoffe ja auf eine Verbesserung in der Hinsicht... oder ich sattle wirklich um auf AMD (wäre meine erste... wenn man eine passive X300 SE, vor langer langer Zeit, als Zwischenlösung mal außen vor lässt:p)



Weniger L2 Cache wird es bei Trinity nicht geben, also jedenfalls nicht bei den A6 und A8 Modellen. Bei den E2 und A4 sicherlich. Wie sich das auf die Performance auswirkt, kann man nicht sagen, denn keine Redaktion/Tester lässt sich dazu herab mal einen E2 oder A4 zu testen, also ein vollständiger Test.

Aber das Fehlen des L3 Caches hat bei Llano nicht allzu sehr geschadet, zusammen mit den vielen kleinen Verbesserungen und dem verdoppelten L2 Cache sieht man neben einem gleichgetakteten Phenom II sogar gar nicht schlecht aus.

L3 Cache ist äußerst hungrig, das sieht man ja bei Phenom II vs. Athlon II, bringt aber auch Einiges, besonders bei Spielen. Aber wie ich schon gesagt habe, ein größerer L2 Cache kann das u.U. ausbügeln.
 
@deadohiosky

ich denke man kann davon ausgehen, dass Trinity VLIW4 einsetzt, im Gegensatz zu Llano der auf VLIW5 setzt. Die neuen Shader sind der neuen HE GPU in 28nm vorbehalten, so denk ich auch. Sehe ich als die nächste große Änderung bei AMD an - weshalb ich sehr gespannt auf die neue HE Serie in 28nm bin.
Ist das mit VLIW4 und Trinity schon fix?

@L3 & L2.

Ich denke man kann schwer von Phenom und Athlon auf die neuen BDs schließen. Da Trinity aber ohne L3 daherkommt wird der Einfluss von L3 auch nicht so riesig sein.

Qwerty08 schrieb:
Ja wenn man z.B. Dualcore Spiele mit Windows 7 mittestet, kommt so etwas heraus. Meine Tests unter Windows 8 oder mit Deaktivierung des Turbos und manuellem Hochtakten und Zuweisen der Kerne (Win8 Scheduler) unter Win7, sagen etwas völlig anderes. Und zwar kann ein FX-6100, der noch sparsamer als ein Deneb ist, knapp mithalten BEI GLEICHEM TAKT. Aber er versohlt Deneb gnadenlos den Hintern in Anwendungen.

du meinst ein FX-6100 kann unter Win 8 bei gleichem Takt einem X4 mithalten? Haste da irgendwas handfestes lesenswertes?

Wäre auch irgendwie... strange wenn man mit 6 vs 4 Threads, 32nm und selbem Takt und größerer DIE nicht mithalten könnte oder? Also bei beidem... Verbrauch und Leistung.

Win Windows 8 Test wäre interessant, bei Beanspruchung aller Threads kann da aber der Scheduler wohl wenig reißen.
 
Zuletzt bearbeitet:
@KM


Es sollte eigentlisch schon seit dem AFDS als sicher gelten, dass Trinity auf VLIW4 aufbaut, jedoch war da ein wenig Konfusion, weil auch gleichzeitig von GCN gesprochen wurde, die "Experten" haben sich also darum gestritten.

VLIW4 ist (mE:D) 100% gesichert.


Ich habe von nichts auf gar nichts geschlossen. Ich habe lediglich gesagt, dass der fehlende L3 Cache beim Llano nur in den Szenarien zu spüren ist, in denen er extensiv genutzt wird und selbst da kann der doppelte L2 das einigermaßen ausgleichen.

Ich habe keinen direkten Vergleich zu Trinity gezogen, ich bitte dich meine Ausführungen aufmerksam zu lesen.

Zum FX-6100(@3,3GHz) vs Phenom II X4(@3,4GHz):

http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/index30.php?dummy=&advancedFilter=false&prod[]=AMD+FX-6100+[3%2C3+GHz%2C+3+Module%2C+CMT%2C+Turbo]&prod[]=AMD+Phenom+II+X4+955+[3%2C2+GHz%2C+4+Kerne]


Lässt man die Spielebenchmarks außen vor schlägt sich der FX gar nicht so schlecht und das ist unter Windows 7. Gerade bei Anwendungen kann der FX unter Win 8 zulegen und ist dabei (laut ht4u) effizienter.

edit:

Das war jetzt schlecht formuliert. Der FX ist generell effizienter als der X4... nicht "nur" unter Win 8. Unter Win8 wurde bei ht4u ja nicht getestet.
 
Zuletzt bearbeitet:
Zurück
Oben