Test Test: AMD Piledriver vs. Bulldozer – Teil 1

@Voyager10 Amen genau so wirds leider aussehen ich für meinen Teil denke das wird wieder nichts, ein Produckt für die Tonne genau da hin gehört der BD und dann der Vishera auch vor allem wenn der Stromhunger bleibt, und es nur lausige 9% sind.

Schön langsam denke ich es wäre wohl intilligenter gewesen den Phenom II weiter zu entwickeln oder mit dem BD zu kreuzen oder weis der Gott was. (wo bleibt der FX-55 von damals mit dem hat AMD damals mit Intel den Boden gewischt, jetzt aber ist es lange schon anders herum)
 
Gabbermafia, nicht laut PCGH. Laut OBR.

17% Verbesserung in iTunes und 14% in Paint.Net
Dagegen die Verschlechterung in WinRar. Wenn man beide Extremwerte ignoriert kommt man auf cirka 5% Verbesserung in Anwendungen.
 
digitalangel18 schrieb:
Das der Hobel nicht nennenswert flotter rechnet als ein uralter Phenom X4 ist aber...öhm...erschreckend?

Der X4 hat 4 Integer-Kerne und 4 FPUs; der getestete Trinity bzw. FX hat 4 Integer-Kerne und 2 FPUs. Wirklich erschreckend, dass man bei weniger Recheneinheiten nicht nennenswert flotter rechnet. :rolleyes:

mosesAK schrieb:
mal abwarten was noch kommt. ich freu mich allerdings auf hsa! weil so weit ich das richtig verstanden hab bedeutet das, dass die apu selbst entscheidet wo was berechnet wird. das sollte eine bessere skalierbarkeit bringen.

Eines der Ziele ist, dass in Zukunft Sachen wie SSE / AVX / XOR / ect instructions nicht mehr von der SIMD FPU unit berechnet werden sondern von der iGPU, die ja nichts anderes ist als ein großer SIMD array. Grundlagen dazu, dass es irgendwann funktioniert hat man ja schon geschaffen, Bei den CPUs hat man FPU units reduziert (was noch ein riesen Nachteil ist) und bei den Grafikkarten die GCN-Architektur eingeführt. Jetzt folgt halt Schritt für Schritt bei der Verbesserung.

Butz schrieb:
Somit verliert AMD den Anschluss an Intel um ein weiteres. Ich verstehe nicht, das AMD so auf die Modul-Technik beharrt!

Sandy -> Ivy war leistungsmäßig auch nicht mehr.
Das Modul-Konzept geht dann auf, wenn die iGPU (GCN-Architektur) die Aufgabe der FPU übernimmt. Das dauert aber noch.


Zum Test:

Es wäre schön gewesen den X4 auch bei 3GHz zu sehen.
 
Wenn AMD so weiter macht sehe ich wirklich schwarz.
Bleibt nur zu hoffen das Intel nicht drastisch die Preise anzieht wenn sie keine ernstzunehmende Konkurrenz auf Dauer haben!
 
Schaut für mich immer mehr so aus als, wenn der neue FX zur Lachnummer wird :( Wenn die APU Werte wirklich mit dem CPU nachher Übereinstimmen, sind die wenigen Prozente mehr ja offenbar nur durch die höhere Taktung erreicht.
Jeder Laie weis Heute dass die Modulbauweise an den fehlenen FPU´s krankt. Frage mich wieso AMD nicht auf die Schnelle ein Raushaut wie der X6 damals? Wenn es so kommt kann sich AMD wohl nur noch Retten mit einem 8M/16T DSK CPU oder einer Sondermaske wie der X6 war, z.B. ein 8er mit mehr FPU´s.
Schon Lustig wie mein X6-1100T alles unterhalb von 8XXX in Grund und Boden stampft wie eine Dampfwalze und in einigen Fällen ist er sogar schneller als die 8er BDs.

Ich hatte damals keine Lust mehr zu Warten, als die BD verschoben wurden, zu dem waren die X6-1100T grade auf ca. 145€ Gefallen, da habe ich Zugeschalgen, mein Bauchgefühl war also richtig.

mfg
 
Zuletzt bearbeitet:
Matzegr schrieb:
Eines der Ziele ist, dass in Zukunft Sachen wie SSE / AVX / XOR / ect instructions nicht mehr von der SIMD FPU unit berechnet werden sondern von der iGPU, die ja nichts anderes ist als ein großer SIMD array. Grundlagen dazu, dass es irgendwann funktioniert hat man ja schon geschaffen, Bei den CPUs hat man FPU units reduziert (was noch ein riesen Nachteil ist) und bei den Grafikkarten die GCN-Architektur eingeführt. Jetzt folgt halt Schritt für Schritt bei der Verbesserung.

Sandy -> Ivy war leistungsmäßig auch nicht mehr.
Das Modul-Konzept geht dann auf, wenn die iGPU (GCN-Architektur) die Aufgabe der FPU übernimmt. Das dauert aber noch.
Den letzten Satz solltest du richtig fett markieren. Die FPU Units sind unglaublich Latenzarm und optimiert. Da kommt eine GPU noch lange nicht hin. Neben der Latenz ist auch der Takt einer CPU durchschnittlich rund 3 mal höher, was man ebenso zu der "globalen Latenz" dazu zählen kann.
Latenzkritische Anwendungen wird man weiterhin artig per CPU berechnen, außer es ist vertretbar und der Fokus liegt nicht darauf.

C4rp3di3m schrieb:
Jeder Laie weis Heute dass die Modulbauweise an den fehlenen FPU´s krankt.
Gut das jeder Laie immer noch nicht die ganze Wahrheit fassen kann.
 
Da hinkt AMD nun mindestens zwei Jahre hinter Intel her. Schade, dass es zu einem Monopol kommen muss.
 
C4rp3di3m schrieb:
Jeder Laie weis Heute dass die Modulbauweise an den fehlenen FPU´s krankt.
mfg


Du bringst die Erleuchtung. Es gibt seitenlange Analysen darüber aber es liegt ja nur an der FPU. Weiß doch jeder Laie :rolleyes:
 
Die reine Leistung reicht generell aus, aber leider ist die Energieeffizienz und die Kühlung damit zu wichtig um solche Boliden heute noch zu kaufen...

So leid es mir tut, aber mein 2550K wird wohl noch sehr lange Zeit mir ausreichend und dabei verbraucht der ganze Rechner nichtmal 60 Watt im Idle und 180 Watt unter Last...
 
@ VitaBinG
Unser Quasi-Monopol existiert ja schon seit Jahren. Viel ändern tut sich leider nichts.
 
Das ist Hart,dachte erst das sich noch was tun wird bei AMD.
Schade,mal sehen wie es in der Zukunft Aussehen wird.
 
@ Locuza Was ja wirklich schade ist, da AMD ja schonmal gut die Nase vorn gehabt hat. Ich frage mich wieso da einfach absolut nichts kommt außer mehr Takt und selbst der ist wie man sieht nicht wirklich besser. Quantitativ viel Takt für Qualitativ wenig Leistung ergeben ein verdammtes Fail. Ich wüsste zu gerne, was die AMD Leute selber von Ihrer Arbeit und Konkurrenz denken. Ob es da denn überhaupt noch einen Ansporn gibt wieder die Nase vorn zu haben.
 
Soso...

Zwei symmetrische 128-Bit-FMAC-Gleitkommapipelines pro Modul, die bei Bedarf in eine 256-Bit-Einheit umfunktioniert werden können...
Schon früher tauchte die Vermutung auf, dass der - von beiden Kernen gemeinsam benutzte - Dekoder zu wenig Befehle dekodieren kann. Pro Takt und pro Kern schafft er im Schnitt maximal nur zwei x86 Instruktionen. Im schlimmsten Fall, falls externe x86-Instruktionen in mehr als eine CPU-interne Macro-Instruktion (Macro-Op) übersetzt werden müssen, sinkt der Durchsatz aber. Bei Befehlen, die durch die Microcode-Engine dekodiert werden müssen, steht der ganze Dekoder außerdem für ein paar Takte komplett still und blockiert damit den zweiten Kern. (p3dn)

und

Execution units, dass es von den - offiziell vier - Pipelines trotz optimistischer Zählweise eigentlich doch nur zwei sind, die die Arbeit verrichten, also eine weniger als bisher bei den letzten Chips... (P3DN)

Hab mir schon was dabei Gedacht als ich es in meinen Worten schrieb du Kunde.
Da ist ein X6 heftig Überlegen, da er mehr Einheiten zu Verfügung hat.

mfg
 
Bei THG stand mal beim Intel Pentium 4 das Fazit:
Conclusion: The Pentium 4 Must Go (alternatively: Kill The Pentium 4!)

Damals hat sich Intel auch in seine Sackgasse manevriert und AMD macht scheinbar ähnliches. Das Prozessordesign ist technisch nicht konkurenzfähig und muss besser werden. Intel hatte damals nur das Glück, dass der Pentium M, die perfekte Lösung dargestellt hat.

Andererseits ist die reine CPU-Leistung nicht mehr so wichtig wie früher. Jeder Dual-Core mit über 3GHz ist schnell genug für Anwendungen und Spiele. Daher schreib ich AMD nicht ab und glaub dass Sie immer noch genügend Prozessoren an den Mann bringen - halt nicht mehr im lukrativen Performance/High-End-Markt.

Ich hätte z.B. brutal gern einen AMD A10-5800K im Office-PC. Der Chef kategorisiert das Ding nicht als Spiele PC, hat aber genug Bums für BF3 in niedrigen Details :)
 
Na, denn, its off for Steamroller to come :freak:

Der zusätzliche Encoder im Modul und das Computer-optimierte (nicht designte) Design muss es in der nächsten Generation wohl bringen, sonst verläuft es im Sand des Verderbens und AMD bleibt Kilometerweit hinter Intel zurück :/

Aber erstmal Tee trinken bis der l3 vorbeikommt :)
 
Voyager10 schrieb:
Ist schon traurig was AMD da abliefert , die Bulldozer CPU hätte so garnicht umbenannt werden müssen bei 4% Mehrleistung durch leichte Änderungen.
Weiß gar nicht was du willst. Die CPU-Bezeichnung wurde doch nur minimal geändert, so dass keienr auf die Idee kommt, da wäre was bahnbrechend Neues gekommen. Dass der Codename nun ein anderer ist sollte klar sein...
 
@Matzegr

Bis jetzt ist es so (sehr vereinfacht dargestellt):

CPUs(x86): auf geringe Latenz und flexible Einsetzbarkeit optimierte Prozessoren
GPUs: auf hohen Durchsatz optimierte Prozessoren für die Abarbeitung trivial parallelisierbarer Probleme mit geringer Codekomplexität.

Was du anscheinend nicht verstehst... es gibt Probleme, die eben nicht so leicht parallelisierbar sind, sondern nur bis zu einem gewissen Grad - das wird auch in tausend Jahren noch so sein.

PS: Schau dir ruhig mal die Handbücher zu AVX 1/2 von Intel an, vielleicht fällt dir dabei etwas auf. ;-)
 
Zuletzt bearbeitet:
Zurück
Oben