Test Test: AMD Piledriver vs. Bulldozer – Teil 1

Schu3 schrieb:
Achso für die Leute die vorhin meinten, es wäre mal interessant zu wissen was AMD-Mitarbeiter zu ihren Entwicklungen und der (scheinbaren) Verlagerung der Prioritäten von reinen CPUs auf FUSION/HSA/APUs sollten vll. mal den etwas älteren Artikel auf THW lesen - AMD Fusion: Wie alles begann, wo die Entwicklung hingeht und was es bedeutet

r4yn3 schrieb:
@Schu3: Ein wirklich beeindruckender Artikel, danke hierfür.

Nur halt, daß das im Artikel stehende entweder reines Wunschdenken:
Wir verfügen leider über keine Benchmarkergebnisse, die gegenüberstellen, wie schnell ein und derselbe CPU-Die bei voller Nutzung der APU bzw. ohne Verwendung der Grafikeinheit rechnet. Aber es liegt auf der Hand, dass bei Software, die auf heterogenes Computing per APU ausgelegt ist, die APU eine bessere Rechenleistung aufweisen wird als eine Kombination zweier physisch getrennter Komponenten, CPU und Grafikeinheit. Wenn das Paradigma ‘APU’ keine Vorteile hätte, würde es nicht diese rasante Trendwende in der Industrie geben.

oder falsch ist:
Alle OpenCL-Tools der Firma sind gratis erhältlich. Unserem Wissensstand zufolge verlangen alle anderen Firmen, die im heterogenen Computing-Feld mitmischen, Lizenzgebühren für ihre Tools.

usw.

Hier => findet man recht interessante Informationen zur jüngeren Geschichte von AMD.
 
Natürlich ist es Wunschdenken, man setzt halt alles auf eine Karte...würde man jetz schon belegen können das es (HSA) revolutionär werden würde, würden mehr Leute an AMD glauben.

Bitte einen Link, wenn du es schon als falsch hinstellst, welche andere Firma im HSA Bereich ihre Tools gratis anbieten.
 
Palmdale schrieb:
Beide kosten ca. gleich viel mit 112€ AMD und 112@ Intel (jeweils günstiger.de am 13.10.12).

Weshalb sollte ich nochmal zum AMD greifen als Spieler, wenn die quasi mit "schwächste" Ivy Bridge ihn mitunter deutlich überflügelt?

Der direkte Konkurrent bei Spielen ist nicht der i3, sondern der Pentium.
http://www.tomshardware.de/gaming-fx-pentium-apu-benchmark,testberichte-240958.html
AMD ist dann so teuer wie Intel inklusive Board (bei fast ähnlicher Leistung). Bei Anwendungen verschiebt sich das unter Umständen. Und da hab ich das nächste Problem: ich mache ziemlich viele Berechnungen, die sich nicht sinnvoll parallelisieren lassen. Da bin ich mit AMD 2012 nicht besser dran als mit nem C2D :rolleyes:
 
r4yn3 schrieb:
Natürlich ist es Wunschdenken, man setzt halt alles auf eine Karte...würde man jetz schon belegen können das es (HSA) revolutionär werden würde, würden mehr Leute an AMD glauben.

Bitte einen Link, wenn du es schon als falsch hinstellst, welche andere Firma im HSA Bereich ihre Tools gratis anbieten.

Nur ein Beispiel, welches ich interessant finde und welches schon läuft: Das River-Trail Projekt von Intel (CPU+GPU abd Ivy Bridge).

Von der riesigen CUDA-Welt (ernsthaft und erfolgreich nutzbar seit V.3) gar nicht zu reden, wenn auch not exactly "HSA", das ja ein AMD-Begriff ist, gar nicht zu reden (CUDA-Tools sind kostenlos).
 
Nichts Neues, was wir nicht schon alle wüßten: Im Schritt macht der Bulldozer 2.0 ca. 5-7% Boden gegenüber dem Bulldozer 1.0 gut - und das auch nur dank des höheren Taktes. Die IPC-Leistung im Vergleich zum K10 ist dagegen unterirdisch.

Würde mir, wenn es denn ein AMD sein sollte, immer noch einen Llano Athlon II X4 für 50€ holen und den ausquetschen wie eine Zitrone.
 
Zuletzt bearbeitet:
blöderidiot
Das River-Trail Projekt von Intel ist doch kein HSA :D das klingt ja eben immer noch nach getrennte Ressourcen ect. Das zeigt ja schon die Integration (übrigens scheinbar sehr teuer und deshalb nur i7 Ultrabooks vorbehalten) des L4 caches.

CUDA hat sich deshalb durchgesetzt, weil es nichts vergleichbares sinnvolles gab (Also ATI das mehr oder weniger verschlafen hat, gearbeitet haben sie aber auch schon lange in dem Gebiet)

HSA kann besonders durch Firmen wie ARM und in Konsolen interessant sein. Denn dort hat man einen Vorteil und dort hat man auch geschlossene Systeme.

Man kann davon sprechen dass CPUonly im Desktop die geschlossene Welt ist. Wenn AMD aber gelingt ähnlich wie bei AMD64 einfach anzuschließen und einen Mehrperformance zu CPUonly herauskitzeln kann (dabei vllt sogar dank der igp effizienter arbeitet) kann sich HSA auf CPUonly aufbauen und durchsetzen. Somit wäre es quasi ein Add-On.
Natürlich ist es aber wichtig auf die Bedürfnisse der Programmierer einzugehen, sodass es keinen größeren Aufwand zum programmieren gibt. Das soll ja eben durch einen gemeinsamen Adressraum ect realisiert werden. Deshalb spricht man ja von Accelerated Processing Unit, quasi eine CPU mit einer beschleunigung, wenn sie sinnvoll ist.
Es knüpft also kausal an alten Werten an und das ist ja das wichtigste.

Also kann man es nicht mit CUDA vergleichen.
 
Zuletzt bearbeitet:
Dann ist es aber das oben genannte Zitat von AMD ebenso "not exactly" eine Falschaussage.
 
Stocki13 schrieb:
wo denn, am geldbeutel? is' der leichter geworden? was spürst du?

Noch Fragen Stocki13?
Bin ja nicht der einzige Intelbesitzer hier. Ich spare mir eben eine Menge Zeit beim Arbeiten und je nach Mulitplayergame gibts mehr FPS bzw wesentlich weniger Einbrüche als mit meinem alten AMD und zur Überraschung, es kostet gar nicht mal so viel. :evillol:

Matrix316 schrieb:
Also wenns einen neuen AMD Prozessor gibt, der schneller als ein i7 3770 K oder 3930K ist, würde ich sogar 300 bis 400 Euro für zahlen.

Der letzte AMD Prozessor der halbwegs konkurrenzfähig war, war der Phenom II und selbst damals war intel schon vorne.

drago-museweni schrieb:
@blöderidiot genau siehts aus, die zeit ist vorbei wo man noch gehofft hatte, beim Phenom auf Phenom II bekam man wieder was geboten zur damaligen Zeit.

Und vor allem war Intel nicht so weit Vorne, was mich am meisten aufregt das der BD teils langsamer ist wie sein Vorgänger und noch dazu mehr Strom frist,(Obwohl deutlich mehr Takt) das wenn im Vishera behoben werden würde, wäre ich zufrieden und würde gerne einen FX8350 kaufen am liebsten mit einem 1090FX Chipsatz.

Ich warte noch auf den 18 oder 23 Oktober und sehe mir die Tests an, aber was man bisher so sieht wird das wohl nichts und nach 2 Jahren X6 1090T möchte ich doch schon einen spürbaren Fortschritt sehen sehe ich zumindest so.

Palmdale schrieb:
Moin Moin,

die für mich relevanten Spiele mal herausgezogen (ohne mich jetz darauf zu fixieren, aber die drei besitze ich nunmal zum zocken):

- AMD A10-5800K, 2M/4T, 3,80 GHz, 32 nm, Turbo
https://www.computerbase.de/2012-10/test-amd-piledriver-vs-bulldozer-teil-1/31/
> Anno2070, HD Auflösung (bei GTX 680, minimaler Zoom): 64,5fps
> Batman, HD Auflösung (bei GTX 680): 81fps
> Elder Scrolls, HD Auflösung (bei GTX 680, Durchschnitt): 66,65fps

- Intel Core i3-3220, 2C/4T, 3,30 GHz, 22 nm, SMT
https://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-cpu-test/42/
> Anno2070, HD Auflösung (bei GTX 680, minimaler Zoom): 81,5fps
> Batman, HD Auflösung (bei GTX 680): 82fps
> Elder Scrolls, HD Auflösung (bei GTX 680, Durchschnitt): 85,49fps

Beide kosten ca. gleich viel mit 112€ AMD und 112@ Intel (jeweils günstiger.de am 13.10.12).

Weshalb sollte ich nochmal zum AMD greifen als Spieler, wenn die quasi mit "schwächste" Ivy Bridge ihn mitunter deutlich überflügelt?
Ich kann durchaus nachvollziehen, dass hier vielen AMD Besitzern des Phenom II einfach der Kaufgrund fehlt.

Ich bezweifle, dass dies noch 5 Jahre gutgeht, obwohl ich mir gerne eine starke Konkurrenz im Sinne des Kunden wünsche. Aber das reicht einfach nicht...
 
Zuletzt bearbeitet:
geislpxs schrieb:
Der direkte Konkurrent bei Spielen ist nicht der i3, sondern der Pentium.
http://www.tomshardware.de/gaming-fx-pentium-apu-benchmark,testberichte-240958.html
AMD ist dann so teuer wie Intel inklusive Board (bei fast ähnlicher Leistung). Bei Anwendungen verschiebt sich das unter Umständen. Und da hab ich das nächste Problem: ich mache ziemlich viele Berechnungen, die sich nicht sinnvoll parallelisieren lassen. Da bin ich mit AMD 2012 nicht besser dran als mit nem C2D :rolleyes:

Korrekt, auch dieser Beitrag lässt eigentlich kein gutes Haar an AMD, wenn man sich auf die Spielesparte beschränkt (wohlgemerkt, dass ist nunmal die für mich persönlich wichtige und kaufentscheidende).
Weshalb ich beim aktuellen CB-Beitrag die obigen Chips wählte lag aber auf der Hand. Denn im Grunde sind für mich immer die Endpreise zum vergleichen und was ich dafür bekomme. Wie ich schon geschrieben habe und aktuell die Preise verglich kosten beide von mir genannten Chips 112€. Nicht mehr und auch nicht weniger. Anwendungen nutze ich für mich privat nicht bzw. fallen keinesfalls ins Gewicht (das eine rar-Archiv in der Woche kriege ich auch so geöffnet).

Ergo bleibt die reine Spieleleistung mit dedizierter Grafikkarte übrig und hier bleibe ich bei meiner Einschätzung, dass es aktuell mit AMD nichts ist und wohl für meine Bedürfnisse auch kaum etwas werden wird. So weit, so schlecht
 
AMD hat es doch immer so gemacht. Sie haben geschaut, wo ist unser know how, was können wir machen.
Eigene Standards wie 3DNow haben sich nie durchgesetzt, deshalb hat man sich dann auch klug an Intel orientiert (Streaming SIMD Extensions).
HSA sehe ich nur als sinnvoll wenn es eben auf die Basis von Intel aufbaut. Das heißt HSA kann alles was Intel Prozessoren auch kann, nur dass man eben Vorteile hat durch die igp Parallelisierung.
Somit bin ich mir sicher dass man auch AVX2 und solche Standards mitziehen wird.

Intel hat ja damals auch auf AMD64 aufgegriffen, weil die Entwicklung sinnvoll war. Somit konnte der User weiterhin 32 bit verwenden.

Wenn der User also keine Nachteile hat mit HSA, und der Programmiere vllt 2 Zeilen mehr schreiben muss (sicherlich mehr kA) dann kann sich HSA ohne Probleme durchsetzen.
So habe ich es zu mindestens verstanden und sehe es als sinnvoll.
Würde AMD HSA neben Intel aufbauen, würden es sich auch nicht oder schwer im Desktop durchsetzen, da kann ich die skeptisch völlig nachvollziehen, naja mal sehen wie sich das entwickelt, bin selbst gespannt.
Dort wo die APU momentan wildern sehe ich nur als Nischenmarkt ausnützen, bis man die Technologie bzw die APU besitzt um es durchzusetzen.
 
Zuletzt bearbeitet:
Ein User hat auf einer AMD Promo in Texas einen 8350 erhalten und bencht ihn im Hardforum etwas (ich lasse den direkten Link zugusten CB's NDA jetzt einmal aus. Aber wer will, der kann).
Der User kann keine breiten Benchmarks wie grosse Seiten liefern, aber Cine11.5 und x264 5.01 32bit sind bisher durch, und bisher scheint sich OBR's Vorhersage zu bewahrheiten. 15% mehr Performance bei 10% mehr Takt, Milchmaedchenweise. Jedenfalls werde ich das das Topic heute abend regelmaessig F5en.
Wenn ich Piledriver will, kann ich vielleicht einfach einem 8120 taktmaessig die Sporen geben?
 
Zuletzt bearbeitet: (Der Genitiv ist dem Dativ sein Tod.)
"der Vollausbau basierend auf den „Piledriver“-Kernen sieht anders als bei den aktuellen „Trinity“ auch einen bis zu 8 MByte großen L3-Cache vor. Darauf basierend werden dann die Vishera-Prozessoren geboren, die bis zu vier dieser „Piledriver“-Module mit 8 MByte L3-Cache kombinieren."
 
Chuck Finlay schrieb:
...15% mehr Performance bei 10% mehr Takt, Milchmaedchenweise.

Interessant wäre die Leistungsaufnahme wenn die bei +15% Leistung nicht höher ist, dann ist es gut. Dabei ist doch völlig egal ob die +15% durch den Takt kommen oder AMD nen Voodoo-Priester mitliefert, der um den PC tanzt.
 
trick17 schrieb:
Wollte aber damit nur sagen das AMD irgendwie net so schlecht dasteht wie manche hier behaupten.

Ist ja bekannt, dass der Bulldozer bei math. Berechnungen den besten Intel-Prozessoren nicht nachsteht, nicht umsonst ist die AMD-CPU im Server-Bereich sehr beliebt und wurde auch von großen Herstellern geordert.
 
Tuetensuppe schrieb:
Ist ja bekannt, dass der Bulldozer bei math. Berechnungen den besten Intel-Prozessoren nicht nachsteht, nicht umsonst ist die AMD-CPU im Server-Bereich sehr beliebt und wurde auch von großen Herstellern geordert.

Siehe hier.
44684.png

Bulldozer/Interlagos (32nm) ist "Opteron 62xx".
 
Zuletzt bearbeitet:
Butz schrieb:
Somit verliert AMD den Anschluss an Intel um ein weiteres. Ich verstehe nicht, das AMD so auf die Modul-Technik beharrt! Es ist meiner Ansicht an der Zeit, das AMD wieder leistungsfähige und obendrein konkurrenzfähige Core 4 CPUs auf den Markt bringt. Höchste Eisenbahn sage ich da nur.....

Die Idee hinter diesem Modulkonzept ist eigentlich gar nicht so schlecht - wenn man pro Modul 4 ALUs und zwei vollwertige 256Bit fähige FPUs hätte, die über einen vierstufigen Decoder bedient werden könnten ... blablabla ... als Schwachstelle des Modulkonzeptes wurde schon relativ früh das entlarvt, was AMD "davor" gebaut hat, nämlich die Fütterungsautomation, die offenbar ein bißchen suboptimal erscheint. Trotz vieler Innovationen, AVX, FMA et cetera sind die einzelnen Rechenwerke bekanntlich den alten Athlon-Rechenwerken der K10-Reihe unterlegen.

Ich glaube kaum, daß AMD in absehbarer Zeit noch einen Stich im Server- oder Spitzen-CPU Markt machen kann. Die letzten Jahre haben zu viel Substanz gekostet!

trick17 schrieb:
[...]

Auf zwei verschiedenen Maschinen wurde eine FEM Berechnung ( Berechnung nur über CPU) durchgeführt. Ich habe eine Lenovo Workstation mit 2 (!) Xeon 4 Kernen ... wenn auch nur 2 E5440
der Kollege hat auf einer normalen Buldozer Maschine die gleiche wirklich sehr aufwändige Berechnung durchgeführt - Und hat nicht einmal halb so lange gebraucht :freak::confused_alt:

Also wirklich ich bin kein Experte was CPUs angeht ... aber so schlecht scheint der Buldozer nicht zu sein ...einziges Manko, meinte der Kollege, das die Maschine wegen der Wärme nach einer Weile einen Höllenlärm macht. Die macht meine Workstation aber schon aus dem Stand und dagegen kann man was tun.

[...]
Meine Theorie ist : Studenten die z.B. CAD mit Simulationen laufen lassen können sich mit einem Buldozer, 16GB Ram einer SSD und einer HD7870 es richtig krachen lassen und so manche Workstation aus dem Bild treten.

Das war jedenfalls mein Eindruck.

Mal nebenbei: FEM ist nicht gleich FEM! Finite Elemente oder Finite Differenzen als Schlagwort zu benutzen klingt wie frisch aus einer PR Abteilung, wo sich Juristen, WiWis oder andere mathematisch Begabte über Zahlentheorie auslassen.

Viele Probleme, die mit FDM oder FEM diskretisiert und gelöst werden können, sind bei geeigneter Normierung auf einfache Genauigkeit, SP, reduzierbar oder gar Ganzzahlarithmetik herunterzubrechen. Viele der immer wieder gerne gezeigten "Kollisions- und Zerknautschfilmchen" aus dem Computer sind INT und wenn fließkommabehaftete Arithmetik, dann SP. Daß hier Architekturen brillieren können, welche über viele ALUs verfügen (INT), versteht sich fast von selbst.

Wir setzen selbsgebauten numerischen Code ein, der zum Teil mit PThreads, zum Teil via OpenMP parallelisiert wird und durchweg 64 Bit DP verwendet. Unsere ältlichen Doppelsockel-XEONs mit je 4 Kernen (Core2Duao-Technik) haben gegen die Doppelsockel "Westmere" XEOns, die etwas niedriger getaktet werden, aber mehr Kerne mitbringen UND auch noch SMT beherrschen, keine Chance! Wirklich erstaunt aber waren wir, daß ein XEON "Westmere" mit 6 Kernen und rund 2,4 GHz (das ist eine Maschine, bei der nur ein Sockel von zweien belegt wurde) sich einem Notebook-Sandy Bridge mit 2,4 GHz und vier Kernen "fast" geschlagen geben muß. Die Software, die eine Fülle von Ausgleichsrechnungen im Phasenraum berechnet und recht speicherintensiv ist, bringt die FPU der Prozessoren schon ordentlich ins Schwitzen.

Unsere Einkäufer haben (angeblich) die AMD-sche Lösung ebenso eruiert - zu Zeiten des "Westmere", sind aber davon abgekommen, da letztlich kein Opteron, auch nicht mit 16 "halben Eiern", in den von uns gestellten Forderungen einen Stich machen konnte.

Wenn man im professionellen Sektor nach der optimalen Lösung sucht, kommt es auf die Aufgabenstellung an! AMDs 16-Kerner oder 16-halbe-Eier Eunuchen haben in vielen INTEGER-lastigen Szenarien die Nase deutlich vor Intel mit ähnlich vielen oder vergleichbaren Kernen und es war klar, daß das Bulldozer-Modul-Design einen Schwerpunkt auf eben diese Szenarien gelegt hat. In Sachen FPU/Fließkommaarithmetik aber ist Intel eindeutg die bessere Wahl und wird es auch in absehbarer Zeit bleiben, solange man sich auf die CPU beschränkt.

Wir setzen zunehmend auf GPUs - und hier erweisen sich AMDs GCN als den derzeitigen Fermi deutlich überlegen. Leider vermarktet AMD die GCN Architektur eher halbherzig, was den professionellen Markt betrifft. Aber eine 500 Euro teure Karte nimmt es mit einer 3000 Euro teuren Karte auf! Leider fehlen AMDs GCN Karten ECC, um somit Langzeitrechnungen möglich zu machen. Zudem ist die softwaretechnische Plattform grottenschlecht, obwohl das OpenCL SDK vorbildlich optimieren kann.

Ich weiß nicht was AMD im Sinn hat und derzeit macht, aber irgendwas ist das gehörig verzerrt.

Vielleicht hat AMD auch nur versucht viel früher die Vision der CPU-GPU-Verschmelzung zu realisieren, denn die Modultechnik würde sich ja sehr gut eignen, in großen Massen auf einem Chip Probleme zu lösen. Aber irgendwie scheint dieser Gedankengang auch nicht logisch schlüssig, denn AMD tut herzlich wenig, um OpenCL auf CPU- und GPU-Plattformen systemübergreifend anzubieten.
 
hi, laut enermax PSU test verbraucht eurer system ca 380 watt (100%) euer 400watt 90+ nicht bissel close?
 
Zuletzt bearbeitet:
Auch wenn diese Vorstellung womöglich auf meinem subjektiven Mist gewachsen ist: Ich habe mir die angepeilten 15% Leistungszuwachs insbesondere bei der Singlethread IPC vorgestellt... Meine Spiele FPS habe ich auch schon vor meinem inner Auge ansteigen sehen. Leider werden die 15% (wenn überhaupt) nur durch lustige, spaßige und ulkige Berechnungsspielereien erreicht... Wo Bulldozer meine Hoffnungen nicht beflügelte, so tat es der Piledriver.... Aus gegebenem Anlass beflügelt meine Hoffnung nun der Steamroller. Wenn dieser, wie angeblich angekündigt, im Jahre 2014 als AM3+ Version zu haben sein wird und weitere geschätzte 10% mehr IPC aus dem Hut zaubert, wird mein jetziges System dann eauch mal verändert.

Bis es soweit ist, fahre ich noch wunderbar geschmeidig mit meinem Phenom II X6 1100T @3,8GHz auf einer 990FX Plattform weiter, die ich mir vor knapp einem Jahr wegen besagter Aufrüstwilligkeit gegönnt habe, als die Welt mit dem Bull(shit)dozer und den entsprechenden Benchmarks beglückt wurde. Mittlerweile sind die Phenom II Hexacore Chargen nahezu nicht mehr zu haben. Irgendwie bin ich froh, noch das schöne Topmodell günstig bekommen zu haben. Im Verbund mit SSD und einer AMD Radeon 7950 laufen selbst neueste Spiele butterweich und durchgehend in exzellenten FPS-Bereichen. Packen/entpacken, Encoding, Photoshoppen und allgemeiner Windowsalltag geht auch bei recht umfangreicher Multithreaderei hardcoregeil vonstatten. Eigentlich brauchts erstmal kein Aufrüsten mehr...
 
Wahrscheinlich kommt die erhoffte große Besserung bei der Single-Thread-Leistung doch erst mit Steamroller, aber das dauert einfach zu lange. :(

Selbst wenn der dann wirklich z.B. stolze 30% zulegt... Intel bleibt in den nächsten 1-2 Jahren ja nicht untätig. Haswell bringt vielleicht auch wieder "nur" 15%, aber das sind 15% mehr als die schon weit über AMD liegende Leistung eines Ivy Bridge, während Steamrollers 30% auf den vergleichsweise schwachen Bulldozer und Piledriver basieren würden. Da würde die Lücke immer noch eher größer als kleiner.
AMD bräuchte jetzt eine deutliche Verbesserung. In 1-2 Jahren brauchen sie schon ein mittleres Wunder, mindestens in der Größenordnung, wie damals die Core2 die Netburst-Pentiums deklassiert haben. Aber wie stehen die Chancen dafür?

AMD scheint seine diesbezüglichen Hoffnungen in HSA zu setzen und vielleicht könnte man damit die CPU-Leistung sogar tatsächlich um 50% oder sogar mehr steigern und die Lücke zu Intel schließen. Die Frage ist nur, ob die Entwickler mitziehen, wenn Intel nicht mitmacht. Machen die sich die Mühe für die ca. 20% Marktanteil die AMD noch hält? Da ist es wahrscheinlicher, dass Platzhirsch Intel sie überzeugt, zügig zukünftige eigene klassische x86-Befehlserweiterungen (z.B. AVX2) zu nutzen.

Ein Hoffnungsschimmer könnten die Gerüchte sein, dass beide Next-Gen-Spielkonsolen auf APUs setzen werden. Wenn das schon HSA-APUs werden, könnte die HSA-Unterstützung in Form von Spiele-Portierungen bzw. plattformübergreifende Entwicklung auch in die normalen PCs herüberschwappen. Und wenn HSA sich auf diese Art erstmal profiliert hat... wer weiß?

Aber wenn das nicht aufgeht, sehe ich wirklich schwarz. In Sachen x86 ist Intel inzwischen weiter vorraus als jemals zuvor und der Abstand wird immer größer und größer...
 
Zurück
Oben