News AMD zeigt DX11-Spiel auf „Fusion“-APU

Vielleicht nochmal anders herum aufgezäunt:

Eine heutige CPU ohne mathematischen Co-Prozessor würde gar nicht mehr mithalten können. Diese waren früher auch separate Chips und sind aus der CPU heute nicht mehr wegzudenken, da Programmierer sich darauf verlassen können dass ihre Software ihn immer nutzen kann - er sitzt schließlich auf der x86 CPU.

Und jetzt sieh mal den GPU Part einer APU nicht als Grafik sondern als Cuda/Stream Co-Prozessor, der auch die Grafikausgabe bewerkstelligen kann. Bisher konnte sich kein Entwickler sicher sein dass diese zusätzliche DX11 Einheit vorhanden ist wenn er eine Software programmiert hat. Daher wurden nur spezielle Anwendungen mit der Fähigkeit programmiert diese hoch Parallelisierten Funktionen zu nutzen. Das wird sich ändern in dem Moment wo Entwickler sich sicher sein können das solche Stream/CUDA Prozessoren vorhanden sind.

Und wenn deine APU schneller rechnet kann deine HD5870 mehr richtige Grafikarbeit in FPS leisten, als wenn deine CPU keine Stream/CUDA Prozessoren hat und z.B. Physik mit berechnen muss. Warum sind denn so viele scharf darauf Nvidia mit Ati Karten zu kombinieren und jeder Karten unterschiedliche Aufgaben zuzuweisen?

Der Vorteil der APU wird sein, dass man sich keinen Kopf machen muss welche Grafikkarte man einbaut um eine Software in vollem Umfang zu nutzen. Hier wird alles hoch integriert und mit wesentlich weniger Latenz abgearbeitet.

Diese AMD Folie zeigt das vielleicht am besten wo die reise hingehen soll. Schließlich kann man auch die Taktfrequenz nicht unendlich steigern:

amd_apu_640-jpg.189057
 

Anhänge

  • amd_apu_640.jpg
    amd_apu_640.jpg
    66,9 KB · Aufrufe: 1.059
Naja wir warten jetzt schon länger auf die "Fusion" da machen die paar Monate nichts. Dann werden wir die Leistung schon sehen. Wie in anderen News schon erwähnt, AMD verteilt schon Sample's bzw. die Sandybridge Mainboards sind schon fertig und wären wohl schon vorher Versand bereit. Ich frage mich was passieren würde wenn einer der beiden schon im Herbst ausliefern würde.
 
Es wird eventuell soweit gehen, dass CPU und Graka in einer APU verschmelzen um so mittels verschiedener Programmierungen Aufgaben auf die Graka der APU übergeben können um somit die ja eigentlich viel höheren Flops der Graka zu nutzen um irgendwas schneller fertigzuberechnen, vielleicht mithilfe von Compute Shaderbzw directx11.
Und in dieser Entwicklung sehen ich besonders den riesigen Nachteil der auf Intelzukommt, den sie anscheinend mit Larrabee versucht haben zu kompensieren, aber wahrscheinlich gescheitert sind.

Edit: Wenn schon einer im Herbst aufliefern würde, gäbe es keine Treiber/Programme/ bzw softwareseitige Unterstützung.
Ist wahscheinlich alles Beta-Status, deswegen wird das Zeug an Entwickler schon n halbes Jahr vorher ausgeliefert. Gut Ding braucht weile, was ja derzeit bei Computerspielen gar nicht mehr der Fall ist, da ist fast jedes Game zum Release Datum im Beta Status.
 
Zuletzt bearbeitet:
Vorteil APU
wärend du das diskrete OpenCL-Device noch initialisierst, die Daten kopierst und dann berechnen läst um dann die Daten wieder zurück zu kopieren, ist die APU schon lange wieder am schlafen. Auch wenn die OpenCL rohleistung der diskreten GPU deutlich höher liegt!
Der eigentliche Nachteil ist eben, dass sie "diskret" ist und somit zuviel zeit "verdrötelt" wird. Die "diskrete Lösung" ist unsinn bei vielen, immer wieder geänderten Daten/Berechnungen. Aber genau das wird gebraucht.
 
@Schaffe89
ja klar, ich hoffe, dass gerade mit 32 nm und des neuen Verfahrens + Zusammenlegung auf einer Die enorme Einsparungen drin sind. Den Clarkdale Verbrauch habe ich als Maßstab angesetzt.

Die richtige Revolution setzt erst dann ein, wenn Compute Shader und OpenCL eben wie eine Art Befehlserweiterung verbreitet und integriert ist. Überall. Dass Fusion hier punktet bezweifle ich garnicht, AMD ist schon länger Vorreiter wenn es um GPU Technologie geht, auch gegen Nvidia. Wobei man Compute Shader wiederum bisher eher Nvidia zuteilen muss. Da steht ihr GF100 dann auch weit besser da als bisherige Lösungen.
Ergänzung ()

@lalachen

ja das ist der Vorteil, indeinem beispiel ist dann OpenCL wieder überflüssig da es direkt in hardware über einen Befehlsatz zugeordnet wird. Ich will beim Programmieren nicht explizit sagen müssen "Führ das auf der GPU Einheit aus" - dass muss die CPU / APU dynamisch auslagern können.
Aber wie bereits gesagt, dies sind Spezialfälle... und der Anteil dieser auszulagerbaren Befehle dürfte vergleichsweise gering sein.

Schaffe89 schrieb:
Es wird eventuell soweit gehen, dass CPU und Graka in einer APU verschmelzen um so mittels verschiedener Programmierungen Aufgaben auf die Graka der APU übergeben können um somit die ja eigentlich viel höheren Flops der Graka zu nutzen um irgendwas schneller fertigzuberechnen, vielleicht mithilfe von Compute Shaderbzw directx11.
Und in dieser Entwicklung sehen ich besonders den riesigen Nachteil der auf Intelzukommt, den sie anscheinend mit Larrabee versucht haben zu kompensieren, aber wahrscheinlich gescheitert sind.

Ja, genau das ist ja das was APU beschreibt. OpenCL sehe ich als Zwischenschritt zwischen der Speziallösung wie "Cuda" und dem eigentlichen x86 Befehlssatz. Letzteres würe dann dire direkte Integration und die Vermischung CPU / GPU zu APU. Bisher scheint sich das noch nicht so gelohnt zu haben, dieses Gemeinsame Verwenden der Recheneinheiten über einen gemiensamen Befehlsatz. Vielleichta uch einfach deshalb, weil es nicht wirklich in die X86 Architektur passt, - dieser hohe RISK Anteil den eine GPU wiederspiegelt.

Deswegen meinte ich auch, dass der Vorteil für uns, als X86 Jünger, eventuell erst in einigen Jahren zu einem wirklichen Vorteil werden könnte. Wenn überhaupt. Wir haben kaum Anwendungen, die wirklich gebrauch von diesen RISK TFlops haben, wenngleich es auch mehr werden, was begrüßenswert ist.

Larrabee gibt es noch, nur eben nicht im als Consumer Grafikkarte. Erst gestern habe ich auf heise davon gelesen.
 
Zuletzt bearbeitet:
Die APU soll zwischen 20 und 55 W TDP haben mit Athlon II X4 und HD5670 DX11 GPU zusammen auf einem Die. Die Clarkdales bewegen sich da ja bei 73W TDP mit einer Grafik die langsamer als die derzeitige onBoard HD4200 ist und nicht mal DX10.1 unterstützt.
Das wäre dann sicherlich ein Fortschritt auch in deinen Augen ;)
 
Weltenspinner schrieb:
Auf einem Chip, besser auf einem Die. Dass was früher die CPU war,
wird nun also die APU und kümmert sich um x86, Grafik, RAM und GPGPU.
Bald wandert dann auch die Northbridge in den Chip, irgendwann
folgt auch die Southbridge und irgendwann gibt es keinen größeren
Chip mehr auf dem Mainboard und weit weniger Infrastruktur.
Die Bretter werden also kleiner und langlebiger. Alles wichtige
ist dann auf einem Chip, den man einfach wechseln kann.
Das Mainboard wird irgendwann nur noch Strom bereitstellen
und aus den Schnittstellen Anschlüsse machen müssen.
Bis es soweit kommt, zählen wir aber wohl schon das Jahr 2013.

wenn die dinger dne Preis von heute beibehalten, ok.

aber wenn sie Preis auf "cpu+graka+northbridge" erhöhen, dann gute nacht.
ein Teil davon geht kaputt und du musst den kompletten chip austauschen, obwhol der rest in ordnung ist.
 
hmm das bringst du aber gerade ein weiteres Thema auf: Die Mainboards sollten auch einiges billiger werden und viel weniger komplex.
 
Complication schrieb:
Die APU soll zwischen 20 und 55 W TDP haben mit Athlon II X4 und HD5670 DX11 GPU zusammen auf einem Die. Die Clarkdales bewegen sich da ja bei 73W TDP mit einer Grafik die langsamer als die derzeitige onBoard HD4200 ist und nicht mal DX10.1 unterstützt.
Das wäre dann sicherlich ein Fortschritt auch in deinen Augen ;)


Die Clarkdales sind auch auf wirtschaftlichkeit konzipiert, bieten das was heute und auch die nächsten 3 Jahre extrem gut ausreicht. Hohe SingelCore Performance + Multimediale Eigenschaften die für die ganze Offcie Welt vollkommen ausreichen.

Bis man wirklich Gebrauch von APU machen kann, gehen noch einige Jahre ins Land. Eine OpenCL Compute Shader Lösung kann jeder über eine HD5450 simpel nachrüsten.

Was Effizienz angeht muss AMD erstmal zu Intel aufschließen, Fakt ist dass Intel natürlich auch durch den Fertigungsvorspung hier die Nase vorn hat. Abgesehen von P/L natürlich.

20-55W TDP sind schön, aber auch noch fast ein Jahr weit weg. Vergleicht man die "Office Produktivität" einer Clarkdale CPU mit Athlon II X4 + HD 4200 so kommt Intel sehr viel besser weg. Dafür zahlt amn aber auch einen höheren Preis.

Wir können ja weiterreden wenn die von dir genannte HD5670+X4 Athlon II auf dem Markt ist - und dann vergleichen. Wenn das AMD System dann besser wegkommt sollte das nicht verwundern, 1,5 Jahre nach Clarkdale...

Den großen Vorteil von APU sehe ich heute vorallem in der Effizienz und der auch von dir genannten Komplexität des Mainboards. Kleinere, schlankere Systeme. Das ist heute marketingtechnisch viel viel wichtiger als OpenCL / Compute Shader.
Was meinst du wieso Intel Clarkdale gebracht hat, ist doch ein genialer Schachzug. Man binden den Käufer an die GPU, an den Chipsatz... verdient doppelt und dreifach. Und die günstige 45nm GPU + 32nm CPU Lösung funktioniert dabei sogar zufriedenstellend gut.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Wir können ja weiterreden wenn die von dir genannte HD5670+X4 Athlon II auf dem Markt ist - und dann vergleichen. Wenn das AMD System dann besser wegkommt sollte das nicht verwundern, 1,5 Jahre nach Clarkdale...

Du solltest es anders betrachten. Der Llano kommt rechtzeitig zum Start von Sandy-Bridge. ;)
Denn nach den mir bekannten Informationen soll der Llano mit Sandy-Bridge konkurrieren und nicht mit den Clarkdales.
 
Zuletzt bearbeitet:
Was hat denn Clarkdale mit APU zu tun dass die AMD APU 1,5 Jahre nach dem kommt?
Da wird sich Sandy Bridge dem stellen müssen. Das wird das Problem sein - du meinst eine APU wäre das selbe wie die Clarkdale CPU/GPU Zusammenkleberei. Intel dachte wohl das selbe und meinte so einen "First Mover" zu machen.

Eine APU auf einem Die ist Grundverschieden. Zudem muss AMD nicht zu Clarkdale aufholen sondern Intel zu DX11 um in der Nähe der avisierten Effizienz zu landen - das wird wohl mit Sandy Bridge noch gar nicht und mit mit Ivy Bridge in 2012 erst auf 50% Llano Niveau kommen. Und das auch nur vielleicht mit DX11.

So etwas wie Clarkdale hat AMD nicht mal in Erwägung gezogen, da es eine Eintagsfliege ist ohne irgendwelches Potential. Es fällt auf dass Intel kein kontinuierliches Produktlineup zusammen bekommt und alles wie Stückwerk aussieht. damit haben sie Leistungsmässig derzeit einen Vorsprung, doch ich denke da hat AMD etwas langfristiger gedacht und auch die Rückschläge beim verfolgen der Strategie die letzten Jahre gut weg gesteckt.
 
Complication schrieb:
Was hat denn Clarkdale mit APU zu tun dass die AMD APU 1,5 Jahre nach dem kommt?
Da wird sich Sandy Bridge dem stellen müssen. Das wird das Problem sein - du meinst eine APU wäre das selbe wie die Clarkdale CPU/GPU Zusammenkleberei. Intel dachte wohl das selbe und meinte so einen "First Mover" zu machen.
So sehe ich es auch. Wenn AMD gewollt hätte, dann hätten sie auch mal was auf die schelle "Zusammenkleben" können.
Complication schrieb:
Die APU soll zwischen 20 und 55 W TDP haben mit Athlon II X4 und HD5670 DX11 GPU zusammen auf einem Die.
Spekulierst Du darauf oder hast Du es irgendwo gelesen?
 
Auch wenn ich keine allzu große Leistung von Fusion erwarte, so wird dies doch der richtige Schritt in die Zukunft sein, die Technik wird immer kleiner, der Verbrauch sinkt immer mehr, kein langer Verbindungsweg zwischen den einzelnen Teilen. Allerdings kann man dann ja auch immer nur Cpu und Gpu gleichzeitig aufrüsten, hoffentlich gibt es da viele verschiedene Kombinationen.
 
http://www.pcper.com/comments.php?nid=8826
Clock speeds are expected to reach the 3.0+ GHz mark. AMD claims Llano will have a maximum TDP of 25-50W (remember this is a mobility processor) and will operate at voltages ranging from 0.8v to 1.3v. AMD says that the entire chip will have drastically improved power management features and clock gating to improve power efficiency.
[...]
Ontario will include a pair of x86 processing cores based on the Bobcat architecture as well a much lower performance DX11-ready GPU in a SoC (system on a chip) design with a TDP under 1 watt per core.
Ontario war die CPU auf der AvP in der Demo gelaufen ist - nicht als Video sondern gespielt.

In diesem Zusammenhang ist sicherlich auch dies interessant:
http://www.pcper.com/comments.php?nid=8867
The company also announced the formation of the AMD Fusion Fund that would be making investments in companies that display an innovative solution to take advantage of AMD Fusion APUs and their unique hardware capabilities. By simply submitting an application to AMD a software development house that can showcase the ability to drive demand for the combined CPU+GPU product could get funding to continue their work.
Auf diese Weise wird die Software wohl einen starken Push erhalten.
 
http://www.xbitlabs.com/news/cpu/di...no_Die_4_x86_Cores_480_Stream_Processors.html
Based on the die shot displayed by Rick Bergman, senior vice president and general manager of AMD’s products group, the first Fusion processor from AMD will feature 4 x86 cores that resemble those of Propus processor (AMD Athlon II X4) as well as 6 SIMD engines (with 80 stream processors per engine) that resemble those of Evergreen graphics chip (ATI Radeon HD 5800), PC3-12800 (DDR3 1600MHz) memory controller, possibly, with some tweaks to better serve x86 and graphics engines.

llano_propus_comparo-630x315-png.189080


Links ein Bild eines Athlon II X4 und rechts die Llano APU

Mehr Infos: http://tech.icrontic.com/articles/amd-in-2010-part-3-gpu-compute/
 

Anhänge

  • llano_propus_comparo-630x315.png
    llano_propus_comparo-630x315.png
    378,3 KB · Aufrufe: 887
Was ist denn der grundlegende unterschied zwischen clarkdale und sandybridge?
 
Was ist denn der grundlegende unterschied zwischen clarkdale und sandybridge?

Beim Clarkdale sind die CPU/GPU-Einheit voneinander getrennt. Bei Sandy-Bridge sitzen sie auf einem DIE -->ähnlich wie beim Llano.

@Complication

Thx

Dann waren meine Überlegungen aus Post #48 nicht ganz abwegig.
 
Zuletzt bearbeitet:
Irgendwo stand auch mal, dass Sandy Bridge die Performance der GPU erdoppelt sollte im Vergleich zu Clarkdale.
Aber wenn man fast nichts verdoppelt kommt halt immernoch fast nichts raus.
 
Zurück
Oben