Interessant ist, dass man oft von Intels "Rohleistungs" Gewinne spricht, aber über die Aufgaben, die die IGP bewerkstelligen kann, oder wo die IGP ihre "Rohleistung" tatsächlich nützen kann wird nicht gesprochen.
Dann ließt man, wenn es um IGPs in CPUs geht immer von :
hmm, naja die leistung wird bescheiden bleiben. von mir aus soll es nur windows darstellen können. mehr braucht die gpu der haswell cpu nicht.
Tja, bei Intel möge das zwar lange stimmen, bei AMDs APU könnte sich das aber in den Jahren ändern. Denn was viele nicht checken. Bei CPU steht das C für Central, bei APU steht das A für Accelerated. Das heißt übrigens übersetzt, für die, die kein english können, beschleunigt.
Eventuell hätte AMD damals deren APU lieber ACPU nennen sollen, denn die Leute sehen immer noch nicht den möglichen vorteil die IGP einzuführen.
Was ist wenn Intel genau die gleiche Entwicklung eingeht, wie man damals auch AMD-64 Bit adoptiert hat ? Der Chance ist nicht gering, da die Projekte mit deren MIC nicht so erfolgreich sind, wie man es gerne hätte, und die Integration in einem kleinen Notebook bestimmt nicht einfach sein wird, verglichen zu einer GPU.
Dann werden die Leute auf einmal die IGP als CO-Prozessor verstehen, und checken, aha dei Grafikkarte kann ja mehr als nur beschleunigen.
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1366807695
Außerdem stellt die Bibliothek sicher, dass die Anwendung zumindest auf den CPU-Kernen läuft, wenn das jeweilige System die APIs C++ AMP oder OpenCL nicht unterstützt. Mit der Bereitstellung dieser Bibliothek möchte AMD die Komplexität und Entwicklungszeit reduzieren, sodass nicht länger ausschließlich wenige Experten heterogene Systeme programmieren können. C++-Entwickler sollen mit Hilfe dieser Bibliothek in der Lage sein, ihre datenparallelen Anwendungen zu beschleunigen, ohne genaue Kenntnisse über die Programmierung mit Hilfe von C++ AMP oder OpenCL haben zu müssen.
Von solchen Entwicklungen hört man bei CB nie. Da geht es eher um Extremwerte, vllt benützt man hier deshalb gerne Prime um den Verbrauch einer CPU zu messen, oder gibt sich gerne mit Angaben von Rohleistung zu frieden.
Interessanter ist ob Intels IGP von Broadwell auch dann all das beherrscht wie AMDs stärkste APU die übrigens in der PS4 verbaut ist. Bin gespannt ob dessen IGP auch 1,8 teraflop hat.
Eine PS4 APU mit Kaveri und GDDR5 oder GDDR4 würde ein Broadwell einstampfen, bin gespannt, ob Intel so schnell einen so starken decoder ect aufbauen kann.
http://www.xbitlabs.com/news/multim...ecture_Details_It_Is_All_About_the_Speed.html
The graphics processor can write directly to system memory, bypassing its own L1 and L2 caches, which greatly simplifies data sync between graphics processor and central processor. Mr. Cerny claims that a special bus with around 20GB/s bandwidth is used for such direct reads and writes.
To support the case where developer wants to use the GPU L2 cache simultaneously for both graphics processing and asynchronous compute, Sony has added a “volatile” bit in the tags of the cache lines. Developers can then selectively mark all accesses by compute as “volatile”, and when it is time for compute to read from system memory, it can invalidate, selectively, the lines it uses in the L2. When it comes time to write back the results, it can write back selectively the lines that it uses. This innovation allows compute to use the GPU L2 cache and perform the required operations without significantly impacting the graphics operations going on at the same time. In general, the technique radically reduces the overhead of running compute and graphics together on the GPU.
The original AMD GCN architecture allows one source of graphics commands, and two sources of compute commands. For PS4, Sony worked with AMD to increase the limit to 64 sources of compute commands. If a game developer has some asynchronous compute you want to perform, he should put commands in one of these 64 queues, and then there are multiple levels of arbitration in the hardware to determine what runs, how it runs, and when it runs, alongside the graphics that's in the system. Sony believes that not only games, but also various middleware will use GPU computing, which is why requests from different software clients need to be properly blended and then properly prioritized.
Das ist übrigens der Stand der Dinge bei AMD momentan. Das alles wird man aber wohl erst bei Kaveri Nachfolger sehen.
Bin gespannt, welche Techniken Intel so anbieten wird.
Wer meint das HSA keine Rolle spielt, darf mal den Artikel lesen
http://semiaccurate.com/2013/04/25/amd-renames-its-developer-summit-to-apu13/
Hier geht es nämlich um den Markt, den Intel versucht mit x86 zu beliefern. Hier geht es um Spieler, wie Samsung, ARM und co, die 2013 ihre HSA-Varianten vorstellen werden und einen gemeinsamen Standard zu definieren. Mit den jetzigen Marktanteil von Intel, sieht es eher danach aus, als ob Intel und NV irwann auch anschließen müssen. Aber wer weiß, vllt finden diese Firma eine Alternativlösung.
HSA, bremst zu mindestens keine CPU aus und soll so einfach wie möglich, dank Bibliotheken integriert werden, so dass der "fleißige" Programmierer nicht soviel umlernen muss.
Wer also glaubt, Intel ist bald dort wo AMD mit deren APU Forschung ist :/ Naja wer weiß, vllt gibt es einfach über Intels IGP Planungen zu wenig Information
Ich persönlich halte die HD4000 übrigens als gut. Das würde ich nie beschreiben. Die Performance ist jetzt für Spiele ausreichend. Selber spiele ich sogar mit einer HD 6450 auf 720p diverse Spiele. GT3 wird sicher ein tolles Erlebnis liefern. Die Frage ist nur, nicht ob sie das schneller machen als AMD, sondern ob ich da auch das selbe dafür zahle. Man kann dafür immer noch Argumentieren dass die CPU schneller ist, nur fraglich, ob der Vorteil ab Steamroller mit stärkeren single-Thread Performance spürbar ist. Was AMD also mit APU Forschung angeht, mache ich mir keine Sorgen, eher dass man Aufgrund des kleineren Budget, manche APUs, die geplant waren/sind, nicht sehen werden, weil man gleich auf den Nachfolger setzen muss, oder Zwischenprodukte einführt wie Richland.
Btw sollte den Leuten klar sein, dass Intels GT2 für AMDs APU zu mindestens keine Gefahr darstellt, besonders da broadwell nur im Notebook zu finden sein werden. Das verwundert aber auch nicht, wenn man bedenkt, dass man durch bessere Fertigung, eher bei niedrigen TDP-Klassifizierungen, viel rausholen kann, besonders wenn HSW für den Sektor designed ist.
Ich warte, bis Intel bekannt gibt, dass man für Tablets bis Desktop, nur mehr ein Chip hat, der alles abdecken soll, das erreicht man auch dadurch, dass der Desktop CPU Performance Zuwachs, sehr gering ist. Somit wird eine solche CPU kein Performance Rückschritt werden, wenn man nicht jetzt zu schnell voran geht.
Ajo ganz vergessen, Intel arbeitet ja mit Entwickler, um ähnliches mit dem l3 Cache zu machen. Damit die GPU auch auf den L3cache zugreifen kann, verwendet man "fortschrittliche" Pointer.
Ich bin gespannt, was Gamer sagen werden, wein eine APU mit einer dgpu, (egal ob NV oder AMD Grafikkarte) die Physic, KI, Schatetn usw Aufgaben übernehmen wird, da HSA keinen Unterschied macht, was verbaut ist. Das heißt, Hardware, bzw Prozessoren, die keine HSA Schnittstelle wie OpenCL ect unterstützt, kann weiter machen wie bisher.
Das heißt AMD arbeitet an einen Standard, das Intel oder andere Firmen nicht ausschließt und hat dadurch, eine höhere Chance das Konzept durchzusetzen.
Ähnliches sehen wir schon bei TombRaider mit Tress FX, das open CL unterstützt und auch auf NV, Intel läuft.