News Intels hohe Ambitionen mit der „Haswell“-Grafikeinheit

CaptainCrazy schrieb:
Die HD 4000 ist aber auch bei z.B. den i5 ULV (i5-3317U) CPUs dabei. Die haben ebenfalls eine TDP von max. 17 Watt. Oder übersehe ich da irgendwas?

Ein allgemeiner Vergleich ist ohnehin schwer. AMD bringt halt recht viele GPUs pro Generation. Mir ging es jetzt nur darum, zu zeigen, dass nicht alle GPUs automatisch besser sind.

Und Intel bietet nur die HD 2500 und HD 4000 an ?

Naja machen wir ein Vergleich. Die HD 4000 vom i5 ULV :
350 MHz Basetakt, 1.05 GHz Turbo

Intel® Core™ i7-3632QM Processor 35 watt tdp
650 MHz Base Takt 1.15 GHz Turbo

Auch bei Intel takten die Chips unterschiedlich, bei AMD bekommt der Chip aber auch bei Unterschiedenheit einen anderen Namen.
Also mit welcher HD 4000 hast du den AMD ULV verglichen, der bei Notebookcheck mit Notebooks, in denen nur ein Arbeitsspeicher Slot verbaut war ?


dgschrei
Das mit dem Parallelisieren wurde schon sooft besprochen und ich hab keine lust noch mal dazu einzugehen. Und zum 100ersten mal, nur weil HSA von der igp profitiert, heißt das nicht, das die CPU wertlos wird.
Wenn ein Programm bsp FMA3 verwenden kann und eine Aufgabe erledigen kann, ist das super stimmts. Wieso soll das nicht ebenso toll sein, wenn gewisse Aufgaben durch die gpu als co-Prozessore, oder von mir aus als instruction set, abgearbeitet wird ? Erklär das doch bitte.
Manche Intel Prozessoren haben kein AES. Die können die Aufgabe auch erledigen, nur halt eben langsamer.
Für HSA wird es eben auch Aufgaben geben, die eine CPU ohne Unterstützung eben langsamer bearbeitet. Wenn es für HSA keine Aufgaben geben wird, wieso sollten, dann soviele Firmen dahinter sein, dann beantworte das doch mal bitte.

Und noch ein Zitat, von jemanden der von Intel zu AMD geweselt ist:
http://de.wikipedia.org/wiki/Gustafsons_Gesetz
Gustafsons Gesetz (auch bekannt als Gesetz von Gustafson-Barsis) ist ein Gesetz in der theoretischen Informatik, das von John Gustafson 1988 aufgestellt wurde.[1] Es besagt, dass ein genügend großes Problem effizient parallelisiert werden kann.
All das was, die gpu nicht kann, übernimmt halt eben die CPU.

Btw, da Intels IGP, auch OpenCL unterstützt, ist das ja ein gutes Zeichen. Denn es wäre super wenn jeder Intel User, seine IGP nicht deaktiviern muss, sondern bsp die Haare von Lara Croft berechnen lassen kann, ohne seine Grafikkarte damit zu foltern. Aber wenn man eben gegen die Entwicklung ist die IGP zu nutzen bitte.
Die IGPs werden an Bedeutung gewinnen. Viele glauben aber immer, dass eine Grafikarte gleich an Bedeutung verliert. Wieso nicht beides kombinieren, hier im Forum habe ich oft das Gefühl, wenn dann A oder B. Wieso sind die meisten noch der Meinung CPU + dgpu. Wieso nicht APU + dgpu, wenn man alle Ressourcen super einbinden kann. Klar, mit den jetzigen IGP-Lösung kann das noch nicht alles, aber ich bin mir sicher, lange wird es nicht mehr dauern und es hat auch ein Grund wieso Intel mit ein paar Spieleschmieden zusammenarbeit, um eben an diverse Techniken/Tools zu arbeiten.

Matzegr
Oh hab dein Beitrag jetzt erst gesehen :/ warst wohl schneller als ich xD
Die wenigsten wissen, dass wenn es um die HD4000 geht, meist die stärkste Version genommen wird.
 
Zuletzt bearbeitet:
Öh, doch? Schon 2009 wurde die Architektur im Netzt breitgetreten, ich glaub es gab sogar schon etwas vor Start die DIE-Shots im Internet ;)

Ansonsten wäre da noch der Vergleich mit dem damals allen Intel-Prozessoren überlegenen Athlon FX...Auf dessen Stufe man den Bulldozer gestellt hatte (böse Zungen munkeln man habe sich auf die Performance bezogen und konnte deswegen die Versprechen einhalten :evillol:)
 
Zuletzt bearbeitet:
und was kann AMD dafür wenn fanboys in foren durchdrehen udn etwas erfinden?

die aussagen waren eben nicht von AMD, also kann man ihnen nicht unterstellen gelogen zu haben...
 
Ich komme akt. gerade aus dem lachen nicht heraus :D.

Das sind dann wohl die "Incognito-AMDler", die es entweder nicht selbst zugeben wollen, oder ob ihrer Selbst-Hypnose nicht mehr glauben (können) :p.

Wenn man in einem fort aber auffällig immer nur einen Hersteller verteidigt, ist das wenigstens für Andere erkennbar :D.

@Tobi4s, @N.t.H etc., Danke, hat mir viel Mühe und Zeit erspart ;).

Erst wollte ich ja dem ersten Input nachgeben und all den verzapften AMD-Kohl der letzten Jahre (erst große Versprechen, und in der Realität dann auf die Nase gefallen, jedoch PR-mäßig vorher auf dicke Hose gemacht) raus kramen, aber da ich den Verlauf solcher Diskussionen nun wirklich schon reichlich kenne, verkniff ich es mir, diesem Impuls nachzugeben.

Und so weit ich noch weiß, war das beim damaligen R600 nicht anders (welcher ja 2007 raus kam, AMD ATI jedoch ein Jahr zuvor kaufte; somit zählt das herzlich wenig wenn man hier nach Totschlag-Argumenten a la "Das war noch ATI, nicht AMD" sucht).
 
Zuletzt bearbeitet:
@pipip

Es ging mir nie darum Sinn und Unsinn von HSA zu diskutieren. Aber weil du es unbedingt wieder darauf rauslaufen lassen musst:
Nein natürlich wird wenn man die IGP zum Beschleunigen benutzt die CPU nicht sinnlos. Allein schon weil irgendwo ja auch die Integer Leistung herkommen muss. Aber wenn man die IGP eben mal nicht zum beschleunigen hernehmen kann, dann fällt die Leistung wieder vollkommen auf das Leistungsniveau des CPU Teils zurück.

Darum ging es mir aber überhaupt nicht. Es ging um deine Aussage dass HSA in Software nicht mehr ferne Zukunft ist. Und das ist schlichtweg Wunschdenken.

Es gibt jetzt schon über 6 Jahre Quadcores auf dem PC-Markt. Und gerade jetzt fangen die Programme erst mal an überhaupt großflächig davon Gebrauch zu machen. Was konnte man denn bisher außer Videos encodieren und 1-2 Quadcore optimierte Games zocken denn schon als Heimanwender groß machen mit seinem Quadcore. Die Engines die jetzt kommen sind die ersten die da wirklich was umsetzen.

Also hatten wir da schon einen Software-Lag von fast 6 Jahren. Die Umstellung um Software für das HSA-Konzept fit zu machen ist mindestens genauso aufwendig, also kann man da von der Einführung bis zur großflächigen Softwareverfügbarkeit mindestens genauso lange rechnen.

Da kämen wir dann bei 2019-2020 raus. Und bis dahin hat man von HSA als Anwender erst mal so gut wie gar nix. Entsprechend ist es jetzt totaler Krampf eine APU zu kaufen, weil ja irgendwann HSA-Software kommt. Wer heute eine APU kauft, der kauft sie weil er auf die höhere Leistung in Spielen scharf ist.
Ob HSA wirklich was taugt, und echte Vorteile bringt, sehen wir dann 2020. Bis dahin wechselt jeder von uns noch mindestens einmal die CPU/APU durch. Und solange das so ist, ist Intel momentan in fast allen Bereichen die bessere Wahl. Mir fallen für eine APU 2013 nur 2 Anwendungsfälle ein in denen sie besser ist als eine Intel Lösung:
- Man ist HTPC Poweruser und will mehr Funktionen bei der Videobeschleunigung als Intel einem bietet.
- Man will mit dem Rechner zocken, kann aber aus irgendeinem Grund (sei es nun Platz im Gehäuse, Geld, oder was auch immer) nicht auf eine dedizierte GPU setzen.
 
Zuletzt bearbeitet:
und was soll bitte an dem bild von AMD nicht stimmen?
die angaben zur gamingleistugn sind vielleicht etwas übertrieben, aber sonst stimmt es ziemlich.

und nochmal:
wo hat AMD derartig gelogen?

mir einfach irgend etwas vorsetzen, wo nichts unsinniges steht bringt nichts.
 
Zuletzt bearbeitet:
dgschrei
Ja, dann solltest du mal auf TomsHardware über HSA lesen. AMD ist einer der großen Firmen, die MutliCore Prozessoren als erstes zum Konsumer gemacht habe. Sie haben genug Fehler gemacht, und das ist sicherlich auch ein Grund, wieso so lange Quadcore kaum ein Mehrwert waren.
Doch, eins ist sicher, ohne Athlon II x4 um 100 Euro, hätten sich die Quadcore bestimmt nicht so schnell verkauft. Bei Intel kosten die Quadcore immernoch um die 150 euro.
Bei MultiCore/Threads, muss man ja sehr aufwendig arbeiten und die Aufgaben ordentlich aufteilen.

Doch wie schaut es bei HSA an. Hier will man das ja ganz anders handhaben. AMD hat oft genug davon gesprochen, dass man HSA so sehr vereinfachen will, wie C++. Das heißt, man nimmt einfach diverse Funktionen aus Biblotheken und das wars.
Das ist wesentlich leichter, als das Bsp Multicore und kann meiner Meinung nach nicht 1 zu 1 verglichen werden. Aber falls ich mich Irre bitte um Aufklärung.

Ich stelle mir eben HSA in Perfektion so vor.
if (HSA){
funktion_IGP_Gestenerkennung(x);
.
.
.}

Falls keine HSA vorhanden wird, geht es halt im Quellcode weiter.

Wer heute eine APU kauft, der kauft sie weil er auf die höhere Leistung in Spielen scharf ist.
Jop, das habe ich aber oben schon erwähnt und nie abgestritten. Die jetztigen APUs von AMD sind auch momentan im Nischenmarkt und sind nicht das was man eigentlich noch nicht das was man unter eine APU verstehen sollte.

Naja, man wird es eh sehen. Mal bis November warten, dann wird man sowieso über HSA hören.


xrayde
Sry dass ich das sage, aber du bist bis jetzt immer voll unnötig gewesen.

Und so weit ich noch weiß, war das beim damaligen R600 nicht anders
Ich füge zu
Und so weit ich noch weiß, war das beim damaligen Intel Knights corner nicht anders
Und es gibt genug, was Intel auch in den Sand gesetzt hat (RISC). Davon wird hier aber nicht geredet.
Weiters, ist dein Post meiner Meinung einfach nur respektlos, nicht mehr und nicht weniger, aber wenn man nichts zu sagen hat, muss man sich halt über andere lächerlich machen.

Vieles, was AMD übrigens über FX gesagt hat, hat sich zwar nicht im Desktop bewahrheitet, das lag aber daran, dass der FX ganz klar für Server-Anwendung optimiert ist und hier sehr wohl einiges leisten konnte.
https://pics.computerbase.de/3/2/7/7/1/1-1080.697575448.jpg
Folie schon mal genau angeschaut ?
hier steht nirgendwo , in was der FX 1,5 genau schneller ist. Es steht lediglich Performance. Aber mir ist klar, dass Gamer sofort ans Zocken denken, weil das eben deren Maßstab ist.

Und so weit ich noch weiß, war das beim damaligen R600 nicht anders (welcher ja 2007 raus kam, AMD ATI jedoch ein Jahr zuvor kaufte; somit zählt das herzlich wenig wenn man hier nach Totschlag-Argumenten a la "Das war noch ATI, nicht AMD" sucht).
Vllt hatte man deshalb davor NV kaufen wollen. Tatsache ist aber, dass man damals meinte, ATI/AMD wird nie wieder zu NV aufholen. Erinnert ein bisschen an heute.

Interessiert für den PC Markt null weil wir hier von PC Software reden und nicht von PS4 Games und Handy-Apps.
Btw, falls es viele noch nicht aufgefallen ist. Für viele ist ein Tablet bereits ein vollwertiger Computer. Das ist auch der Grund wieso manche soviel Geld für ein Tablet ausgeben. Mit Hybriden, werden bald die Leute mehr und mehr ihre Office Aufgaben am Tablet ausführen und Daten bsp auf einer Cloud abspeichern. Somit zieht zwar beim Desktop eine CPU mit bescheidener gpu. Bei Tablets kann man aber viel von igp profitieren und diverse "Apps" wirst du schon bald auf Windows8 und Nachfolger wieder finden.
 
Zuletzt bearbeitet:
xrayde schrieb:
Und so weit ich noch weiß, war das beim damaligen R600 nicht anders (welcher ja 2007 raus kam, AMD ATI jedoch ein Jahr zuvor kaufte; somit zählt das herzlich wenig wenn man hier nach Totschlag-Argumenten a la "Das war noch ATI, nicht AMD" sucht).

Die Vorlaufzeit bis zum Erscheinen einer neuen GPU-Generation soll also nicht nur nur ein Jahr betragen, sondern AMD soll innerhalb dieser Zeitspanne auch noch in der Lage gewesen sein, die Entwicklung maßgeblich zu beeinflussen und hat das nur versäumt?

Das nenne ich nun wirklich eine verzerrte Wahrnehmung der Wirklichkeit. :D

BTT:

Die Überschrift ist ein bißchen daneben. Die einzigen Ambitionen, die Intel mit der GT3e-Lösung verfolgt sind : Wie bekomme ich einen OEM dazu, mir mehr Geld zu geben?
Bspw. dadurch, daß er sich den Einsatz einer dedizierten GPU erspart und mir von Ersparten was abgibt, indem er zu einer teureren Haswell-Variante greift. Allein daran wird der Erfolg der GT3e gemessen werden.
Bei "meiner ist größer" wird in der Industrie immer der Geldhaufen betrachtet...
 
Zuletzt bearbeitet von einem Moderator:
Was soll die Pseudodiskussion hier? Wer eine integrierte Grafikkarte hat möchte gerne Strom sparen und auch Geld. Für kleinere Spiele reicht es doch und für Games wie WoW auch (ab HD4000 bei Intel zumindest, z. T. schon 3000). Alles andere wäre kontraproduktiv wegen zuviel Hitze bzw. zuviel Leistungsaufnahme, dafür brauchts eh noch kleinere Strukturen und die werden wohl vor 2015 nicht wirklich kommen (15 nm ~). Für Notebooks ists halt einfach klasse weil lästiger Kühlerlärm wegfallen kann und Strom gespart werden kann.
Für alles andere kauft man sich eine richtige Grafikkarte :-).
 
Mr.Seymour Buds schrieb:
Besonders toll werden die "CPU internen" GPUs auch in Zukunft nicht sein. Denn dafür gibt es einen einfach Grund: Wärme. Um leistungsfähige Grafik produzieren zu können, müsste die Chip Oberfläche immer weiter wachsen.

Nehmen wir mal ne Radeon 7790 als Mittelklasse GPU. Die könnte man auch als iGPU integrieren. @22nm sind wir bei ~100mm² und ~70W, dazu 4 Ivy Kerne plus Rest -> 210mm² Gesamtfläche und eine TDP von 130W.

Früher hat man auch nen EE 965 mit 130W TDP und ner Die-Fläche von 162mm² gekühlt bekommen.

Nehmen wir an die GT3 kommt wirklich auf 6670 Niveau, sprich ~750 GFLOPS, dann wäre noch lange nicht das Ende der Fahnenstange erreicht. Ne 7790 mit 1790 GFLOPS wäre theoretisch auch als iGPU (bei einer Desktop CPU) machbar, siehe Rechnung oben.

Mich würde es nicht wundern wenn Intel bei Broadwell dann eine 7770 leistungsmäßig anpeilt.
 
FortissimoIV schrieb:
@duskkk: Na, dann hätte ich doch gerne mal nur einen einzigen Benchmark präsentiert, in dem eine Intel HD4k gegen die Grafikeinheit einer ähnlich teuren AMD APU einen Stich sieht. Schon gegen die alten Llano-APUs ging da nix, Trinity hat's schlimmer gemacht und nach dem, was man bisher von Richland so liest, wird AMD mit dieser neuen Gen zumindest was die Grafikleistung angeht, weiter Kreise um Intel ziehen...

Wie gesagt - Intel CPU mit HD4k und eine ähnlich teure AMD APU. Äpfel und Birnen nützen da nix.
Es gibt keine ähnlich teure AMD APU. Die kosten doch alle weniger als die Core i5 selbst. Um Preis geht es im Notebooksegment nicht wirklich bei den CPUs.
Was zählt ist die realisierte Leistung bei gegebenem Formfaktor und hier zählt primär das wo keine dedizierte GPU Platz hat. Denn wenn so eine Platz hat ist es ohnehin egal. Niemand geht bei Notebooks nach Preis wenn er etwas Gamingleistung will. Da herschen keine Desktopgesetzte. Man sucht sich die Mobilität aus die man haben will und dann die Leistung die man haben kann. Wer Preis/Leistung will der wird immer ein tendenziell billigeres Notebook mit dedizierte GPU wählen. Man bekommt AMD Notebook + dGPU für weniger als das billigste Core i5 Notebook selbst ohne jeder dGPU.

Vergleich docheinmal auf notebookcheck die Gaming Benchmarks der HD 4k mit denen einer 7600G und 7500G. Die 7660G ist die einzige die noch klar vorraus liegt. Alle anderen liefern bei CPU lastigen Spielen manchmal sogar weniger ab und ansonsten meist Spielbare Ergebnisse bei den gleichen Einstellungen (in der Regel bloß niedrig bis mittel bei Spielen). Für die ULV Tests muss man die Notebook Tests selbst vergleichen.
Wenn die HD 4600 und die 5100 kommen sehe ich Richland verlieren.

Und man sollte auf die Spielebenchmarks und nicht die Synthetischen achten da letztere oft die CPU nicht so stark repräsentieren wie es bei neueren Spielen in niedrigen bis mittleren Einstellungen (und das sind die welche flüssig möglich sind) nötig ist. Da sich die CPU und GPU die selbe TDP teilen und der Turbo da jeweils die richtige Balance finden muss ist wichtig was hier am Ende dasteht. Was bringt es mir bei Starcraft wenn ich noch AA aktivieren kann mit wenig Performanceeinbruch aber jedes größere Gefecht die fps völlig unabhängig der GPU in die Knie zwingt. Wenn AMDs Trinity im Turbo auf 700 Mhz gehen kann hilft das nichts wenn die nötige CPU Leistung soviel TDP einfordert, dass der GPU schlicht zuwenig Spielraum bleibt.

AMDs APUs sind am Desktop Meilen vorraus im Notebooksegment dort wo IGPs wirklich nützlich sind, sind sie gerade mal noch nicht hinten. Kreise drehen sie um niemanden.
 
notebookcheck kann man aber nicht ernst nehmen, dir wurde eh schon erklärt warum...
 
Toll finde ich bei Intel das schnelle Umschalten der Anzeigenkonfig im Desktop-kontextmenü!
 
Naja, egal wie man das jetzt sieht, weder AMD noch Intel kommen mit ihrer integrierten Grafikeinheit nicht annähernd an die Next-Gen Spielekonsolen oder auch dem PC mit dezidierter Grafikkarte im heutigen Performance-Level heran. Für Gamer ist das alles total unatraktiv.
Für normale Anwendungen wie Texte schreiben, Tabellen und Präsentationen erstellen, Filme kucken oder auch im Internet surfen langts wohl auch mit der heutigen Intel-Lösung.
Deswegen werden die auch ohne unsere Diskussion gute Umsätze machen - Ist leider so.
 
dgschrei schrieb:
Interessiert für den PC Markt null weil wir hier von PC Software reden und nicht von PS4 Games und Handy-Apps.

Und da stell ich dir zwei ganz einfache Fragen:
Wie viele der Programme die du heute nutzt, können 100% von einem Quadcore profitieren?
Wie viele Jahre haben wir jetzt schon Quadcores?

Und genau das gleiche wird bei HSA auch wieder der Fall sein. Sogar noch extremer weil die Quadcores wenigstens von AMD UND INTEL kamen, aber HSA nur von AMD gepusht wird.

Damit HSA funktioniert, müssen die Programme einen Workload haben, der tatsächlich nahezu grenzenlos parallelisierbar ist. Dann ist der potentielle Speedup tatsächlich irrsinnig groß.

All diese Probleme kann AMD nicht "wegzaubern" die von dir immer angeführte Programmbibliothek kann nur ein paar Tools anbieten die den Entwicklern zumindest das Setup solcher Systeme erleichtern.
AMD müsste um diese Probleme zu lösen schon die komplette Informatik auf den Kopf stellen. Aber ich habe bisher von AMD noch keine Folie gesehen in denen sie behaupten, dass die APUs nicht mehr einer von Neumann Architektur entsprechen. Wahrscheinlich weil sie Angst hatten, dass bei so einer Folie einige der Anwesenden von Lachen ersticken ;).

dgschrei schrieb:
Darum ging es mir aber überhaupt nicht. Es ging um deine Aussage dass HSA in Software nicht mehr ferne Zukunft ist. Und das ist schlichtweg Wunschdenken.

Es gibt jetzt schon über 6 Jahre Quadcores auf dem PC-Markt. Und gerade jetzt fangen die Programme erst mal an überhaupt großflächig davon Gebrauch zu machen. Was konnte man denn bisher außer Videos encodieren und 1-2 Quadcore optimierte Games zocken denn schon als Heimanwender groß machen mit seinem Quadcore. Die Engines die jetzt kommen sind die ersten die da wirklich was umsetzen.

Wer heute eine APU kauft, der kauft sie weil er auf die höhere Leistung in Spielen scharf ist. (Fehlt da ev. was?)

Also ich muss pipip schon recht geben. Es gibt schon länger genug Programme (meine nicht Spiele) die von MultiCores profitieren. Als Heimanwender merkst du davon natürlich nur bedingt was, denn: wie viele Programme verwendest du denn, die überhaupt davon profitieren würden? Diverse Zip-Tools können das schon ne Weile während du bei Skype und Co nicht wirklich "Leistung" benötigst.
Bei Spielen hingegen ist es jedoch so, dass doch fast jedes Spiel für Konsolen entwickelt wird, und nur hier und da optimiert wird. Dadurch wird einerseits "kaum" Leistung benötigt, andererseits wenig auf gute MultiCore Leistung geachtet. Weiters verwenden auch nur ein Bruchteil wirklich fordernde Engines. Ein unglücklicher Umstand für PC-Spieler aber die Absatzzahlen und Portierungskosten sind nun mal ein wichtiges Kriterium für das Management (auf Wege beschränkt dagegen zu steuern gehe ich jetzt mal nicht ein). Das zumindest wird sich nun mit den neuen Konsolen ändern. Worauf ich also hinaus will: das hat nichts damit zu tun das es allgemein dauert bis sich sowas durchsetzt, sondern einfach ob die Nutzung notwendig ist, dabei Kosten/Nutzen Rechnung aufgeht, das auch auf möglichst vielen Systemen einsetzbar ist usw. Wenn jetzt doch die PS4 HSA verwenden wird was glaubst du wie schnell das ganze dann Verwendung finden wird.

Hakubaku schrieb:
Was soll die Pseudodiskussion hier? Wer eine integrierte Grafikkarte hat möchte gerne Strom sparen und auch Geld. Für kleinere Spiele reicht es doch und für Games wie WoW auch (ab HD4000 bei Intel zumindest, z. T. schon 3000). Alles andere wäre kontraproduktiv wegen zuviel Hitze bzw. zuviel Leistungsaufnahme, dafür brauchts eh noch kleinere Strukturen und die werden wohl vor 2015 nicht wirklich kommen (15 nm ~). Für Notebooks ists halt einfach klasse weil lästiger Kühlerlärm wegfallen kann und Strom gespart werden kann.
Für alles andere kauft man sich eine richtige Grafikkarte :-).

Passendes Zitat als Einleitung für meinen eigentlichen Kommentar zu dem Thema: Ich wollte die GPU eig. mit all ihren netten Features nutzen (neben dem Thema Strom sparen), nur hat sich leider raus gestellt dass es mir keinesfalls möglich ist den Monitor über 120Hz laufen zu lassen (da ich das Bild einfach wesentlich angenehmer als 60Hz empfinde). Zwar wusste ich, dass es offiziell nicht möglich sein wird aber war gewillt diverse inoffizielle Wege zu testen. Weiters ist ja die Encodierungs- Funktion z.Z. noch immer wenig brauchbar. Wird kaum unterstützt und wenn hat es qualitative Nachteile. D.h. für mich bleibt nur mehr die Anwendung bei der Decodierung längeren oder problematischen 2D Filmmaterials (da ich bei kurzen Szenen nicht extra die Anzeige Wechsel/die Bildfrequenz ändere und 3D Vision natürlich nicht mit der Intel läuft)

Also meine Hoffnung dass Intel nun auch mal 120Hz unterstützt und zudem Boards mit bezahlbarem Dual-Link DVI oder besser DisplayPort 1.2 erscheinen.
 
Doch wie schaut es bei HSA an. Hier will man das ja ganz anders handhaben. AMD hat oft genug davon gesprochen, dass man HSA so sehr vereinfachen will, wie C++. Das heißt, man nimmt einfach diverse Funktionen aus Biblotheken und das wars.
Das ist wesentlich leichter, als das Bsp Multicore und kann meiner Meinung nach nicht 1 zu 1 verglichen werden. Aber falls ich mich Irre bitte um Aufklärung.

Solche Bibliotheken für bestimmte Aufgaben gibt es doch sowohl für Multithreading als auch für GPGPU schon seit Jahren . . . . Bringen tut es einem nur in vielen Fällen nichts, wenn man nicht gerade eine Standardaufgabe parallelisieren will.

Mein aktueller Wissenstand dazu ist, dass HSA die Barrieren zwischen der CPU und GPU Programmierung durch folgendes einzureissen versucht:
1. Die CPU- und GPU-Architektur so zu homogenisieren, dass man auf einer GPU die selben Features wie auf der CPU (wie Rekursion oder Allokation) und den selben Speicherraum mit der CPU verwenden kann.
2. Das Programmieren zu homogenisieren. Dies soll durch 1. und dadurch erreicht werden, dass man sowohl GPU als auch CPU in einer Hochsprache wie Cpp programmieren kann.
3. Das Programmieren durch Abstraktion zu vereinfachen, so dass man sich nicht mehr Gedanken darüber machen muss, ob man nun für eine CPU oder für eine GPU programmiert. Dadurch soll unter anderem jeder Programmierer ein hetereogenes System programmieren können, und man würde keinen speziellen GPU-Programmier mehr benötigen.

Somit sind das in etwa die ähnlichen Sachen, welche in CUDA bereits von Anfang an gemacht werden. Der Hund liegt allerdings bei Punkt 3. vergraben. GPUs sind zu speziell dafür, als dass man sie abstrakt programmieren könnte und gleichzeitig ihre Performance gut ausnutzen kann. Deshalb versucht CUDA nur soweit es sinnvoll ist zu abstrahieren und warnt explizit an diversen Stellen der Dokumentation davor, dass man dies und jenes berücksichtigen muss. OpenCL hingegen versucht abstrakter zu sein und alles unter einen Hut zu bringen; davon hat man allerdings meist keinerlei Vorteile, da man dennoch die GPU-Spezifikationen studieren muss, wenn man Performance haben will. Zusätzlich hat man in OpenCL, damit die Abstraktion überhaupt möglich ist, die harten Beschränkungen von allen unterstützten Devices im Standard drinnen. Unter anderem deshalb war und ist OpenCL weitgehend eine Totgeburt.

Wie genau HSA Punkt 3. genau handhaben wird, wird sich jedoch allerdings noch zeigen. Allerdings bin ich dabei etwas skeptisch, da man hier bereits afaik eine starke Abstraktion angekündigt hat.

Lange Rede kurzer Sinn: Eine einfache abstrakte Programmierung von GPUs wäre zwar schön, jedoch ist sie technisch, wie es HSV wohl versuchen will, nicht performant machbar. Allerdings kann es hierbei auch sein, dass ich mich mit meinen Aussagen über HSV zum Teil etwas irre, da ich nur vor längerer Zeit mal das Whitepaper dazu überflogen habe.
 
Zuletzt bearbeitet:
warum diskussion?
es ist eine tatsache, eine HD4000 ist eben nicht doppelt so schnell wie eine HD3000...

aber lustig wie viele fans das hier schönreden, komisch das jeder benchmarkt etwas anderes sagt...
 
Zurück
Oben