News Intels hohe Ambitionen mit der „Haswell“-Grafikeinheit

xrayde schrieb:
Und Du glaubst, AMD und nV etc. sind darin nicht so ?
zeig mir ein beispiel wo AMD so arg gelogen hat...
Ergänzung ()

warum "abwarten"?

das eine HD4000 nicht doppelt so schnell wie eine HD3000 ist, ist schon lange belegt...

und ob der L4-Cache großen nutzen bringt muß sich erst zeigen, ich glaub es jedenfalls nicht.
 
duskkk schrieb:
Lies dir einmal Test zu AMDs APUs durch. Außer der Top A10 haben schon alle darunter keine wirkliche Chance gegen Ivy Bridge von der Preis Leistung mal abgesehen. AMD führt klar am Desktop aber dort sind APUs egal. Wichtig sind die für Notebooks und Ultrabooks wo eine dedizierte GPU zuviel Platz und Kühlung braucht also sub 35W. Hier ist zudem noch bei Spielen die CPU Leistung wichtig da wenn man die Details zurückschraubt meist die Anforderungen an die CPU deutlich weniger sinken als an die GPU. AMDs APUs stellen hier auch das schlechtere Gesamtpaket dar. In Spielen die Intel noch gut in niedrigen Details ermöglicht liefert AMD nichts ordentliches und bie Mittleren Details sind beide unbrauchbar.
Am Desktop kann man in 100W ganz andere Leistung in die GPU packen als im Mobilen Bereich.

AMDs APUs werden gegen Haswell kein Land sehen. In der Leistung zumindest, im Preis haben sie immer noch Vorteile.

//////
Allgemein denke ich die Folien werden falsch interpretiert. Intel sieht die gelisteten GPUs als Konkurrenten nicht als ebenbürtig. Es macht dann vermutlich keinen wirklichen Sinn mehr eine 630M oder langsameres mit einer HD 4600 zu paaren. Der Nutzen steht einfach nicht für den Aufwand an Kühlung, Laufzeit, Gewicht usw.
Tests zur HD 4600 sind schon bekannt und selbst die schlägt keine 620M. Überflüssig macht sie letztere aber trotzdem. Darum geht es bei diesen IGPs eigentlich IMHO. Nicht welche dGPU man schlagen kann sondern welche man gar nicht mehr verbauen muss weil die IGP gut genug ist.

Für Desktops sind diese GPUs völlig irrelevant. Denn dGPU sind hier weder ein Platz, Kühlungs noch Energieproblem. Wer nur Filme sieht kommt mit einer HD 3000 schon prima aus und wer spielt kauft sich eine ordentliche GPU für 100€+.

Ich meinte eigentlich die Grafikleistung. Dass die Intel-CPUs in den meisten Anwendungen (im Moment noch) mehr CPU-Leistung haben wissen wir doch alle.
 
~DeD~ schrieb:
im Artikel fehlt noch der Hinweis, dass intel die Leistung der HD4600 im gegnsatz zur HD4000 verdoppeln müßte um an die 630 und die 6570 heranzukommen. Wenn überhaupt ist dazu eventuell die HD5200 in der Lage.
Naja der Abstand zu den DDR3 Verisonen ist nicht ganz so groß. Intel wird sicherlich nicht die schnellste 6570 mit GDDR5 als Gegenspieler ausgesucht haben.
Trotzdem bleibts ein wenig unrealistisch.

xen0x schrieb:
Intel vergleicht sich mit einer zwei Jahre alten Low-Budget Grafikkarte und freut sich dann auch noch über das "erreichte"?
Das ist mal Getrolle auf ganz hohem Niveau.
Der Turks auf den 6570/6670 war erstens Mainstream, darunter waren noch Caicos und Cedar. Und zweitens wurden in HD7000 Serie die Turks umgelabelt. 7570 ist genau das gleiche 6570. Was kann Intel dazu wenn AMD 2 jahre alte Chips in der Kategorie auf dem Markt hat.

tom130 schrieb:
"hohe Ambitionen" in der Grafiksparte hat Intel doch schon seit Jahren, nur passieren tut irgendwie nichts, kommt mir zumindest so vor.
Da scheinst du was verpasst zu haben. Seit Sandybridge tut sich da ne Menge. Nur da man auf nem extrem niedrigen Niveau angefangen hat, ist man absolut immer noch nicht auf nem sehr hohem Niveau.

Tobi4s schrieb:
Die HD4000 hatte 16 EUs, die GT2 wird ja wohl 20 bekommen, das heisst sie müssten die Leistung pro EU um 80% steigern, um an das selbst gesteckte Ziel - HD 6570 - zu kommen. Da der Takt kaum merklich gesteigert wurde, halte ich das für beinahe unmachbar.
Zumal ja die EUs die gleichen wie bei Ivybridge sein sollen. :evillol:


Matzegr schrieb:
Das heißt doch wiederum, dass zwischen der 3rd und 2nd Gen. sich die Leistung verdoppelt haben muß.

Nun die Preisfrage: Bei was?
Bei der Spielleistung kommt man auf +31%
Beim Transcodierung auf +35%
WebGL zwischen 10 und 50%
Alles zusammen addiert haste diene 100% drin. :D
Die Marketingabteilungen aller Hersteller können doch immer kreativ rechnen.

jumijumi schrieb:
Dann hast du nur das Problem, dass du nicht weißt wie schnell der "L4"-Chache ist.
Wenn der "nur" 50GB/s schafft lohnt der sich nicht so wirklich, viele 2133er DDR3-Rams schaffen schon 35GB/s.
Selbst die für eDRAM langsamen 50 GB/s wären viel. Denn deine 35 GB/s des DDR3 darf sich die IGP mit der CPU teilen.
rico007 schrieb:
Ich wäre sehr überrascht wenn dies Haswell IGP die Leistung Llano IGP erreicht.
Im Desktopbereich wird man es wohl mit der GT2 nicht schaffen. Im mobile Bereich mit der GT3e wird man das wohl ziemlich locker schaffen.
 
Zuletzt bearbeitet:
jumijumi schrieb:
Exakt, AMD hat sehr viel mehr Erfahrung im Grafikkartenbau und so ist es super unwahrscheinlich, dass die neuen Intel-Grafikeinheiten an die APUs von AMD rankommen.

Vom Preis wollen wir erst gar nicht reden ;)
 
Interessant ist, dass man oft von Intels "Rohleistungs" Gewinne spricht, aber über die Aufgaben, die die IGP bewerkstelligen kann, oder wo die IGP ihre "Rohleistung" tatsächlich nützen kann wird nicht gesprochen.

Dann ließt man, wenn es um IGPs in CPUs geht immer von :
hmm, naja die leistung wird bescheiden bleiben. von mir aus soll es nur windows darstellen können. mehr braucht die gpu der haswell cpu nicht.

Tja, bei Intel möge das zwar lange stimmen, bei AMDs APU könnte sich das aber in den Jahren ändern. Denn was viele nicht checken. Bei CPU steht das C für Central, bei APU steht das A für Accelerated. Das heißt übrigens übersetzt, für die, die kein english können, beschleunigt.
Eventuell hätte AMD damals deren APU lieber ACPU nennen sollen, denn die Leute sehen immer noch nicht den möglichen vorteil die IGP einzuführen.

Was ist wenn Intel genau die gleiche Entwicklung eingeht, wie man damals auch AMD-64 Bit adoptiert hat ? Der Chance ist nicht gering, da die Projekte mit deren MIC nicht so erfolgreich sind, wie man es gerne hätte, und die Integration in einem kleinen Notebook bestimmt nicht einfach sein wird, verglichen zu einer GPU.
Dann werden die Leute auf einmal die IGP als CO-Prozessor verstehen, und checken, aha dei Grafikkarte kann ja mehr als nur beschleunigen.
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1366807695
Außerdem stellt die Bibliothek sicher, dass die Anwendung zumindest auf den CPU-Kernen läuft, wenn das jeweilige System die APIs C++ AMP oder OpenCL nicht unterstützt. Mit der Bereitstellung dieser Bibliothek möchte AMD die Komplexität und Entwicklungszeit reduzieren, sodass nicht länger ausschließlich wenige Experten heterogene Systeme programmieren können. C++-Entwickler sollen mit Hilfe dieser Bibliothek in der Lage sein, ihre datenparallelen Anwendungen zu beschleunigen, ohne genaue Kenntnisse über die Programmierung mit Hilfe von C++ AMP oder OpenCL haben zu müssen.
file.php


Von solchen Entwicklungen hört man bei CB nie. Da geht es eher um Extremwerte, vllt benützt man hier deshalb gerne Prime um den Verbrauch einer CPU zu messen, oder gibt sich gerne mit Angaben von Rohleistung zu frieden.
Interessanter ist ob Intels IGP von Broadwell auch dann all das beherrscht wie AMDs stärkste APU die übrigens in der PS4 verbaut ist. Bin gespannt ob dessen IGP auch 1,8 teraflop hat.
Eine PS4 APU mit Kaveri und GDDR5 oder GDDR4 würde ein Broadwell einstampfen, bin gespannt, ob Intel so schnell einen so starken decoder ect aufbauen kann.

http://www.xbitlabs.com/news/multim...ecture_Details_It_Is_All_About_the_Speed.html
The graphics processor can write directly to system memory, bypassing its own L1 and L2 caches, which greatly simplifies data sync between graphics processor and central processor. Mr. Cerny claims that a special bus with around 20GB/s bandwidth is used for such direct reads and writes.

To support the case where developer wants to use the GPU L2 cache simultaneously for both graphics processing and asynchronous compute, Sony has added a “volatile” bit in the tags of the cache lines. Developers can then selectively mark all accesses by compute as “volatile”, and when it is time for compute to read from system memory, it can invalidate, selectively, the lines it uses in the L2. When it comes time to write back the results, it can write back selectively the lines that it uses. This innovation allows compute to use the GPU L2 cache and perform the required operations without significantly impacting the graphics operations going on at the same time. In general, the technique radically reduces the overhead of running compute and graphics together on the GPU.

The original AMD GCN architecture allows one source of graphics commands, and two sources of compute commands. For PS4, Sony worked with AMD to increase the limit to 64 sources of compute commands. If a game developer has some asynchronous compute you want to perform, he should put commands in one of these 64 queues, and then there are multiple levels of arbitration in the hardware to determine what runs, how it runs, and when it runs, alongside the graphics that's in the system. Sony believes that not only games, but also various middleware will use GPU computing, which is why requests from different software clients need to be properly blended and then properly prioritized.
Das ist übrigens der Stand der Dinge bei AMD momentan. Das alles wird man aber wohl erst bei Kaveri Nachfolger sehen.
Bin gespannt, welche Techniken Intel so anbieten wird.

Wer meint das HSA keine Rolle spielt, darf mal den Artikel lesen
http://semiaccurate.com/2013/04/25/amd-renames-its-developer-summit-to-apu13/
Hier geht es nämlich um den Markt, den Intel versucht mit x86 zu beliefern. Hier geht es um Spieler, wie Samsung, ARM und co, die 2013 ihre HSA-Varianten vorstellen werden und einen gemeinsamen Standard zu definieren. Mit den jetzigen Marktanteil von Intel, sieht es eher danach aus, als ob Intel und NV irwann auch anschließen müssen. Aber wer weiß, vllt finden diese Firma eine Alternativlösung.
HSA, bremst zu mindestens keine CPU aus und soll so einfach wie möglich, dank Bibliotheken integriert werden, so dass der "fleißige" Programmierer nicht soviel umlernen muss.

Wer also glaubt, Intel ist bald dort wo AMD mit deren APU Forschung ist :/ Naja wer weiß, vllt gibt es einfach über Intels IGP Planungen zu wenig Information :)

Ich persönlich halte die HD4000 übrigens als gut. Das würde ich nie beschreiben. Die Performance ist jetzt für Spiele ausreichend. Selber spiele ich sogar mit einer HD 6450 auf 720p diverse Spiele. GT3 wird sicher ein tolles Erlebnis liefern. Die Frage ist nur, nicht ob sie das schneller machen als AMD, sondern ob ich da auch das selbe dafür zahle. Man kann dafür immer noch Argumentieren dass die CPU schneller ist, nur fraglich, ob der Vorteil ab Steamroller mit stärkeren single-Thread Performance spürbar ist. Was AMD also mit APU Forschung angeht, mache ich mir keine Sorgen, eher dass man Aufgrund des kleineren Budget, manche APUs, die geplant waren/sind, nicht sehen werden, weil man gleich auf den Nachfolger setzen muss, oder Zwischenprodukte einführt wie Richland.

Btw sollte den Leuten klar sein, dass Intels GT2 für AMDs APU zu mindestens keine Gefahr darstellt, besonders da broadwell nur im Notebook zu finden sein werden. Das verwundert aber auch nicht, wenn man bedenkt, dass man durch bessere Fertigung, eher bei niedrigen TDP-Klassifizierungen, viel rausholen kann, besonders wenn HSW für den Sektor designed ist.
Ich warte, bis Intel bekannt gibt, dass man für Tablets bis Desktop, nur mehr ein Chip hat, der alles abdecken soll, das erreicht man auch dadurch, dass der Desktop CPU Performance Zuwachs, sehr gering ist. Somit wird eine solche CPU kein Performance Rückschritt werden, wenn man nicht jetzt zu schnell voran geht.

Ajo ganz vergessen, Intel arbeitet ja mit Entwickler, um ähnliches mit dem l3 Cache zu machen. Damit die GPU auch auf den L3cache zugreifen kann, verwendet man "fortschrittliche" Pointer.

Ich bin gespannt, was Gamer sagen werden, wein eine APU mit einer dgpu, (egal ob NV oder AMD Grafikkarte) die Physic, KI, Schatetn usw Aufgaben übernehmen wird, da HSA keinen Unterschied macht, was verbaut ist. Das heißt, Hardware, bzw Prozessoren, die keine HSA Schnittstelle wie OpenCL ect unterstützt, kann weiter machen wie bisher.
Das heißt AMD arbeitet an einen Standard, das Intel oder andere Firmen nicht ausschließt und hat dadurch, eine höhere Chance das Konzept durchzusetzen.
Ähnliches sehen wir schon bei TombRaider mit Tress FX, das open CL unterstützt und auch auf NV, Intel läuft.
 
Zuletzt bearbeitet:
obi68 schrieb:
Und alle die nur CPU-Power brauchen gehen leer aus? Im mobilen und Office-Bereich interessant, für Gamer nur Ballast.

Wieso gehen die leer aus, Intel bietet doch Xeons mit 10 Kernen und mehr an?
 
jumijumi schrieb:
Ich meinte eigentlich die Grafikleistung. Dass die Intel-CPUs in den meisten Anwendungen (im Moment noch) mehr CPU-Leistung haben wissen wir doch alle.
Das mein ich aber auch. Die Grafikleistung bzw. eben die Spieleleistung von AMDs APU im mobilen Sektor ist ziemlich genauso schlecht wie die der HD 4000 im Ivy Bridge. Das AMDs APU hier etwas taugen ist nämlich leider nicht der Fall und im Grunde nur mehr ein Gerücht das viele einfach als gegeben hinnehmen ohne zu prüfen.
Wenn beide den selben 22nm Prozess hätt säh es vermutlich besser für AMD aus und der Top A10 schlägt die Hd 4000 gerade noch aber naja was am Ende zählt ist wieviel der Gelegenheitsgamer damit anfangen kann und da sind die APUs nicht wirklich toll.
In der CPU Leistung wächst soundso kein Kraut gegen Intel aber auch bei der Spieleleistung sind AMDs APUs gleich mies wenn sie man den Desktop ignoriert wo Intel mit dem selben Takt und der gleichen Leistung auftritt wie im Mobilen AMD dagegen deutlich mehr den GPU Turbo aufdrehen kann.

AMD ist limitiert durch 32nm, die schlechte CPU wodurch je niedriger man in der TDP geht der Grafikturbo nicht zu stark ausschlagen kann da sonst nicht genug CPU Leistung im Spiel übrig bleibt und durch die Bandbreite weshalb schnellerer DDR3 wirklich viel nutzt bei den APUs.
Alles zusammen sind die APUs wirklich schwach und Intel kann man sagen wird mit der HD 4600 auch gegen Richland gewinnen. Die 5200 wird außer Reichweite von AMD liegen.
Ich rede hier rein von der Spielleistung wo Intel eigentlich nur durch Treiber hinterherhinkt.
 
nein, auch im mobilem bereich ist die GPU bei AMD DEUTLICH leistungsfähiger als eine HD4000...
 
Das mein ich aber auch. Die Grafikleistung bzw. eben die Spieleleistung von AMDs APU im mobilen Sektor ist ziemlich genauso schlecht wie die der HD 4000 im Ivy Bridge.
vergleichst du jetzt eine AMD APU mobile, mit einer HD 4000 Desktop ?
Selbst dann ist der A8 ne spur schneller. Bei den Notebooks ist die HD 4000 verglichen zu mobilen APUs zwischen A6 und A8. Im Desktop ist die HD 4000 gerade mal so schnell wie der Desktop A6.

Tatsache ist eher, dass die AMD APUs im Notebook meist schlechter abschneiden und kaum schneller sind als die HD4000. Das liegt aber daran, dass selten dual Channel verbaut ist. Haswell wird aber dann auch die Probleme wie AMD haben, wenn die OEM dann auch nicht dual Channel bestücken.

AMD ist limitiert durch 32nm, die schlechte CPU wodurch je niedriger man in der TDP geht der Grafikturbo nicht zu stark ausschlagen kann da sonst nicht genug CPU Leistung im Spiel übrig bleibt und durch die Bandbreite weshalb schnellerer DDR3 wirklich viel nutzt bei den APUs.

Ein A10 5750 hat eine IGP die mit dem Baseclock auf 533 Mhz und einem Turbo besitzt der auf 720 Mhz geht, das alles unter eine TDP von 35 watt.
Ein A10 5700 Trinity Desktop APU hat einen Base Takt von 633Mhz und einen Turbo von 760 Mhz.
Der neue A10 unterstützt jetzt auch DDR 1866 wie die Desktop Trinity. Davor konnte man beim A10 Trinity mobile nur 1600 Mhz DDR verwenden.
Der Unterschied zum A10 Desktop sind also 100 Mhz Baseclock und nur mehr 40 Mhz beim Turbo !
Das heißt Richland könnte da doch eine Steigerung zum jetztigen Trinity sein. Beim A10 5700 können sich wenigsten einige ein Bild machen.
Die CPU ist sicherlich trotzdem (aufgrund des niedrigen Taktes) hinterher.
Das die GT2 auf dem Desktop schneller Taktet, aber zwischen A8 und A10 einordnet, wird, die GT2 Intel nicht schneller sein, als der A10.
BTW Intels GT2 unterstützt nur DDR 1600 oder ?. Man darf sich, dann mal die Trinity Tests anschauen. Dann sieht man dass DDR 1600 ab A8 Desktop schon limitiert.

Wenn also AMDs APU 22nm hätte, wie du es als Vergleich dargestellt hast, wäre Intel ziemlich chancenlos bei der IGP, die CPU wäre wesentlich konkurrenzfähiger, würde man bsp den A10 mit 3 ghz baseclock anbieten.
 
Zuletzt bearbeitet:
@duskkk: Na, dann hätte ich doch gerne mal nur einen einzigen Benchmark präsentiert, in dem eine Intel HD4k gegen die Grafikeinheit einer ähnlich teuren AMD APU einen Stich sieht. Schon gegen die alten Llano-APUs ging da nix, Trinity hat's schlimmer gemacht und nach dem, was man bisher von Richland so liest, wird AMD mit dieser neuen Gen zumindest was die Grafikleistung angeht, weiter Kreise um Intel ziehen...

Wie gesagt - Intel CPU mit HD4k und eine ähnlich teure AMD APU. Äpfel und Birnen nützen da nix.
 
Elkinator schrieb:
nein, auch im mobilem bereich ist die GPU bei AMD DEUTLICH leistungsfähiger als eine HD4000...

Ahja, ist das so? Bis zur 7500G sind die AMD GPUs sogar schwächer als eine HD 4000. Erst aber 7600G wirds etwas besser....

http://www.notebookcheck.com/Mobile-Grafikkarten-Benchmarkliste.735.0.html

Die unteren AMD APUs sind leider schlechter als ihr Ruf. Zumindest im Moment. Der riesige Leistungsvorsprung ist leider nur eine Legende. Einzig die Treiber unter Windows sind vielleicht noch ein Grund für die kleinen AMD-APUs.
 
braucht dafür aber auch ihre Energie. Im Endeffekt zählt doch sowieso nicht nur wer hat die stärkere CPU oder GPU, das Gesamtpaket aus Leistung der CPU und GPU, die Energieaufnahme im mobilen Bereich und natürlich der Preis machen nachher beim Käufer die Entscheidung aus. Ich persönlich sehe n der Entscheidung die GT3 nur als BGA auszuliefern einen Fehler, aber das kann sich ja im Laufe der Vertriebszeit noch ändern.
 
jumijumi schrieb:
Dann hast du nur das Problem, dass du nicht weißt wie schnell der "L4"-Chache ist.
Wenn der "nur" 50GB/s schafft lohnt der sich nicht so wirklich, viele 2133er DDR3-Rams schaffen schon 35GB/s.

DDR3 2133 gibt es nur am Desktop. Die mobilen Richland APUs unterstützen zwar teilweise DDR3 1866 aber ob damit überhaupt ein einziges Gerät auf den Markt kommt ist fraglich. Die Hersteller verbauen nun mal gerne Massenware und das ist DDR3 1600.

DDR3 1600 DC -> 25,6GB/s für CPU und GPU.

Intels eDRAM welcher zusätzlich zum DDR3 Speicher verfügbar ist wird um die 64GB/s liegen. Der kann zwar nicht den ganzen GPU Speicher ersetzen (da nur 128MB) aber die Relationen sind hier schon deutlich erkennbar.
 
CaptainCrazy
Ahja, ist das so? Bis zur 7500G sind die AMD GPUs sogar schwächer als eine HD 4000. Erst aber 7600G wirds etwas besser....
Ist das dein ernst. Das ist ja die IGP von den 17 watt ULV Varianten von AMD.
Weiters geh weg mit notebookcheck. Ich hab schon sämtliche Notebooktests gelesen die mit einem A8 17 watt tdp ULV getestet haben. Alle Werte die sie von dieser APU von diversen Notebooktest haben, basieren auf Noetbooks die nur single channel verbaut haben. Bsp das Lenovo mit dem A8 ULV, der sogar nur einen Ram-Slot hat. Die A8 ULV igp ist wesentlich schneller, als die Tests von notebookcheck zeigt. Die HD 7500 G ist ca so schnell wie die HD4000 mobile, der A8 ist mit dual channel schneller.
Die CPU ist natürlich hinterher und nur mit Celeron-Pentium zu vergleichen.

Ich persönlich sehe n der Entscheidung die GT3 nur als BGA auszuliefern einen Fehler, aber das kann sich ja im Laufe der Vertriebszeit noch ändern.
Der Grund ist eher, dass man da nicht die TDP sprengen möchte. Immerhin wird man die GT3 mit L4 cache ab 45 tdp sehen. Alle anderen GT3 ohne L4 sollen drunter liegen.

GT3 wird besitmmt erst dann interessant, wenn Intel den Tock liefert und einen shrink bringt.

YforU
OEM werden wohl umdenken müssen, wenn die neuen Intel IGP auch dual channel brauchen, und erheblich mehr Performance daraus holen können.
Anderseits ist es sowieso egal. Für viele Endkunden, ist eine HD 5000 eine HD 5000 auch wenn nur ein Ram-Chip verbaut ist.
FertigPC und Notebooks, werden immer irwie eine Form von Kundenverarsche sein. Das hat man übrigens nicht nur bei IGPs sondern auch GPUs, denn auch potente GPUs werden bei AMD und NV oft gerne mit GDDR3 verbaut und das ist bekanntlich schwerer zu tauschen, als die Ram-Chips
 
Zuletzt bearbeitet:
@pipip
Ich meinte im Desktopmarkt, wo auch TDPs von > 45W kein Problem darstellen.
 
duskkk schrieb:
Das mein ich aber auch. Die Grafikleistung bzw. eben die Spieleleistung von AMDs APU im mobilen Sektor ist ziemlich genauso schlecht wie die der HD 4000 im Ivy Bridge.

Ein Trinity 4600M mit einer TDP von 35W ist laut Anandtech 21% schneller (gemittelt über 7 Spiele) als ein i7-3720QM (HD4000) mit einer TDP von 45W.

Bei Spielen bekommt man also mehr Performance bei weniger Stromverbrauch obwohl Intel schon bei 22nm ist und AMD noch bei 32nm rumdümpelt.

Richland 5750M wird nochmal ~15% auf den Trinity 4600M draufsetzen.

Bin schon gespannt was Haswells GT3 leisten wird. Vor allen der Unterschied zw. GT3u und GT3e.

Die geleakten Benchmarks der HD 4600 waren ja eher ernüchternd.
 
Leo.16 schrieb:
@pipip
Ich meinte im Desktopmarkt, wo auch TDPs von > 45W kein Problem darstellen.

Ja sicher. Das ist kein Problem, sofern man das bezahlen will.
http://geizhals.de/intel-core-i7-3770t-cm8063701212200-a770304.html
Natürlich gibt es auch billigere, aber da hast du keine HD4000 drin.
Auch Intel kann nur mit Wasser kochen. Deshalb haben die CPUs mit der schnelleren Grafik im Haswell eine höhere TDP als die Ivy Bridge.
ULV CPUs sind zu teuer für Desktop. Wenn ich eine 35€ CPU haben kann, die leitungsmäßig reicht, werde ich keine ULV CPU für ein Vielfaches kaufen, nur um ein bisschen Strom zu sparen.
 
Das mit der APU als Co Prozessor höre ich jetzt auch schon 2 Jahre und wird hier weiter als die Lösung der Zukunft angepriesen. Mein erster Desktop nach dem Amiga 500 war ein AMD und der hatte einen Co Prozessor.
Außerdem ist HSA Zukunftsmusik und Haswell ist jetzt. Heute zu vermuten, dass Intel hier irgend etwas verschläft (wo es doch im gesamten Internet steht), zeigt doch nur, das man hofft Intel verschläft etwas und der AMD Stern scheint dadurch wieder etwas heller. Wenn man schon von Co Prozessor spricht, muss man auch so objektiv sein und die Nachteile erwähnen. Ich wandele bis heute noch keine Videos mit der iGPU um, weil ich mehr wert auf Qualität als auf Geschwindigkeit lege.
Welchen durchbrechenden Vorteil HSA bei einem nullachtfünfzehn Desktop Rechner für dem Massenmarkt bringen soll, der Internet, Youtube und Facebook macht verstehe ich noch nicht.

Der i3-2100 mit der HD2000, der schon einige Zeit im Rechner meiner Frau werkelt, macht alles was der soll. Wofür hier mehr GPU Leistung von Vorteil sein soll verstehe ich auch nicht.
Im mobilen Bereich reicht mir und vielen anderen auch eine HD4000 voll aus, was das ein oder andere Spiel erlaubt. Das man hier weiter entwickelt ist aber doch positiv oder täusche ich mich da.

Was mich etwas aufregt:
Wenn es um CPU Leistung geht, dann hört man von der AMD Seite, dass die CPU eh schon schnell genug ist und man die Intel Leistung überhaupt nicht braucht. Sobald aber von APU/iGPU gesprochen wird dann kann es gar nicht genug Leistung geben. Ja was denn nun?
 
das was halt gerade in die Argumentation passt.

@pipip
ich meinet Vollausbau HAswell und nicht IvyB
 
Zurück
Oben