News Intels hohe Ambitionen mit der „Haswell“-Grafikeinheit

Als absoluter Casual Gamer (Minecraft etc.) kann man schon mit der HD3000 ganz gut leben, Der Haswell (fast)Vollausbau sollte dann auch schnell genug sein um MMORPGs in brauchbarer Qualität zu zocken. Ist doch super, gleichzeitig verbraucht der CPU Teil noch weniger Saft als bisher und ist bei Bedarf meilenweit vor den AMD APUs was die Performance angeht. So langsam gefällt auch mir das iGPU Konzept,
 
Zuletzt bearbeitet:
Eine Abstandsverkleinerung zu AMD vermag ich nicht zu erkennen, eher das Gegenteil. Zudem kombiniert Intel die beste Grafikeinheit nur mit den dicksten CPU´s wo sie meist unnötig wegen extra Grafikkarte sind. Das kann sich Intel bzgl. der GPU-Performance eigentlich nicht leisten.


Die Überlegenheit von AMD wird mit Kaveri im Herbst weiter zunehmen ( GCN GPU und DMA über GDDR5 oder DDR4).
 
Ich bin CPU-technisch kein Intel-Fan. (Fehlender Wettbewerb und so...) Aber was Intel die letzten 5-6 Jahre geschafft hat, ist von der Technik her schon respektabel. Früher gab es auf der Southbridge (?) einen Pseudo-Intel-Chip, der 10% der Berechnung und die Grafikverwaltung gemacht hat. Den Rest hat der Treiber der CPU aufgehalst. Mittlerweilen kann man mit den Dingern zumindest Lowlevel-Kram spielen. Der Verein hat sich wegen der Konkurrenz drehen müssen. Und hat sich gedreht. Die Treiber halte ich aber auch noch immer für eine Katastrophe. Wenn ich bedenke, wie lange ich mein NC10 hatte und wie viele Bugs in den Treibern nicht gefixt wurden... das waren ganze Spiele, die damals wegen der Bugs nicht liefen... :-S

Aktuell ist es besser geworden. Ob man aber wirklich zu AMD aufgeschlossen hat, was die Grafik angeht, wage ich zu bezweifeln. Zumindest, wenn man sich den Verbrauch mit anschaut, dürfte Intel das Gleiche an zusätzlicher elektrischer Leistung in der GPU verbraten, um AMD paroli zu bieten, was AMD zusätzlich verbraten muss, um bei der CPU mit einer Intel-Variante mithalten zu können... :-S

Regards, Bigfoot29
 
eine HD4000 soll laut intrel also doppelt so leistungsfähig wie die HD3000 sein?
Meinen die das echt ernst?

benchmarks sagen jedenfalls etwas anderes, der zuwachs kommt zum großteil einfach von den 33% mehr ausführungseinheiten...

intel geht mit so aktionen wie L4 cache für die GPU in die falsche richtung, statt sie zu integrieren wird sie immer weiter von der CPU entfernt.
viel effektiver wäre einfach ein großer schneller ZUSAMMENHÄNGENDER L2-Cache für alle kerne + GPU, also möglichst wenige cacheebenen.

einen L3-Cache braucht man jetzt nur weil der L2-Cache nicht für alle einheiten gemeinsam genutzt wird, da gefällt mir das cachedesign das Kaveri haben wird deutlich besser.
 
Zuletzt bearbeitet:
Sprechen die doch tatsächlich von einer Performance Verdopplung von der HD 3000 auf die HD 4000. In Wirklichkeit war sie knapp 1.5x so gut und knapp halb so stark wie eine HD 6570. :rolleyes:

Die HD4000 hatte 16 EUs, die GT2 wird ja wohl 20 bekommen, das heisst sie müssten die Leistung pro EU um 80% steigern, um an das selbst gesteckte Ziel - HD 6570 - zu kommen. Da der Takt kaum merklich gesteigert wurde, halte ich das für beinahe unmachbar.

Gleichzeitig soll GT3 mit einer Verdopplung der EUs nur die HD 6670, welche etwa 13~20% schneller als die HD6570 (mit GDDR5) ist knacken? Da der Takt hier im Vergleich zur GT2 angehoben wurde sollte die Leistung gegenüber der GT2 doch locker verdoppelt worden sein, selbst wenn man den L4-Cache aussenvor lässt, dies entspräche dann keiner HD 6670, sondern einer HD6770-6790.

Ich weis, dass man das nicht so 1:1 hochrechnen kann, näherungsweise sollte es doch aber hinkommen, zumal die Taktsteigerung und der L4-Cache aus der Rechnung gelassen wurden.
Kann mir das jemand erklären?
 
Dass diese "verdoppelte" Leistung natürlich nur auf dem Papier oder in einigen synthetischen Benchmarks real ist, sollte jedem klar sein.

Aber auf der anderen Seite wurde hier jetzt schon mehrfach korrekt gesagt, dass Intel in den letzten Jahren extreme Fortschritte gemacht hat. Gerade im Notebookbereich sind die Grafikchips von Intel viel schneller geworden als noch vor 4-5 Jahren, da kann man das eine oder andere Spiel durchaus wagen, wenn auch keine mega aufwändigen. Die Treiberversorgung von Intel ist meiner Meinung nach noch die größte Baustelle, ich denke einfach mal, dass Intel nicht viele Leute hat die sich auf die Optimierung von Spielen und Grafiklastigen Sachen verstehen, da dies bis vor wenigen Jahrena auch einfach noch nicht zu Debatte stand.
Außerdem ist vor allem im Notebookbereich das Problem, dass man oft nur Treiberupdates direkt vom Hersteller (sofern dieser welche bereitstellt) installieren kann. Da wäre Intel besser beraten, wenn die Updates direkt von Ihnen kämen, ähnlich wie z. B. die W-Lan-Treiber, die man der Regel direkt von der Intelseite nehmen kann.

Außderdem würde ich mir wünschen, dass Intel es ermöglichen würde, dass die Notebookhersteller VRAM auf ihren Boards plazieren können, das würde der Grafik einen enormen Schub bescheren.
 
Bei der Grafik hat die Marketingabteilung aber wieder ganz tief in die Trickkiste gegriffen.

(2nd Gen.) 2011 liefert 20x mal mehr und die (3rd Gen.) 2012 40x mal mehr. Das heißt doch wiederum, dass zwischen der 3rd und 2nd Gen. sich die Leistung verdoppelt haben muß.

Nun die Preisfrage: Bei was?
Bei der Spielleistung kommt man auf +31%
Beim Transcodierung auf +35%
WebGL zwischen 10 und 50%

----

Zur Einschätzung: GT3 entspricht HD6670/GT640

Könnte hinkommen, die theoretische Rechenleistung wäre ca. 725GFLOPS
Das wäre bei 22nm mit max. 70mm² Die-Fläche und unter 50W kein Problem (zumindest für AMD und Nvidia).
 
intel lügt einfach gerne, hab mal einen benchmark gesehen wo die HD4000 fast 60% schnellerwar, das war aber halt nur ein extrembeispiel.
normal sind es 30-40%, eben genau das was sie größer wurde.

die SDP war ja auch eine verarsche von intel, haben sie danach sogar zugegeben...
 
Ich weiß ja nicht, wie viele von euch schon mal in Verilog oder VHDL eine CPU geschrieben haben. Aber ein FPGA mit hinreichenden Ressourcen verdeutlicht bei der Entwicklung schon sehr gut, welche Vorteile eine tiefe Cache-Hierarchie hat. Gerade durch viele Kerne und Pro-Kern-Scheduler in modernen SMP Betriebssystemen ist es immens wichtig nicht bei jedem Kontextwechsel alle Daten erneut aus dem Arbeitsspeicher zu laden. (Denn dass sind wirklich grausame Penalties! ^^) Aus diesem Grund halte ich die Entwicklung dieser "Cache-Stacks" gar nicht für so unangemessen. Selbst meine minimale (aber Touringvollständige) CPU hatte L1, L2 und L2.5 Cache. (Ja, 2.5 hätte mal wohl auch L3 nennen können.) So lässt sich vielerorts einfach sehr gut Performance steigern.

-> Zu der eigentlich Thematik: Ich begrüße es sehr, dass Intel im Bereich der IGP ein bisschen Gas gibt. Denn in fast jedem Rechner (außer den Rechner der User in dieser Art von Forum) reicht eine Intel IGP, die a) günstiger ist b) ausreichende Leistung liefert und c) nicht elektrische Leistung ohne Ende (nehmen wir mal aktuelle ZeroCORE Technik von AMD raus) verbrät. Sollte die Leistung noch etwas gesteigert werden erwäge ich auch meine GPU abzustoßen. Für mich sind die Eigenschaften der IGP (sofern sie sich bewahrheiten sollten) durchaus ausreichend. :)
 
Captain_Awesome schrieb:
Das stimmt,aber mann ist auf einem guten weg.
Wenn die Daten stimmen? ist die Leistung der Internen GPU (HD 5200 GT3e) gleich zusetzen mit einer Geforce GT 640, und einer Radeon HD 6670.

MFG

Das ist alles Marieting.
Ich wäre sehr überrascht wenn dies Haswell IGP die Leistung Llano IGP erreicht.
 
Man braucht sich nicht über eine Übersicht aufzuregen, die ein Hersteller nur für Marketingzwecke erstellt.
 
man kann es aber lustig finden, und intel in foren deswegen in der luft zerreißen!

immerhin ist es offensichtlich das es erlogen ist...
 
Matzegr schrieb:
...Bei der Grafik hat die Marketingabteilung aber wieder ganz tief in die Trickkiste gegriffen...
Ja, erinnerte mich gleich an nV "wie zu guten alten Zeiten" :D:

NVIDIA Quadro4 XGL


Lightspeed Memory Architecture II

Die LMA II lässt die effektive Speicherbandbreite um bis zu 300% hochschnellen.
http://www.nvidia.de/page/pg_20020227586300.html

Und exakt mit diesen 300% wurde die neue Gen. dann auch überall beworben :D.
Ergänzung ()

Elkinator schrieb:
...intel lügt einfach gerne...
Und Du glaubst, AMD und nV etc. sind darin nicht so :freak:?
 
jumijumi schrieb:
Exakt, AMD hat sehr viel mehr Erfahrung im Grafikkartenbau und so ist es super unwahrscheinlich, dass die neuen Intel-Grafikeinheiten an die APUs von AMD rankommen.

Die GT3e hat aufgrund des eDRAM erheblich mehr Bandbreite zur Verfügung (eDRAM + DDR3 1600 DC) als jede AMD APU bzw. auch mehr als die üblichen dedizierten Low-Cost Lösungen auf DDR3 Basis. In diesem Segment werden die GPUs praktisch immer durch die verfügbare Speicherbandbreite limitiert und dementsprechend wird die GT3e selbst für AMD am Desktop schwer zu knacken sein. Mobil kann AMD das aktuell (integriert) sowieso nicht liefern (->TDP + Bandbreite limitieren).

Um der obligatorischen IGP bzw. allgemein SoC Problematik entgegen zu wirken (Mangel an Speicherbandbreite) kommen zukünftige AMD APUs mit GDDR5 Unterstützung.
 
Zuletzt bearbeitet:
Die sollten lieber mal mehr power wieder in die CPU stecken.7-10% mehr leistung als beim i7 3770K ist mal wieder ein witz.Die Grafikeinheit interessiert mich nicht.
 
Ich wäre schon einfach glücklich wenn auf meinem nächsten Notebook (wenn mein jetztiges irgendwann den Geist aufgibt) Team Fortress 2 flüssig laufen würde.
 
YforU schrieb:
Die GT3e hat aufgrund des eDRAM erheblich mehr Bandbreite zur Verfügung (eDRAM + DDR3 1600 DC) als jede AMD APU bzw. auch mehr als die üblichen dedizierten Low-Cost Lösungen auf DDR3 Basis. In diesem Segment werden die GPUs praktisch immer durch die verfügbare Speicherbandbreite limitiert und dementsprechend wird die GT3e selbst für AMD am Desktop schwer zu knacken sein. Mobil kann AMD das aktuell (integriert) sowieso nicht liefern (->TDP + Bandbreite limitieren).

Um der obligatorischen IGP bzw. allgemein SoC Problematik entgegen zu wirken (Mangel an Speicherbandbreite) kommen zukünftige AMD APUs mit GDDR5 Unterstützung.

Dann hast du nur das Problem, dass du nicht weißt wie schnell der "L4"-Chache ist.
Wenn der "nur" 50GB/s schafft lohnt der sich nicht so wirklich, viele 2133er DDR3-Rams schaffen schon 35GB/s.
 
jumijumi schrieb:
Exakt, AMD hat sehr viel mehr Erfahrung im Grafikkartenbau und so ist es super unwahrscheinlich, dass die neuen Intel-Grafikeinheiten an die APUs von AMD rankommen.
Lies dir einmal Test zu AMDs APUs durch. Außer der Top A10 haben schon alle darunter keine wirkliche Chance gegen Ivy Bridge von der Preis Leistung mal abgesehen. AMD führt klar am Desktop aber dort sind APUs egal. Wichtig sind die für Notebooks und Ultrabooks wo eine dedizierte GPU zuviel Platz und Kühlung braucht also sub 35W. Hier ist zudem noch bei Spielen die CPU Leistung wichtig da wenn man die Details zurückschraubt meist die Anforderungen an die CPU deutlich weniger sinken als an die GPU. AMDs APUs stellen hier auch das schlechtere Gesamtpaket dar. In Spielen die Intel noch gut in niedrigen Details ermöglicht liefert AMD nichts ordentliches und bie Mittleren Details sind beide unbrauchbar.
Am Desktop kann man in 100W ganz andere Leistung in die GPU packen als im Mobilen Bereich.

AMDs APUs werden gegen Haswell kein Land sehen. In der Leistung zumindest, im Preis haben sie immer noch Vorteile.

//////
Allgemein denke ich die Folien werden falsch interpretiert. Intel sieht die gelisteten GPUs als Konkurrenten nicht als ebenbürtig. Es macht dann vermutlich keinen wirklichen Sinn mehr eine 630M oder langsameres mit einer HD 4600 zu paaren. Der Nutzen steht einfach nicht für den Aufwand an Kühlung, Laufzeit, Gewicht usw.
Tests zur HD 4600 sind schon bekannt und selbst die schlägt keine 620M. Überflüssig macht sie letztere aber trotzdem. Darum geht es bei diesen IGPs eigentlich IMHO. Nicht welche dGPU man schlagen kann sondern welche man gar nicht mehr verbauen muss weil die IGP gut genug ist.

Für Desktops sind diese GPUs völlig irrelevant. Denn dGPU sind hier weder ein Platz, Kühlungs noch Energieproblem. Wer nur Filme sieht kommt mit einer HD 3000 schon prima aus und wer spielt kauft sich eine ordentliche GPU für 100€+.
 
Bevor man Intel unterstellt zu lügen, würde ich unabhängige Test abwarten. Fakt ist aber schon jetzt, dass die GPU in meinem i5 450m für Office und das Surfen ausreicht. Selbst für C&C Generals reichts. Alles andere darf aber auch weiterhin schön meine HD 5650 berechnen.
Allerdings würde ich mich freuen, wenn in Zukunft (irgendwann will ich mir ein 15" Ultrabook/Convertible angeschafft werden) die GPU noch deutlich stärker wäre und man via Tunderbolt zu Hause eine externe Grafikkarte anschließen kann.

Also, erst mal Test abwarten...
 
Zurück
Oben