News Intels „Ivy Bridge“ mit 1 GB eigenem GPU-Speicher?

1GB zusätzlich in die CPU?
Schon heutzutage ist viel Platz in der CPU mit Cache belegt, und das sind gerademal lausige 8MB.
Wie wollen die das mal eben von heut auf morgen um das 128fache Steigern ?
Selbst aktuelle GPUs wie die 500er Serie von Nvidia haben 8x 128Mbyte Chips verbaut.

Glaube eher das die sich den Speicher vom RAM abzweigen.
 
Und auch nicht in die G/CPU sondern nur daneben.
In dem Artikel steht auch etwas, dass ich persönlich für sehr plausibel halte, nämlich dass die Größe des intigrierten Speichers auch abhängig von der CPU sein könnte. Ein Core i3 bekommt als "Office"-Prozessor vielleicht "nur" 128 oder 256 mb, der Core i5 dann etwas mehr, Die "K" Modelle legen dann nochmal was drauf und die Extreme-Edition bekommt dann den vollen GB. Ist aber auch nur eine Vermutung.

Für Intel wäre eine solche Staffelung sicherlich billiger als in jeder CPU den vollen Speicher zu verbauen. Denn wer nur mal einen Film schaut und sonst nur Office-Arbeiten erledigt hat warscheinlich keinen Bedarf an einer allzu großen und somit auch teuren (+ warmen) Grafikeinheit.
Zu der Speichergröße: Gemäß des Gerüchts soll durch die Größe und das Breite Interface die geringe Speichergeschwindigkeit teilweise ausgeglichen und so die Leistung der GPU 'massiv' erhöht werden. Das Gesamtsystem würde so von kürzeren Wegen und von der Schonung des eigentlichen RAMs profitieren.

Mal sehen wie viel davon der Wahrheit entspricht.
 
Dann wird aufgerüstet,
wobei ich nicht davon ausgehe, dass ich die integrierte GPU nutzen werde. Die wird wohl immernoch viel zu langsam zum Spielen sein...
Vllt. wird es aber auch möglich sein im 2D-Betrieb die dedizierte Grakka abzuschalten und die integrierte zu nutzen, würde bestimmt einen guten idle-Verbrauch ergeben.


MfG
 
Das waere mal geil.
 
Ich sehe das auch eher skeptisch. Die Leistung als "Grafikkarte" würde man damit wohl steigern können, aber an die schnelleren Radeons/Geforces kommen sie damit trotzdem noch lange nicht ran. Für GPGPU Computing dürfte das sogar ein Rückschritt sein, denn dann muss man wieder ständig Daten vom RAM in den VRAM kopieren und zurück. Für Office und Multimedia reicht die Grafikleistung von Sandy Bridge doch bereits und für die richtigen Zocker würde die integrierte GPU trotzdem nicht reichen, warum also der Aufwand? Die Speicherbandbreite wird doch sowieso schon allein durch neue Speicherstandards wachsen.
 
So krass finde ich das 512 Bit Speicherinterface nichtmal.

Wenn man bedenkt, dass die GPU der Sandy Bridge auf bis zu 1.600 MHz / 128 Bit DDR3 zurückgreifen kann, würde ein 512 Bit Interface zu 800 MHz LP-DDR2 Speichern (1066 MHz ist bei "stacked" Chips eher unrealistisch) lediglich zur einer Verdoppelung der Speicherbandbreite führen. (51,2 GB/s gegenüber 25,6 GB/s)

Sollte sich die Anzahl der EUs auf 24 erhöhen, würde das Verhältnis schon wieder ganz gut passen. Diese Variante hat zudem den Vorteil, dass der Ring-Bus bei Speicherzugriffen von der GPU nicht mehr belastet werden würde, womit wieder deutlich mehr Bandbreite exklusiv von der CPU genutzt werden kann.

Einzig die Größe der Chips macht mir etwas Sorgen. Micron (immerhin ein enger Partner von Intel --> siehe z.B. IM Flash) sampelt derzeit 8 Gbit große LPDDR2-800-Chips in einer 128Mx64 Anordnung. Um auf die besagten 1 GB und 512 Bit zu kommen, bräuchte man also genau acht Chips.

Sofern genügend Fläche auf dem Package übrig bleibt, sollte das mittels des direkten Silicon-Interconnects durchaus machbar sein.
 
Simon schrieb:
wäre aber das 512 bit interface nicht eine verdammt teure (und auch ziemlich plumpe) methode, mehr performance aus der gpu rauszukitzeln?

zugegeben, intel kann so langsameren speicher nutzen (und stapeln, ohne dass es allzugrosse temperatur probleme gibt).
aber irgendwie erinnert mich persönlich das ganze an den guten alten zeiten des pentium 4, der mit (nicht erreichten) aberwitzigen taktfrequenzen auf wundersame weise eine hammer performance an den tag legen sollte.

imo muss sich amd da vorerst keine sorgen machen, solange weiterhin das konzept von kleinen effizienten gpu verfolgt wird.
 
Weyoun schrieb:
Nur für die GraKa.
Als L4 wäre das zu langsam, da in der Regel die Geschwindigkeit zwischen L1 über L2 und L3 bis zum eigentlichen RAM abnimmt. Und wenn dann der (2012 wahrscheinlich langsam eingeführte) DDR4 mit bis 3200 MHz mehr als doppelt so schnell ist wie der L4, macht das einfach keinen Sinn.
Mh? Der soll mit 512bit angebunden werden. Mal davon ab, dass die Latenz um ein vielfaches geringer ist. Es ist schon ein Unterschied, ob der DRAM direkt auf dem Package sitzt oder irgendwo auf dem Mainboard.

Xedos99 schrieb:
Aber warum Intel den GDDR2-Standard nutzen will,weiß ich auch nicht,das bremst doch nur die CPUGPU-Einheit aus.
Wo steht was von GDDR2? Der wird seit jahren nicht mehr produziert!
Und warum zu langsam? Die Bandbreite ist recht hoch, vereglichen zur bisherigen.

Und mit ner Grafikkarte ist das nicht zu vergleichen. Wobei dort 512bit natürlich was gebracht hat, wenn die Graka diese Speicherbandbreite auch nutzen konnte. (Nvidia GT200) Nur mit GDDR5 ist es eben nicht mehr notwendig gewesen.

marcol1979 schrieb:
1GB zusätzlich in die CPU?
Schon heutzutage ist viel Platz in der CPU mit Cache belegt, und das sind gerademal lausige 8MB.
Wie wollen die das mal eben von heut auf morgen um das 128fache Steigern ?
Au man. Es wird DRAM mit auf das Package gepflanzt und kein SRAM direkt auf dem Die. Das ist ein Unterschied wie Tag und Nacht.
 
Zuletzt bearbeitet:
Klingt schon mal sehr interessant und könnte vielleicht für die Zukunft bedeuten,
das der Ram Speicher der Grafikchips irgendwann einmal komplett in das GPU
Die abwandert.Aber was Intel da jetzt mit Ivy Bridge vor hat klingt zwar alles
schön und toll,aber ich glaube nicht,das sie mit der Technik Bäume ausreisen
werden,zumindest noch nicht mit Ivy Bridge.
 
quotenkiller schrieb:
wäre aber das 512 bit interface nicht eine verdammt teure (und auch ziemlich plumpe) methode, mehr performance aus der gpu rauszukitzeln?

zugegeben, intel kann so langsameren speicher nutzen (und stapeln, ohne dass es allzugrosse temperatur probleme gibt).
aber irgendwie erinnert mich persönlich das ganze an den guten alten zeiten des pentium 4, der mit (nicht erreichten) aberwitzigen taktfrequenzen auf wundersame weise eine hammer performance an den tag legen sollte.

imo muss sich amd da vorerst keine sorgen machen, solange weiterhin das konzept von kleinen effizienten gpu verfolgt wird.
Besonders teuer wird das denk ich nicht. SNB-E wird immerhin schon ein Quad-Channel (theoretisch 256 Bit bzw. 4 x 64 Bit) DDR3-1600 Interface haben, da ist der Weg zu einem 512 Bit Interface nicht mehr sonderlich weit. Wenn man einen Blick auf das Blockdiagramm oder dem DIE-Shot von Sandy Bridge wirft, dürfte jedem auffallen, dass der Memory-Controller vielleicht 5% der Fläche ausmacht. Man darf nicht vergessen, dass der Memory-Controller mittlerweile On-Die mit derselben Transistorbreite wie die CPU selbst gefertigt wird. Die Zeiten, wo der MC im Chipsatz (mit teilweise noch fetten 130 nm) sitzt, sind vorbei. Die hohe Integrationsdichte und die feineren Fertigungstechnologien machen nunmal gewisse Dinge möglich, die vor ein paar Jahren schlicht "zu früh" kamen.

AMD und Nvidia sind die letzten Jahre auch hauptsächlich auf dem Trip gewesen, bei ihren GPU-Generationen zur Steigerung der Performance die Anzahl der Shader-Prozessoren in schwindelerregende Höhen zu pushen - sowas kann man entfernt betrachtet auch als "plump" bezeichnen. ;-)

Irgendeinem Tod muss man schon sterben.
 
Mega lol

Eins gilt es allerdings zu beachten: Quick Sync lässt sich nur nutzen, wenn der integrierte Grafikchip aktiv ist. Das hat zwei direkte Konsequenzen. Zum einen funktioniert das Feature überhaupt nur mit dem H67-Chipsatz, der die iGPU nutzen kann, denn der P67 verlangt generell nach einer dedizierten Grafikkarte. Zum anderen darf keine zusätzliche Grafikkarte ins H67-System gesteckt werden, noch viel mehr lol weil dann die gesamte integrierte GPU mitsamt der Quick-Sync-Pipeline deaktiviert wird. Das ist in Anbetracht des erzielten Geschwindigkeitsschubs enttäuschend.
 
@Rufus feat. Ron

Integrierte und dedizierte Karten werden auch jetzt schon von den H-Chipsätzen unterstützt. Nur kann man mit den nicht Übertakten. Es wird der offene Multi der K-Serie nicht erkannt. Den offenen Multi erkennt nur die P-Reihe, die bekanntermaßen keine Grafikausgabe hat.

Das beides soll der Z dann besitzen.
 
jusaca schrieb:
Das kann ich einfach nicht glauben. Ich habe das neulich schon wo anders gelesen, aber dort wurde das einfach so hingenommen - 1GB Speicher auf dem DIE? Der würde ja - selbst bei 22nm - riesig werden. Das kann ich mir nun bei allem Respekt vor Intel nicht vorstellen.

Grüße
jusaca


vielleicht kommt ja der SlotProzessor zurück...
 
jusaca schrieb:
Das kann ich einfach nicht glauben. Ich habe das neulich schon wo anders gelesen, aber dort wurde das einfach so hingenommen - 1GB Speicher auf dem DIE? Der würde ja - selbst bei 22nm - riesig werden. Das kann ich mir nun bei allem Respekt vor Intel nicht vorstellen.
Nicht auf dem gleichen Chip. Wie du schon sagst: Das wäre zu groß und die Ausbeute zu klein. Den Grafikspeicher (mit zusätzlichen Chips) mit ins CPU-Gehäuse zu packen erscheint mir hingegen sinnvoll.
 
Floletni schrieb:
@Rufus feat. Ron

Integrierte und dedizierte Karten werden auch jetzt schon von den H-Chipsätzen unterstützt. Nur kann man mit den nicht Übertakten. Es wird der offene Multi der K-Serie nicht erkannt. Den offenen Multi erkennt nur die P-Reihe, die bekanntermaßen keine Grafikausgabe hat.

Das beides soll der Z dann besitzen.

Das verstehe ich nicht ganz was du geschrieben hast. Klar kann man auf einen H Board auch eine separate Grafikkarte nutzen. Beides zusammen geht aber nicht.

Auch kann man zB einen 2500 um 400MHz übertakten, Turbo entfällt aber dann. RAM ist fest bei DDR3 1333 eingestellt und mehr geht nicht.
 
Zurück
Oben