Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intels „Ivy Bridge“ mit 1 GB eigenem GPU-Speicher?
- Ersteller MichaG
- Erstellt am
- Zur News: Intels „Ivy Bridge“ mit 1 GB eigenem GPU-Speicher?
r4yn3
Admiral
- Registriert
- Mai 2006
- Beiträge
- 7.692
F(r)og of War schrieb:Intel hält einen Marktanteil von ca 55% bei Grafikchips
Oi...da gießt wieder jemand Öl ins Feuer, mal sehen wie lange es dauert bis hier einer aufheult
C
Canopus
Gast
Das stimmt doch auch. Intel ist der weltweite Marktführer bei Grafikchips. Allerdings auch der weltweit größte Verlierer in Sachen Grafiktreiber.
Deswegen finde ich eh eher lustig wenn von Kinderkrankheiten gesprochen wird. Das Kind ist schon lange mit der Krankheit erwachsen geworden. Und Larabee hat eher gezeigt, dass Intel wenig aufholen kann, obwohl Geld vorhanden ist. Larabee, ein Konzept das mit dem Treiber- bzw. Softwaresupport steht und fällt.
Deswegen finde ich eh eher lustig wenn von Kinderkrankheiten gesprochen wird. Das Kind ist schon lange mit der Krankheit erwachsen geworden. Und Larabee hat eher gezeigt, dass Intel wenig aufholen kann, obwohl Geld vorhanden ist. Larabee, ein Konzept das mit dem Treiber- bzw. Softwaresupport steht und fällt.
Ein Gigabyte Grafikspeicher auf dem Chip bedeuten noch gar nichts. Und die 512 Bit Anbindung macht daraus auch keinen Überflieger. Dank Intels mangelnder Erfahrung und dem schlechten Treibersupport gehe Ich davon aus, dass AMD bis zum Erscheinen der Ivy-Bridge-CPUs eine wiederrum viel Potentere Lösung haben wird, gegen die Intel keine Chance hat. Schon jetzt sind die integrierten Grafikeinheiten von AMD denen von Intel weit überlegen.
Weyoun
Admiral
- Registriert
- Okt. 2010
- Beiträge
- 7.851
r4yn3 schrieb:@Balikon: Weiß ja nicht welche auffassung Du hast, aber bei "ermögliche die Kommunikation von CPU/GPU und dediziertem GPU-Speicher" gehe Ich davon aus, dass der Speicher nur für die GPU da ist.
Interessant wäre es dennoch ob die CPU davon nicht profitieren kann, quasi als L4 Cache oder so ^^
Nur für die GraKa.
Als L4 wäre das zu langsam, da in der Regel die Geschwindigkeit zwischen L1 über L2 und L3 bis zum eigentlichen RAM abnimmt. Und wenn dann der (2012 wahrscheinlich langsam eingeführte) DDR4 mit bis 3200 MHz mehr als doppelt so schnell ist wie der L4, macht das einfach keinen Sinn.
LG,
Martin
digitalangel18
Vice Admiral
- Registriert
- Mai 2005
- Beiträge
- 6.581
hm soviel veränderungen schon auf dem ivy bridge? wenn das wirklich zutreffen sollte, hat man aber mächtig respekt vor AMDs Fusion. für uns verbraucher kann das nur gut sein hardwaretechnisch traure ich es intel zu. am release eines halbwegs ordentlichen treibers innerhalb der nächsten 12 monate zweifel ich da eher
Zuletzt bearbeitet:
Xedos99
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.116
Aber warum Intel den GDDR2-Standard nutzen will,weiß ich auch nicht,das bremst doch nur die CPUGPU-Einheit aus.Was die leisten kann ,zeigt ja gerade Sandybridge - unverständlich,wenn man die Hersteller AMD und NV auch bei der 3D-Leistung angreifen will....oder hat Intel sich mit Nr. 3 auf diesem Gebiet abgefunden.Außerdem hat sich gezeigt,das 512 Bit -Anbindungen des GPU-Speichers kaum etwas bringen.
ATI hatte das bei den 2900ern ganz schnell wieder abgeschafft und wieder 256 Bit verwendet.Auch die 384 Bit bei NV haben noch keine nennenswerten Vorteile bewiesen außer das man genauso merkwürdigen Speicherausbau von 1536 MB verwenden kann......und das dies bei GPU-Computing im Profi- Bereich Vorteile hat,muss mir auch erstmal einer vorführen...
ATI hatte das bei den 2900ern ganz schnell wieder abgeschafft und wieder 256 Bit verwendet.Auch die 384 Bit bei NV haben noch keine nennenswerten Vorteile bewiesen außer das man genauso merkwürdigen Speicherausbau von 1536 MB verwenden kann......und das dies bei GPU-Computing im Profi- Bereich Vorteile hat,muss mir auch erstmal einer vorführen...
Weyoun
Admiral
- Registriert
- Okt. 2010
- Beiträge
- 7.851
Xedos99 schrieb:Aber warum Intel den GDDR2-Standard nutzen will,weiß ich auch nicht,das bremst doch nur die CPUGPU-Einheit aus.Was die leisten kann ,zeigt ja gerade Sandybridge - unverständlich,wenn man die Hersteller AMD und NV auch bei der 3D-Leistung angreifen will....oder hat Intel sich mit Nr. 3 auf diesem Gebiet abgefunden.Außerdem hat sich gezeigt,das 512 Bit -Anbindungen des GPU-Speichers kaum etwas bringen.
ATI hatte das bei den 2900ern ganz schnell wieder abgeschafft und wieder 256 Bit verwendet.Auch die 384 Bit bei NV haben noch keine nennenswerten Vorteile bewiesen außer das man genauso merkwürdigen Speicherausbau von 1536 MB verwenden kann......und das dies bei GPU-Computing im Profi- Bereich Vorteile hat,muss mir auch erstmal einer vorführen...
Das bremst nur die GPU, die CPU ist weiterhin über den Speichercontroller mit DDR3 (oder bereits DDR4) angebunden.
Und "nur" DDR2 bei der GPU wahrscheinlich deshalb, weil man sonst ein Kühlproblem hätte. Man stapelt mehrere RAM -Chips quasi übereinander, da kommt in der Summe einiges an Wärme pro mm² zusammen (deutlich mehr als bei gleicher Fläche auf dem RAM einer externen Grafikkarte). Mehr als 150W kann Intel ja als Gesamtleistung nicht anbieten, da es sonst zu massiven Kühlproblemen in den PC-Towern kommen würde. Somit muss man beim Grafik-RAM mit Spannungen von vermutlich <= 1V arbeiten, was mit DDR3 (noch) nicht möglich ist.
LG,
Martin
Zuletzt bearbeitet:
Voyager10
Fleet Admiral
- Registriert
- Juli 2006
- Beiträge
- 11.336
Das wird hier erklärt warum man Low Power DDR2 verwendet.
http://www.semiaccurate.com/2010/12/29/intel-puts-gpu-memory-ivy-bridge/
http://www.semiaccurate.com/2010/12/29/intel-puts-gpu-memory-ivy-bridge/
Death666Angel
Lt. Junior Grade
- Registriert
- Nov. 2009
- Beiträge
- 423
Mal schauen. Hoffe bis dahin gibt es die Möglichkeit die dedizierte GPU schlummern zu legen wenn man nur Windows fährt und nicht spielt. Ich werde wohl zu Ivy Bridge wieder gucken mein System aufzurüsten. i7 860 und 8GB RAM reichen bis dahin wohl nocht für alles. :-)
@ Xedos99
Du vergleichst hier Äpfel mit Birnen bzw. GDDR mit DDR. Auch die Speicheranbindung kann man sicher nicht 1 zu 1 mit der auf einer diskreten GPU vergleichen.
Desweiteren denke ich, dass Intel sehr wohl in der Lage ist mit ihren zur Verfügung stehenden Finanzmitteln eine ordentliche Schippe draufzulegen, sofern sie sich durch AMD dazu genötigt sehen..... bisher war das schlichtweg nicht nötig.
Zur Not kauft man sich das KnowHow einfach ein ;-)
Du vergleichst hier Äpfel mit Birnen bzw. GDDR mit DDR. Auch die Speicheranbindung kann man sicher nicht 1 zu 1 mit der auf einer diskreten GPU vergleichen.
Desweiteren denke ich, dass Intel sehr wohl in der Lage ist mit ihren zur Verfügung stehenden Finanzmitteln eine ordentliche Schippe draufzulegen, sofern sie sich durch AMD dazu genötigt sehen..... bisher war das schlichtweg nicht nötig.
Zur Not kauft man sich das KnowHow einfach ein ;-)
Zuletzt bearbeitet:
Hallo,
das ganze klingt schon etwas utopisch. Ein 512Bit SI braucht eine relativ große Fläche wegen der vielen Leiterbahnen, aber alles soll in einen Stapel DDR2 münden. Solche Stapel haben in Mobiltelefonen üblicherweise 32Bit oder 64Bit, mehr habe ich bisher nicht gesehen. Selbst wenn man 64Bit Stapel verwendet, bräuchte man immer noch 8 Stapel, die relativ viel Platz auf dem Träger benötigen (ganz zu schweigen davon, dass die Taktraten von gestapeltem Ram deutlich niedriger sind, da gibt's keine mit 1066MHz).
Wenn Intel wirklich so etwas machen würde, dann kann man davon ausgehen, dass IB einen neuen Sockel bekommen muss, weil das Gehäuse und die Trägerplatine dafür deutlich wachsen müssten.
Viel wahrscheinlicher ist, dass man einen 32Bit oder 64Bit breiten Zusatzspeicher verbaut, ähnlich AMDs Sideport. Sideport hat auf fast allen Platinen auch nur ein 32Bit Interface, weil nur ein Speicher verwendet wird, und trotzdem steigt die Leistung merklich an. Ein 512Bit SI müsste Intel erst mal aufwändig verwalten (extrem großer Speichercontroller), die Kosten wären ungleich höher und die Leistung der Grafikeinheit würde nicht ansatzweise ausreichen, um den hohen Durchsatz nutzen zu können. Viel logischer scheint es da, dass Intel einen oder zwei DDR3 Chips auflötet.
Ergo: Dedizierter Speicher für die IGP ist durchaus denkbar, aber mit 512Bit Anbindung ist sehr unrealistisch.
M.f.G.
das ganze klingt schon etwas utopisch. Ein 512Bit SI braucht eine relativ große Fläche wegen der vielen Leiterbahnen, aber alles soll in einen Stapel DDR2 münden. Solche Stapel haben in Mobiltelefonen üblicherweise 32Bit oder 64Bit, mehr habe ich bisher nicht gesehen. Selbst wenn man 64Bit Stapel verwendet, bräuchte man immer noch 8 Stapel, die relativ viel Platz auf dem Träger benötigen (ganz zu schweigen davon, dass die Taktraten von gestapeltem Ram deutlich niedriger sind, da gibt's keine mit 1066MHz).
Wenn Intel wirklich so etwas machen würde, dann kann man davon ausgehen, dass IB einen neuen Sockel bekommen muss, weil das Gehäuse und die Trägerplatine dafür deutlich wachsen müssten.
Viel wahrscheinlicher ist, dass man einen 32Bit oder 64Bit breiten Zusatzspeicher verbaut, ähnlich AMDs Sideport. Sideport hat auf fast allen Platinen auch nur ein 32Bit Interface, weil nur ein Speicher verwendet wird, und trotzdem steigt die Leistung merklich an. Ein 512Bit SI müsste Intel erst mal aufwändig verwalten (extrem großer Speichercontroller), die Kosten wären ungleich höher und die Leistung der Grafikeinheit würde nicht ansatzweise ausreichen, um den hohen Durchsatz nutzen zu können. Viel logischer scheint es da, dass Intel einen oder zwei DDR3 Chips auflötet.
Ergo: Dedizierter Speicher für die IGP ist durchaus denkbar, aber mit 512Bit Anbindung ist sehr unrealistisch.
M.f.G.
Voyager10
Fleet Admiral
- Registriert
- Juli 2006
- Beiträge
- 11.336
@ Oberst08
Hast du hier gelesen wie sich das mit dem 512bit verhält ?
http://www.semiaccurate.com/2010/12/29/intel-puts-gpu-memory-ivy-bridge/
Hast du hier gelesen wie sich das mit dem 512bit verhält ?
http://www.semiaccurate.com/2010/12/29/intel-puts-gpu-memory-ivy-bridge/
- Registriert
- Apr. 2008
- Beiträge
- 2.230
@MichaG+a97584+Weltenspinner
Achso, aber dann verlieren sie doch wieder den Vorteil, den man sich von der Zusammenlegung von CPU+GPU in einem Die erhofft hat: sehr hohe Transferraten durch die starke Integration.
Wird der Speicher nun wieder ausgelagert, muss man doch wieder "nach außen telephonieren".
Obwohl, eine echte Graka hat ihren Speicher ja auch etwas abgelegen auf dem PCB...
Grüße
jusaca
Achso, aber dann verlieren sie doch wieder den Vorteil, den man sich von der Zusammenlegung von CPU+GPU in einem Die erhofft hat: sehr hohe Transferraten durch die starke Integration.
Wird der Speicher nun wieder ausgelagert, muss man doch wieder "nach außen telephonieren".
Obwohl, eine echte Graka hat ihren Speicher ja auch etwas abgelegen auf dem PCB...
Grüße
jusaca
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
Xedos99 schrieb:Aber warum Intel den GDDR2-Standard nutzen will,weiß ich auch nicht,das bremst doch nur die CPUGPU-Einheit aus.Was die leisten kann ,zeigt ja gerade Sandybridge - unverständlich,wenn man die Hersteller AMD und NV auch bei der 3D-Leistung angreifen will....oder hat Intel sich mit Nr. 3 auf diesem Gebiet abgefunden.Außerdem hat sich gezeigt,das 512 Bit -Anbindungen des GPU-Speichers kaum etwas bringen.
Im Prinzip liegts daran, dass dies der einzig verfügbare Speicher ist, den man zur Zeit stapeln kann, hat auch was mit der Hitzenentwicklung zu tun. Warum 512bit? Weils die so zu kaufen gibt anscheinend (laut Charlie). Klar isses Overkill, aber es kostet INTEL vermutlich so gut wie gar nichts extra, als es kleiner zu machen. Da der Speicher auch relativ langsam läuft, wird in etwa die Speicherbandbreite einer 5770 erreicht, was jetzt auch wieder nicht soooo viel ist.
Oberst08 schrieb:Hallo,
das ganze klingt schon etwas utopisch. Ein 512Bit SI braucht eine relativ große Fläche wegen der vielen Leiterbahnen, aber alles soll in einen Stapel DDR2 münden.[....]
Wenn Intel wirklich so etwas machen würde, dann kann man davon ausgehen, dass IB einen neuen Sockel bekommen muss, weil das Gehäuse und die Trägerplatine dafür deutlich wachsen müssten.
Das ist ja der Witz an der Sache. Duch die Silizium Zwischenschicht (Silicon Interposer) braucht man mit dem Speicherinterface nicht über den Sockel gehen, den Sockel interessiert das quasi überhaupt nicht. Zudem ist die Sache relativ günstig, weil die Leiterbahnen aufm dem Interposer DEUTLICH kleiner ausfallen, als bei ner Graka aufm PCB (eben weil man Herstellungstechniken von der CPU benutzen kann)
Insgesamt beeindruckende Technik, es ist davon auszugehen, dass AMD an etwas ähnlichem arbeitet. Wird eine enorme Beschleunigung der iGPU bedeuten, weil die Kommunikation zwischen Speicher und GPU (und auch CPU) deutlich schneller abläuft als bisher.
Zur Verdeutlichung hat Charlie auch noch n Bild gemalt:
"Drawn by drunken monkeys in beginner art class"
Nicht maßstäblich im Übrigen Das grüne im Bild ist das grüne Plastik unterm Heatspreader was man aufn Sockel aufsetzt.
Zuletzt bearbeitet:
Fetter Fettsack
Fleet Admiral
- Registriert
- Nov. 2009
- Beiträge
- 10.216
Wird der Speicher nun wieder ausgelagert, muss man doch wieder "nach außen telephonieren".
Nope, die Wege werden sogar kürzer. Bis jetzt liegt der Hauptspeicher der integrierten GPU nämlich im System-RAM.
- Registriert
- Apr. 2008
- Beiträge
- 2.230
Mein Denkfehler...
Gut, dann ergibt das doch mehr Sinn, als ich zunächst dachte.
Mein Zweifeln bleibt trotzdem bestehen, bis Intel das offiziell bestätigt, allein schon weil das Verhältnis Grafik-Leistung/Speichermenge etwas sonderbar erscheint, zumindest im Vergleich zu AMD/Nvidia. Entweder ist das Speichermanagemant komplett bescheuert (was ich Intel nun wirklich nicht zutraue) oder aber die verplanen den noch irgendwie anders... Als riesigen LLC für die CPU vielleicht?
Grüße
jusaca
Gut, dann ergibt das doch mehr Sinn, als ich zunächst dachte.
Mein Zweifeln bleibt trotzdem bestehen, bis Intel das offiziell bestätigt, allein schon weil das Verhältnis Grafik-Leistung/Speichermenge etwas sonderbar erscheint, zumindest im Vergleich zu AMD/Nvidia. Entweder ist das Speichermanagemant komplett bescheuert (was ich Intel nun wirklich nicht zutraue) oder aber die verplanen den noch irgendwie anders... Als riesigen LLC für die CPU vielleicht?
Grüße
jusaca