News Intel: Ausblick auf zukünftige Grafikchips

Das man nicht einfach so in einen Markt einsteigen kann und sich für den Erfolg auch keine Zeit läßt, dass wurde schon zur Genüge bewiesen. Ich finde man sollte abwarten, ich halte es für wenig realistisch, dass die ersten Generationen Intels diskreter Grafiklösungen die etablierten Anbieter überflügeln wird. Aber gute Chancen das in Nachfolgegenerationen zu schaffen haben sie alle Male. Ich bin gespannt!
 
Tiu schrieb:
Man sollte mal nicht so tun, als hätte Intel gar keine Ahnung.
Bisweilen ist Intel immer noch der größte Grafikchiphersteller überhaupt.
Und auch deren onboard Grafiklösungen können (je nach Chip) mit DX 7,8,9 umgehen.
Auch ist man an unzähligen Forschungen, Entwicklungen sowie Patenten direkt oder indirekt beteiligt, hat entsprechende Firmen aufgekauft oder gegründet, Entwickler abgeworben oder selbst großgezogen.
In einem kann man sich sicher sein, wenn Intel sich was vornimmt, dann wird das schon werden. Selbst wenn die erste Generation noch ein wenig floppen sollte, weil man Spiele z.Zt. eben auf the way it´s meant to be played (NV) oder eben evtl.auch ATI seitig programmiert. Es kommt nicht nur auf die Hardware an, sondern man braucht auch ein Team das die Hersteller von Spielen unterstützt. ;)

Bis 2009 bzw Ende 2008, hat Intel auch noch unmengen Zeit um Entwickler abzuwerben, zu entwickeln und Technologien aufzukaufen. Außerdem fängt Intel nicht bei 0 an, sonder hat eine sehr solide Basis für Grafikchipentwicklung, deshalb sollte es in 2 Jahren denke ich möglich sein etwas entsprechendes auf die Früße zu stellen. Den 32nm Fertigungsprozess kauf ich aber Intel auch nich wirklich ab. Wenn ich ehrlich bin, mach ich mir aber weniger Sorgen um die hardwareseitige Umsetzung eines HighEnd Intel Grafikchips, als mehr um die softwareseitige Entwicklung von Drivern und die Ünterstützung von Grafiktechnologien.
 
xp_home schrieb:
Das mit den 32 nm Fertigung ist nicht realistisch.

Das kann man so nicht wirklich sagen, resp. mit Sicherheit wissen. GPUs und CPU sind im Moment immernoch zwei Paar Schuhe. Ob sich das bis 2008/2009 ändert ist fraglich.

Wenn man vorwärts macht, könnten 32nm aber dennoch überaus realistisch sein. (2009)

Und ich finde es ist nur zu begrüssen, wenn am Grafikkartenmarkt mehr Konkurrenz herrscht.

mFg tAk
 
ich denke Konkurenz belehbt auch bei den Grafikkarten das Geschäfft. Intel würde nicht in den Bereich vorstossen wenn Sie keine Chance sehen würden... Ich für meinen Teil bin sehr gespannt auf das Ergebniss...
 
wir wissen ja auch nich, wie lange intel schon an den gpu's arbeitet, sprich bis 2009könnten da auch 5 jahre vergangen sein. Und evtl. halten sie's wie microsoft mit dem zune
 
Ihr bezieht euch dann wirklich nur auf die diskreten Grafiklösungen. War es nicht so -meine es hier mal auf CB gelesen zu haben- dass so ziemlich mehr Bildausgaben aus einem Intelchip kommen? Dominieren die auf dem Sektor nicht sogar?

Das mit den mehrfachen Kernen find ich gut, es haben sich hier schon öfters Leute gefragt ob denn so was nur mit SLI und Co möglich ist. Mehr Kerne können ja nicht schaden, aber so wie es bisher realisiert wurde ... ist für mich nicht wirklich elegant gelöst. Ich bin gespannt.
 
Mal gespannt wie sich das entwickeln wird. Ein dritter Mitstreiter im High-End Grafikkartenmarkt kann dem Konsumenten nur recht sein. Und ich persönlich freue mich ja jetzt schon auf den Tag, an dem nVidia auf dem Boden liegt. R.I.P. 3dfx :D
 
tAk schrieb:
Das kann man so nicht wirklich sagen, resp. mit Sicherheit wissen. GPUs und CPU sind im Moment immernoch zwei Paar Schuhe. Ob sich das bis 2008/2009 ändert ist fraglich.
Wenn man vorwärts macht, könnten 32nm aber dennoch überaus realistisch sein. (2009)
[...]

Mit DX10 sind die GPUs ein Stück näher an die CPUs dran als bisher. Aber natürlich sind es immer noch zwei paar Schuhe. Ich hab mal gehört, dass eine GPU sogar eine kompliziertere Architektur hat. ;) Du glaubst doch selber nicht, dass eine (High-End) GPU von Intel in kleineren Strukturbreiten kommt, als eine High-End CPU. :evillol:

Btw., dass mit 32nm war nicht von Intel bekannt gegeben worden, sondern eine reine Spekulation der VR-Zone. ;)
 
Wie meinen die das mit 16 Kernen? Ich meine heutige DX 10 Grakas haben eine Unifiesd-Shader Architektur, wo dann 96 Shader (oder mehr?) verbaut sind. Also mein Problem, ich kann mit der Bezeichnung nichts anfangen, also was Intel da will.

Naja aber das Intel mit der Fertigungsstruktur Vorteile hat ist schon klar, aber ATI dürfte das weniger betreffen als Nvidia, da ATI ja nun AMD gehört und dann AMD mit Sicherheit nicht das Nachsehen haben will gegenüber Intel und dann die neuen Radeons vielleicht schneller als Nvidia's Geforce in kleineren Fertigungsstrukturen hergestellt werden. AMD hat ja dank Zusammenarbeit mit IBM scchon Erfolge in diesem Bereich. Vielleicht kommen dann die Radeons nicht gleichzeitig mit Intels Grakachips in 32 nm (als Bsp.) auf den Markt aber deutlich schneller als sonst, wenn ATI heuet noch eigenständig wäre und die Graka-Hersteller weiter bei 80 nm (was ja heute auch noch nicht weit verbreitet ist) bleiben, bzw. nur langsam voran kommen.
 
Also wenn Intel keinen ähnlichen Weg geht wie ATI oder NVidia könnte da sogar gut etwas drauß werden. Man beachte, dass die Verlustleistung der kommenden Grafikkarten immer höher wird und die großen Grafikkartenhersteller keine Gedanken darüber machen.
 
Ich bin froh dass endlich mal ein Hersteller Multicore GPU's anspricht, und nicht ewig diesen Taktwahnsinn ähnlich Pentium 4 mitmacht. Klar braucht man dazu neuere Fertigungsprozesse nur ATI und Nvidia produzieren schon seit jahren auf 90nm und haben den Endkunden fest im Würgegriff.

Denn Alternativen gibt/gab es nicht und sie konnten weiterhin ihre 90nm Fabriken verwenden. Und bei jedem neuen Chip wird einfach nur am Takt geschraubt. Der erste Ansatz von Nvidia mit der 7950GX2 war schon ein erster, etwas teurer Vorgeschmack. Wahrscheinlich müssen wir wieder bis ende diesen Jahres auf eine doppel G80 warten die dann so um die 700€ Kosten wird und zwei monate später vom G90 eingestampft wird. Vielleicht übertrumpft ja 2009 eine Intel Grafikkarte endlich die Playstation 3.
 
jared schrieb:
Hier wird immer wieder gesagt, das Intel die Technik einfach kauft. Von wem denn? Wenn ein anderer Entwickler mit ähnlichem Knowhow wie nVdia oder Ati am Markt wäre, hätten wir schon lange eine dritten großen Grafikkartenhersteller.

"Imagination Technologies" oder die "BitBoys" vielleicht? Das waren alles Theoretiker. In einer schöneren, idealen Welt wären deren Chips klasse gewesen, aber die jeweilige Idee hat sich idR schon ein oder zwei Jahre nach ihrem Entstehen als eine Sackgasse erwiesen. Der Kyro war schon so gut wie tot, als klar wurde, das man mit dessen "revolutionären" Rendertechnik kein Hardwar T&L oder Pixelshader implementieren kann. So war für diese Chips schon bei DX6 schluss.

Und Intel selber? Die haben in der Anfangszeit mal versucht zwei oder drei generationen lang mit den großen der Branche mitzuhalten, konnten aber nicht mal an Matrox vorbei ziehen. Als der Riva TNT(2) kam, hat Intel die Enwticklung der dedizierten Grafikchips eingestellt und sich auf onBoard konzentriert. Und seit nVisdia und Ati hier mitmischen, sehen die GMA-Chips von Intel zumindest technisch auch kein Land mehr. Nur durch die pure Marktmacht können die mit ihren Mainboards so viele davon absetzen. Immerhin hatte Intel mit seiner aktuellen Chipsserie (GMA 3000 glaub ich) lange Zeit (Treiber?-)Probleme um überhaupt an seiner eigene Vorgänger-Serie vorbei zuziehen.

Nur mit Geld und Marktmacht holt man 10 Jahre Entwicklung wirklich nicht auf und die Chipinternen-Pipline optimierund und was weiß ich alles, hüten nVidia und Ati natürlich wie ihren Augapfel.

Vollmundige Versprechungen den ultimativen Chip auf den Markt zu bringen haben schon viele gemacht (S3, SiS, Matrox) aber halten konnten sie es nie. Und "16 Chips" alleine heist gar nichts. Wenn jeder davon nur eine Pipeline hat, kommen am ende auch nur 16 pipes raus. Die Grafikchiparchitektur ist sowieso in sich schon massiv parrallel. Bei nVidia sind es bis zur GF7xxx sog. "Quadpipes" gewesen. Und die GF7900 GTX hatte davon 6 Stück, pracktisch also 6 identische Chipsteile zu je 4 Pipes =24 Pipes. Im prinzip kann man dazu genau so sagen, es wären 6 Chips in einem. Bei der 7900 GS wurde dann einfach eine solche Quadpipe wegelassen und beim 7600 gar 3. Das Design ist damit praktisch genau so flexibel.

Also abwarten und Teedrinken. Auch Intel muss erstmal beweisen, dass den großen Worten auch große Taten folgen.

Technologie von Imagination Technologies findet man an jeder Ecke, die erstellen zwar nur Designs aber durchaus sehr erfolgreich. In vielen Mobilgeräten sind MBX Chips enthalten, das ist der grosse Renner z.Z. bei denen. Zudem sind deren Chips oft in Spielhallenautomaten und anderem zu finden, eigentlich überall, wo man 3D benötigt und was nicht PC oder Konsole ist. Intel nutzt diese Technologie jetzt auch endlich dafür.
Imagetech hat auch schon viel für diese Märkte in der Vergangenheit zu bieten gehabt: Die Kyro Chips zum Beispiel und die Grafik der Dreamcast ;). Zudem kostet einen Grafikchip zu bauen viel Geld. Du kannst Intel keinesfalls mit VIA oder SIS vergleichen. VIA wollte damals Serie4 und 5 Technik von Imagination Technologies lizenzieren, denen war es aber zu kostspielig und sie hatten ja eigenes KnowHow.
 
Zuletzt bearbeitet:
Tiu schrieb:
Man sollte mal nicht so tun, als hätte Intel gar keine Ahnung.
Bisweilen ist Intel immer noch der größte Grafikchiphersteller überhaupt.
Und auch deren onboard Grafiklösungen können (je nach Chip) mit DX 7,8,9 umgehen.
Auch ist man an unzähligen Forschungen, Entwicklungen sowie Patenten direkt oder indirekt beteiligt, hat entsprechende Firmen aufgekauft oder gegründet, Entwickler abgeworben oder selbst großgezogen.
In einem kann man sich sicher sein, wenn Intel sich was vornimmt, dann wird das schon werden. Selbst wenn die erste Generation noch ein wenig floppen sollte, weil man Spiele z.Zt. eben auf the way it´s meant to be played (NV) oder eben evtl.auch ATI seitig programmiert. Es kommt nicht nur auf die Hardware an, sondern man braucht auch ein Team das die Hersteller von Spielen unterstützt. ;)
Im Bereich 3D sind die integrierten Intel Lösungen ein Horror, ggü. internen Geforce und Radeon geradezu lächerlich was Leistung und Treiber angeht. NV hat schon einen IGP für Intel Lösungen in Entwicklung, sprich, der erste NV Chipsatz für Intel für OEM Integration. Mit NF410 und NF430 Produkten hat man schon im AMD Markt voll zugeschlagen, warum sollten sie das auf dem Intel Markt nicht auch hinbekommen? Meiner Meinung nach ist das durchaus eine grosse Gefahr für Intel.
 
Zuletzt bearbeitet:
Warum sollte Intel kein Know how haben?

1. Sie haben sich wissen erkauft (effektiv genauso wie AMD)
2. Ist Intel wie man in News vorher schon lesen konnte einer der größten Grafikchipproduzenten der Welt.
Soll heißen die steigen nicht komplett neu in den Markt sondern sind schon lange Zeit Grafikchips am entwickeln nur das jetzt auf Leistung getrimmt wird.
Das es 16 Cores werden klinkt durchaus interessant aber einige scheinen zu glauben das da "Stromfresser" a la Conroe Kern drauf werkeln was mit Sicherheit nicht so ist sondern spezialisierte Kerne die noch dazu runtergetaktet werden können und vielleicht sogar abgeschaltet werden können das sind natürlich nur Vermutungen aber ich halte sie für wahrscheinlich.

Was die Fertigungstechnik angeht so ist Intel inzwischen bei 45 nm wenn der Grafikchip also direkt für 32 nm gebaut wird findet kein Shrink statt womit gerade Ati/Nvidia zu kämpfen haben denn das ist das Problem hier kann man nicht so einfach shrinken wie bei CPU's.
 
Auch die nächsten Chips auf Basis von Nvidia und ATi sollen Multicore werden, dass ist also kein Argument. Aber sehr interessant ist die Aussage, das der Chip 16 Kerne hat und 16 mal so schnell wie aktuelle Grafikkarten ist. Das würde heißen jeder einzelne Kern ist so schnell wie ein aktueller(7900/x1900?). Ziemlich unrealistisch oder?
Und was war am 7950gx2 so toll? Das waren immernoch 2 Grafikkarten, mit den gleichen Vor- und Nachteilen wie zwei einzelne 7900gt, aber mit dem Vorteil des geringeren Platzverbrauchs und Preises. Technisch nichts wegweisendes.
Und den Scherz:
Vielleicht übertrumpft ja 2009 eine Intel Grafikkarte endlich die Playstation 3.
kommentiere ich jetzt mal besser nicht weiter.
 
Zuletzt bearbeitet:
HOT schrieb:
Technologie von Imagination Technologies findet man an jeder Ecke, die erstellen zwar nur Designs aber durchaus sehr erfolgreich. In vielen Mobilgeräten sind MBX Chips enthalten, das ist der grosse Renner z.Z. bei denen. Zudem sind deren Chips oft in Spielhallenautomaten und anderem zu finden, eigentlich überall, wo man 3D benötigt und was nicht PC oder Konsole ist. Intel nutzt diese Technologie jetzt auch endlich dafür.
Imagetech hat auch schon viel für diese Märkte in der Vergangenheit zu bieten gehabt: Die Kyro Chips zum Beispiel und die Grafik der Dreamcast ;). Zudem kostet einen Grafikchip zu bauen viel Geld. Du kannst Intel keinesfalls mit VIA oder SIS vergleichen. VIA wollte damals Serie4 und 5 Technik von Imagination Technologies lizenzieren, denen war es aber zu kostspielig und sie hatten ja eigenes KnowHow.

Was haben die Dreamcast und er Kyro gemeinsam? Beide sind nach einem kurzen erfolglosen Intermezzo in der Bedeutungslosigkeit verschwunden. Und Spielhallengrafik ist, vergleichen mit den Highend-Chips von Ati und nVidia der reinste Kinderkram. Das ist ungefähr, so, als ob du das Prozessor-Know-How von Atmel mit Intel vergleichst. Es gibt am Markt momentan einfach keine weiteren Unternehmen, die man mal einfach so aufkaufen könnte und die das KnowHow von Ati oder nVidia bezüglich Grafikchips hätten. Was AMD also mit dem Aufkauf von Ati gelungen ist, war ein Schachzug sondergleichen, der für Intel aufgrund der Kartelwächter nicht möglich ist.

Und irgendwie glaube ich einfach nicht dran, dass man 10 Jahre Entwicklungserfahrung im Bereich High-End-graphik einfach so aufholen kann, auch nicht mit einem Team guter Theoretiker (BitBoys z.B., denen hat auch einfach die Erfahrung fürs reale Geschäft im Grafikbereich gefehlt, das waren einfach Idealisten mit Traumvorstellungen vom perfekten Chip, die von der Evolution der "normalen" Chips ständig überholt wurden). Also ich glaube das Intel aufgrund seines Kapitals und der fast Unbegrenzten Manpower sicher einen guten CHip auf die Beine stellen wird, aber es wird sicher nicht reichen um die beiden Könige vom Thron zu stoßen. Zumindest nicht im ersten oder zweiten Anlauf. Dennoch begrüße ich das Engagement. Konkurrenz belebt das Geschäft und 3 sind ja immer noch überschaubar.
 
xp_home schrieb:
Mit DX10 sind die GPUs ein Stück näher an die CPUs dran als bisher. Aber natürlich sind es immer noch zwei paar Schuhe. Ich hab mal gehört, dass eine GPU sogar eine kompliziertere Architektur hat. ;) Du glaubst doch selber nicht, dass eine (High-End) GPU von Intel in kleineren Strukturbreiten kommt, als eine High-End CPU. :evillol:

Btw., dass mit 32nm war nicht von Intel bekannt gegeben worden, sondern eine reine Spekulation der VR-Zone. ;)

Wieso hälst du das für so unmöglich. ATI und auch nVidia lassen ihre GPUs bei TSMC fertigen. Und dort bietet man ja gerademal den 80nm Prozess an.

Intel hat da weitaus mehr Möglichkeiten und auch Kapazitäten. Ich denke kaum, dass man die zukünftigen GPUs woanders fertigen lässt. Man wird sicherlich eigene Produktionsstätten nutzen. Die 45nm CPU sind ja eigentlich soweit "fertig" und bereit, wie man erst gerade neulich lesen konnte. Da sind 32nm sicherlich nicht sehr hoch gegriffen, da bis 2009 noch einiges geschehen wird.

mFg tAk
 
Ich würd mal sagen das Intel da sie schon bald auf 45nm und in späterer folge 30nm umrüstet viele Vorteile aufgrund der Miniaturisierung der Chips hat.
So müssen sie nicht unbedingt den mega high end Grafikchip designen. Vielmehr könnten sie wie schon erwähnt 16 ATI/NV unterlegene GPU's auf einem DIE unterbringen und sich trotzdem die Performancekrone sichern, wenn die Konkurenten gerade mal auf 65nm noch produzieren und vielleicht 4 Kern GPU's rausbringen. Oder sagen wir optimistischerweise 8 kerne auf 45nm.

Und wenn sie endlich genug Know How haben um mit der Architektur von ATI/NV mitzuhalten dann wird es spannend.
 
Zurück
Oben