Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intel: Ausblick auf zukünftige Grafikchips
- Ersteller Christoph
- Erstellt am
- Zur News: Intel: Ausblick auf zukünftige Grafikchips
henroldus
Ensign
- Registriert
- Juni 2004
- Beiträge
- 130
danke für die blumen, solche töne mag ich!reuBer schrieb:@5: Sehr kompetente Aussage! Daran merkt man, dass du von diesem Bizz absolut nix verstehst
Intel KAUFT sich das KnowHow "der letzten 10 Jahre" in Form von Entwickler-Teams, die dieses KnowHow haben und haut durch ihre og. Infrastruktur und allgemeines Produktions-KnowHow nochmal "1-2 Jahre" drauf!
Fest steht: nVidia und AMD/ATI können sich warm anziehen!
@topic:
geld ist hier leider nicht alles und die kompetentesten entwickler sitzen nunmal bei ATI und Nvidia nicht etwa bei SIS.
Nvidia und ATI experimentieren seit jahren mit verschieden Algorithmen zur effizienten Darstellung von AA und AF.hinzu kommen jetzt die shaderpipelines, die immer komplexer werden da sie sowohl vertices als auch texel/Pixel berechnen können müssen.
und da meinst du Intel kauft mal eben ne handvoll entwickler, baut nen chip mit 16kernen in 32nm und fertig ist das grafikwunder?
eine GPU ist wesentlich komplexer als eine cpu und besteht fast nur aus logiktransistoren im gegensatz zu 4MB langweiligen cache auf einem conroe.
sowohl ATI als auch nividia designen die chips "nur" am rechner und lassen sie dann bei auftragsfertigern wie TSMC und UMC in modernen produktionsverfahren herstellen.
diesen wissensvorsprung muss intel erstmal aufholen, bis jetzt sind sie etwa auf dem niveau der fertiger plus etwas knowhow von ihren IGP Chips.
guten tag mister kompetent
Zuletzt bearbeitet:
Hansdampf12345
Commodore
- Registriert
- Nov. 2005
- Beiträge
- 4.151
@henroldus und reuBer: Manchmal frag ich mich echt, warum so "Fachleute" wie ihr es seid, sich über Dinge streiten müssen, von denen sie beide keine Ahnung haben.
Oder habt ihr geheime Infos aus Intels Entwicklungsabteilung?
Bis 2008/2009 ist es noch ein bißchen hin...und bis dahin kann man nur abwarten. Ob Intel nen Grafikwunder vollbringt, einfach nur mit nVidia und AMD mithalten kann oder weit abgeschlagen ist, kann keiner von euch Pappnasen auch nur im Entferntesten wissen...
Vielleicht erleben wir bei Intel ja auch ein Stromsparwunder...man weiß es nicht!!!
Oder habt ihr geheime Infos aus Intels Entwicklungsabteilung?
Bis 2008/2009 ist es noch ein bißchen hin...und bis dahin kann man nur abwarten. Ob Intel nen Grafikwunder vollbringt, einfach nur mit nVidia und AMD mithalten kann oder weit abgeschlagen ist, kann keiner von euch Pappnasen auch nur im Entferntesten wissen...
Vielleicht erleben wir bei Intel ja auch ein Stromsparwunder...man weiß es nicht!!!
kalgani
Lt. Junior Grade
- Registriert
- Jan. 2007
- Beiträge
- 291
intel hat leute von 3Dlabs maßenweise eingestellt und auch einige der besseren entwickler von ATI sind im Sommer während der übernahme von AMD zu intel abgewandert...
niveau der fertiger??? ati = 90/80nm? genauso nvidia!!!
conroe und Pentium D9xx serie wird nun schon seit über einem jahr in 65nm produziert in eigenen Fabs! und was komplexzität angeht... mal die IA64-konstuktion angeschaut?
der i740 war damals aus dem stand schon ein gelungener chip, nur hat intel dann nicht weiter gemacht mit der entwicklung dadurch hat man nicht wirklich fuß fassen könnnen.
niveau der fertiger??? ati = 90/80nm? genauso nvidia!!!
conroe und Pentium D9xx serie wird nun schon seit über einem jahr in 65nm produziert in eigenen Fabs! und was komplexzität angeht... mal die IA64-konstuktion angeschaut?
der i740 war damals aus dem stand schon ein gelungener chip, nur hat intel dann nicht weiter gemacht mit der entwicklung dadurch hat man nicht wirklich fuß fassen könnnen.
yoshmaster
Lt. Junior Grade
- Registriert
- Sep. 2005
- Beiträge
- 443
wer wird wohl den kampf um den größten stromfresser gewinnen? Jawohl es ist Intel mit 16 Cores auf einer Grafikkarte. wtf?
Kann das mit der Leistung nicht anders gelöst werden? Oh mann ich hoff zwar für Intel das das nicht floppt, aber ich kanns mir ned vorstelln.
Kann das mit der Leistung nicht anders gelöst werden? Oh mann ich hoff zwar für Intel das das nicht floppt, aber ich kanns mir ned vorstelln.
shagnar
Lt. Commander
- Registriert
- Nov. 2005
- Beiträge
- 1.287
Und ich dachte Intel hat n'paar Jungs von 3Dlabs einkassiert? Also was professionelle 3d-Beschleuniger (wildcat) angeht, hams die Leute echt drauf! Ich denke nicht dass Intel pokert und falls das stimmt, dass Intel dieses Jahr noch keine CPUs in 45nm ausliefert, dann liegt das womöglich daran, dass sie den aktuellen Fertigungsprozess noch etwas ausschlachten wollen/können.
Nach langer, langer Zeit tritt wirklich endlich PowerVR Technologie wieder den Markt, denn die Chips, die Intel da erwähnt dürfte der SGX545 und SGX555 sein. Es passt genau ins Bild, Imagetech hat grade diese konkreten Chips der Serie5 angekündigt und Intel besitzt seit ca. 2 Jahren die Lizenz von Imagetech. Zudem ist Intel in der kurzen Zeit niemals selbst in der Lage einen leistungsfähigen Grafikchip zu entwickeln (Selbst ATI und NV benötigen 4-5 Jahren für eine Chipgeneration) und vom Treiber her hat sich Intel nicht grade mit Ruhm bekleckert, aber PowerVR Treiber waren aus Entwicklersicht die weitaus besten auf dem Markt. Zur Erklärung Imagetech baut keine Chips, sie entwerfen nur Designs, die sie zur Lizenzierung freigeben. Andere Firmen (z.B. Automatenhersteller wie SEGA) lizenzieren dann die Designs und giessen sie in Chipform. Intel besitzt ca. seit 2 Jahren in vollem Umfang eine PowerVR SGX Lizenz und seit 3 oder 4 Jahren eine MBX Lizenz, hat alsio grafikchiptechnisch so ziemlich alles Lizenziert, was Imagetech mit seiner PowerVR Devision so zu bieten hat.
Eine interessante Diskussion zum Thema: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=345216
Ausgerechnet Intel bringt seit langer Zeit die ersten PowerVR Grafikchips auf den PC Markt, seit dem ST Micro (damaliger Lizenznehmer der PowerVR Serie3 und 4) die Fertigung von Grafikchips (die berühmte Kyro Serie) damals aufgab.
Eine interessante Diskussion zum Thema: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=345216
Ausgerechnet Intel bringt seit langer Zeit die ersten PowerVR Grafikchips auf den PC Markt, seit dem ST Micro (damaliger Lizenznehmer der PowerVR Serie3 und 4) die Fertigung von Grafikchips (die berühmte Kyro Serie) damals aufgab.
Zuletzt bearbeitet:
daniel16420
Banned
- Registriert
- Okt. 2006
- Beiträge
- 1.949
wieso? die idee mit mehreren cores ist doch super. das sind doch einfache cores, von denen hat nicht jeder die rechenleistung einer 8800gtx oder so.
Wenn nur in wondows gearbeitet wird, läuft nur ein core und wenn leistung gefragt ist schalten sich die anderen cores dazu! vom stromverbrauch sicher besser.
Wenn nur in wondows gearbeitet wird, läuft nur ein core und wenn leistung gefragt ist schalten sich die anderen cores dazu! vom stromverbrauch sicher besser.
DukeCastino
Ensign
- Registriert
- Apr. 2006
- Beiträge
- 128
ich kann mir nicht im geringsten Vorstellen das Intel mit dem KnowHow von Nvidia und Ati mithalten kann. Vll haben die die bessere Technik aber im Endeffekt nicht das Jahrelange wissen der Techniker von NV und Ati. Vll kann man ja irgendwelche Spielehersteller bestechen nur Intel Grafiklösungen zu unterstützen ... paar millardschen sind bestimmt drinne
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
Das mit den 32 nm Fertigung ist nicht realistisch. Wenn sie Ende 2008 oder Anfang 2009 kommen, werden sie in 45nm Fertigung sein.
Denn Intel wird noch den Nehalem in 45nm Fertigen.
Also Ende 2007/Anfang 2008 Penryn
Ende 2008 Nehalem
Erst Mitte oder Ende 2009 steht dann bei Intel der nächste Shring auf 32nm bei den CPUs an.
https://pics.computerbase.de/1/5/7/1/9/4-1080.3239123762.jpg
Ende 2008/Anfang 2009 bereits auf 32 nm bei einem neu entwickelten Produkt einzusetzen ist einfach unrealistisch, allein schon wenn man sich die Zeitpläne der Fertigungsshrings im CPU-Segment anschaut.
Denn Intel wird noch den Nehalem in 45nm Fertigen.
Also Ende 2007/Anfang 2008 Penryn
Ende 2008 Nehalem
Erst Mitte oder Ende 2009 steht dann bei Intel der nächste Shring auf 32nm bei den CPUs an.
https://pics.computerbase.de/1/5/7/1/9/4-1080.3239123762.jpg
Ende 2008/Anfang 2009 bereits auf 32 nm bei einem neu entwickelten Produkt einzusetzen ist einfach unrealistisch, allein schon wenn man sich die Zeitpläne der Fertigungsshrings im CPU-Segment anschaut.
Zuletzt bearbeitet:
DukeCastino schrieb:ich kann mir nicht im geringsten Vorstellen das Intel mit dem KnowHow von Nvidia und Ati mithalten kann. Vll haben die die bessere Technik aber im Endeffekt nicht das Jahrelange wissen der Techniker von NV und Ati. Vll kann man ja irgendwelche Spielehersteller bestechen nur Intel Grafiklösungen zu unterstützen ... paar millardschen sind bestimmt drinne
Intel selber definitiv nicht, Imagination Technologies aber sind definitiv auf der Höhe der Zeit.
supastar
Fleet Admiral
- Registriert
- Okt. 2005
- Beiträge
- 18.472
Viellecht fällt der Energiebedarf der Grafikkarten dann mal, wie bei den CPUs, ich habe jedenfalls keine Lust, in 3 Jahren ein 3000 Watt-Netzteil kaufen zu müssen und mir ein Atomkraftwerk in den Garten zu bauen....
Ich hoffe mal, das Intel sich da was gutes ausdenkt...
Ich hoffe mal, das Intel sich da was gutes ausdenkt...
Jark-Warlord
Newbie
- Registriert
- Feb. 2005
- Beiträge
- 5
Also Ich denke Intel will ne Komplettlösungen bauen. Erst kürzlich wurde von Intel ein „Chipsatz“ vorgestellt der CPU, North- und Southbridge beinhaltete, warum also nicht auch noch einen Grafikchip. Und das ganze dann so das sich jeder User seine Bausteine individuell zusammenstellen kann. Alles auf einem Sockel. So in der Art wird AMD auch vorgehen will – wenn man sich deren CPU-roadmap anschaut, das erklärt auch den Einkauf von ATI!
Meinermeinung nach muss nVidia aufpassen, sonst geht es Ihnen so wie 3dfx. Die ein Sockellösung hätte Ihre Vorteile, schnelle Anbindung an den Rest, keinen extra Speicher, da zugriff auf Ram, keinen extra Kühler. Somit preislich billiger als eine separate Grafikkarte. Und über den Preis regelt sich der Markt.
Meinermeinung nach muss nVidia aufpassen, sonst geht es Ihnen so wie 3dfx. Die ein Sockellösung hätte Ihre Vorteile, schnelle Anbindung an den Rest, keinen extra Speicher, da zugriff auf Ram, keinen extra Kühler. Somit preislich billiger als eine separate Grafikkarte. Und über den Preis regelt sich der Markt.
daniel16420
Banned
- Registriert
- Okt. 2006
- Beiträge
- 1.949
wieso soll sich know how nicht kaufen lassen? wenn ich genug mitarbeiter anderer firmen abwerber, die dieses know how besitzten.
Radeberg86
Cadet 4th Year
- Registriert
- Sep. 2006
- Beiträge
- 67
klar läßt sich sowas kaufen....
bin zwar aus skeptisch was das anbelangt aber egal...
würde auch behaupten das die schon ne weile dran arbeiten also fangen die nich bei 0 an....
mal schauen was sie hinbekommen vertrau wohl im endeffeckt trotzdem auf die renomierten^^
bin zwar aus skeptisch was das anbelangt aber egal...
würde auch behaupten das die schon ne weile dran arbeiten also fangen die nich bei 0 an....
mal schauen was sie hinbekommen vertrau wohl im endeffeckt trotzdem auf die renomierten^^
MountWalker
Fleet Admiral
- Registriert
- Juni 2004
- Beiträge
- 13.997
Also wenn Know-How einkaufen, Fertigungstechnologie und Schotter alles wäre, was man bräuchte, hätte es mit den Intel.-Grafikarten Ende der Neunziger doch auch besser klappen müssen. Investitionsrisiken gibts auch bei den größten Konzernen.
J
jared
Gast
Hier wird immer wieder gesagt, das Intel die Technik einfach kauft. Von wem denn? Wenn ein anderer Entwickler mit ähnlichem Knowhow wie nVdia oder Ati am Markt wäre, hätten wir schon lange eine dritten großen Grafikkartenhersteller.
"Imagination Technologies" oder die "BitBoys" vielleicht? Das waren alles Theoretiker. In einer schöneren, idealen Welt wären deren Chips klasse gewesen, aber die jeweilige Idee hat sich idR schon ein oder zwei Jahre nach ihrem Entstehen als eine Sackgasse erwiesen. Der Kyro war schon so gut wie tot, als klar wurde, das man mit dessen "revolutionären" Rendertechnik kein Hardwar T&L oder Pixelshader implementieren kann. So war für diese Chips schon bei DX6 schluss.
Und Intel selber? Die haben in der Anfangszeit mal versucht zwei oder drei generationen lang mit den großen der Branche mitzuhalten, konnten aber nicht mal an Matrox vorbei ziehen. Als der Riva TNT(2) kam, hat Intel die Enwticklung der dedizierten Grafikchips eingestellt und sich auf onBoard konzentriert. Und seit nVisdia und Ati hier mitmischen, sehen die GMA-Chips von Intel zumindest technisch auch kein Land mehr. Nur durch die pure Marktmacht können die mit ihren Mainboards so viele davon absetzen. Immerhin hatte Intel mit seiner aktuellen Chipsserie (GMA 3000 glaub ich) lange Zeit (Treiber?-)Probleme um überhaupt an seiner eigene Vorgänger-Serie vorbei zuziehen.
Nur mit Geld und Marktmacht holt man 10 Jahre Entwicklung wirklich nicht auf und die Chipinternen-Pipline optimierund und was weiß ich alles, hüten nVidia und Ati natürlich wie ihren Augapfel.
Vollmundige Versprechungen den ultimativen Chip auf den Markt zu bringen haben schon viele gemacht (S3, SiS, Matrox) aber halten konnten sie es nie. Und "16 Chips" alleine heist gar nichts. Wenn jeder davon nur eine Pipeline hat, kommen am ende auch nur 16 pipes raus. Die Grafikchiparchitektur ist sowieso in sich schon massiv parrallel. Bei nVidia sind es bis zur GF7xxx sog. "Quadpipes" gewesen. Und die GF7900 GTX hatte davon 6 Stück, pracktisch also 6 identische Chipsteile zu je 4 Pipes =24 Pipes. Im prinzip kann man dazu genau so sagen, es wären 6 Chips in einem. Bei der 7900 GS wurde dann einfach eine solche Quadpipe wegelassen und beim 7600 gar 3. Das Design ist damit praktisch genau so flexibel.
Also abwarten und Teedrinken. Auch Intel muss erstmal beweisen, dass den großen Worten auch große Taten folgen.
"Imagination Technologies" oder die "BitBoys" vielleicht? Das waren alles Theoretiker. In einer schöneren, idealen Welt wären deren Chips klasse gewesen, aber die jeweilige Idee hat sich idR schon ein oder zwei Jahre nach ihrem Entstehen als eine Sackgasse erwiesen. Der Kyro war schon so gut wie tot, als klar wurde, das man mit dessen "revolutionären" Rendertechnik kein Hardwar T&L oder Pixelshader implementieren kann. So war für diese Chips schon bei DX6 schluss.
Und Intel selber? Die haben in der Anfangszeit mal versucht zwei oder drei generationen lang mit den großen der Branche mitzuhalten, konnten aber nicht mal an Matrox vorbei ziehen. Als der Riva TNT(2) kam, hat Intel die Enwticklung der dedizierten Grafikchips eingestellt und sich auf onBoard konzentriert. Und seit nVisdia und Ati hier mitmischen, sehen die GMA-Chips von Intel zumindest technisch auch kein Land mehr. Nur durch die pure Marktmacht können die mit ihren Mainboards so viele davon absetzen. Immerhin hatte Intel mit seiner aktuellen Chipsserie (GMA 3000 glaub ich) lange Zeit (Treiber?-)Probleme um überhaupt an seiner eigene Vorgänger-Serie vorbei zuziehen.
Nur mit Geld und Marktmacht holt man 10 Jahre Entwicklung wirklich nicht auf und die Chipinternen-Pipline optimierund und was weiß ich alles, hüten nVidia und Ati natürlich wie ihren Augapfel.
Vollmundige Versprechungen den ultimativen Chip auf den Markt zu bringen haben schon viele gemacht (S3, SiS, Matrox) aber halten konnten sie es nie. Und "16 Chips" alleine heist gar nichts. Wenn jeder davon nur eine Pipeline hat, kommen am ende auch nur 16 pipes raus. Die Grafikchiparchitektur ist sowieso in sich schon massiv parrallel. Bei nVidia sind es bis zur GF7xxx sog. "Quadpipes" gewesen. Und die GF7900 GTX hatte davon 6 Stück, pracktisch also 6 identische Chipsteile zu je 4 Pipes =24 Pipes. Im prinzip kann man dazu genau so sagen, es wären 6 Chips in einem. Bei der 7900 GS wurde dann einfach eine solche Quadpipe wegelassen und beim 7600 gar 3. Das Design ist damit praktisch genau so flexibel.
Also abwarten und Teedrinken. Auch Intel muss erstmal beweisen, dass den großen Worten auch große Taten folgen.
Tiu
Rear Admiral
- Registriert
- Sep. 2001
- Beiträge
- 5.560
Man sollte mal nicht so tun, als hätte Intel gar keine Ahnung.
Bisweilen ist Intel immer noch der größte Grafikchiphersteller überhaupt.
Und auch deren onboard Grafiklösungen können (je nach Chip) mit DX 7,8,9 umgehen.
Auch ist man an unzähligen Forschungen, Entwicklungen sowie Patenten direkt oder indirekt beteiligt, hat entsprechende Firmen aufgekauft oder gegründet, Entwickler abgeworben oder selbst großgezogen.
In einem kann man sich sicher sein, wenn Intel sich was vornimmt, dann wird das schon werden. Selbst wenn die erste Generation noch ein wenig floppen sollte, weil man Spiele z.Zt. eben auf the way it´s meant to be played (NV) oder eben evtl.auch ATI seitig programmiert. Es kommt nicht nur auf die Hardware an, sondern man braucht auch ein Team das die Hersteller von Spielen unterstützt.
Bisweilen ist Intel immer noch der größte Grafikchiphersteller überhaupt.
Und auch deren onboard Grafiklösungen können (je nach Chip) mit DX 7,8,9 umgehen.
Auch ist man an unzähligen Forschungen, Entwicklungen sowie Patenten direkt oder indirekt beteiligt, hat entsprechende Firmen aufgekauft oder gegründet, Entwickler abgeworben oder selbst großgezogen.
In einem kann man sich sicher sein, wenn Intel sich was vornimmt, dann wird das schon werden. Selbst wenn die erste Generation noch ein wenig floppen sollte, weil man Spiele z.Zt. eben auf the way it´s meant to be played (NV) oder eben evtl.auch ATI seitig programmiert. Es kommt nicht nur auf die Hardware an, sondern man braucht auch ein Team das die Hersteller von Spielen unterstützt.
Ähnliche Themen
- Antworten
- 57
- Aufrufe
- 9.542
- Antworten
- 77
- Aufrufe
- 12.875