News Intel stellt einen Großteil des 3Dlabs-Teams ein

Vista Ready schrieb:
Vergesst nicht, dass ATi vor der 9700er Karte eigentlich auch ein kleiner Fisch war.
Bestenfalls war die 8500er noch eine gute Karte, aber alles davor war Durchschnittsware, wenn ich mich richtig erinnere.
Somit hatte nVidia ein Monopol in der Hinsicht.

Und ATi hat es in ziehmlich kurzer Zeit geschaft den imensen Vorsprung von nV wett zu machen.
Wer sagt, dass diese 3Dlabs Leute nicht mindestens etwas ähnliches schaffen könnten?

Weil ATI kein kleiner Fisch war, umsatzmäßig sollten sie zu Zeiten des Rage128-Chip weit vor nVidia gelegen haben, soweit ich mich erinnere. Vor allem der OEM-Bereich (z.B. Rage IIc) hat hier gut Kies gebracht.
 
wenn ihr beim inquirer schon lest, dann alles, jungs.

Nvidia hat vorher schon die Créme de la Créme aussortiert und selber hinzugefügt...

gruß unDa
 
@VistaReady

http://www.theinquirer.net/default.aspx?article=33219

Diesem Bericht von The Inquirer zu Folge handelt es sich dabei um eine zukünftige Konvergenz von CPU und GPU - ähnlich wie es Sony mit der Cell-Architektur vorgemacht hat. Mit der zu erwartenden weiteren Zunahme von Prozessorkernen werden diese verstärkt parallele Aufgaben erledigen könnnen. - Warum nicht auch Shaderprozesse u.ä.? Zudem haben sowohl AMD wie auch Intel bereits angekündigt, in Zukunft zusätzliche Prozessorkerne anzubieten, die weitere Aufgaben (vorstellbar sind ebenfalls Phyikberechnungen u.ä.) übernehmen werden.

"Basically, GPUs are a dead end, and Intel is going to ram that home very soon. AMD knows this, ATI knows this, and most likely Nvidia knows this. AMD has to compete, if it doesn't, Intel will leave it in the dust, and the company will die. AMD can develop the talent internally to make that GPU functionality, hunt down all the patents, licensing, and all the minutia, and still start out a year behind Intel. That is if all goes perfectly, and the projects are started tomorrow."
By Charlie Demerjian: Montag 24 Juli 2006, 09:06

The Inquirer beschreibt die Übernahme von ATI durch AMD sogar als Überlebenskampf und dementsprechend notwendiges Übel, bei dem sich AMD möglicherweise sogar zu tief in Schulden reitet. Schliesslich endete der Grossteil der Firmen-Übernahmen bisher negativ.
 
Zuletzt bearbeitet:
Warum sollte es nicht legal sein?

Aber diese abgeworbenen Leute dürften dann halt keine Betriebsgeheimnisse verraten.
Das könnte weitere komplikationen geben.

Danke @ knightofnever

nVidia hat hier in diesem GPU-CPU Gemisch wohl die "A-Karte" gezogen.
Entweder muss sich nVidia jetzt Experten für Desktop-CPUs zulegen oder nVidia wird mittelfristig nicht mehr konkurenzfähig sein.

Wäre schon sehr lustig, wenn Intel und nVidia einen "Arbeitnehmertausch" machen würden.
Also Intel bekommt ein paar Grafikexperten und umgedreht bekommt nVidia ein paar CPU Experten. ^^

Es ist wirklich eine Frage, ob AMD mit der Übernahme von ATi eine gute Entscheidung getroffen hat.
Aber ich denke, wie schon in Inquirer beschrieben, dass AMD ohne diese Übernahme wohl nicht konkurenzfähig wäre.

Mal schauen, was das ganze für auswirkungen auf uns Verbraucher hat.
Wenn ATi die Hauptarbeit nur noch auf AMD konzentriert, könnte das entweder für Intel was schlechtes sein oder für AMD.
 
Intel war schon klar, dass sie Nvidia nicht hätten aufkaufen können - dagegen wären sämtliche Kartellrechtsbehörden sturmgelaufen. Anstatt also einen sinnlosen Versuch zu wagen stocken sie ihre eigene Entwicklung auf.

In Sachen AntiAliasing und AnisotropicFiltering hat sich nun schon seit Jahren nichts getan, weil Nvidia und ATI die meiste Zeit seither beschäftigt waren, diese qualitätssteigernden Features wieder zu qualitätsmindern, um Performance daraus zu schöpfen. Deshalb glaube ich nicht wirklich, dass für Intel hier so ein Entwicklungsrückstand herrscht. Ich hoffe Intel besitzt genug Arroganz, um genau auf diese "Optimierungen" zu verzichten und ein Signal zu setzen. Dann wird es 2008 vielleicht etwas mit meinem AMD(CPU) + ATI/VIA(Mobo) + Intel(GPU) Computer. ;)

PS: Die billigste Möglichkeit für Nvidia eine CPU-Entwicklungsabteilung einzukaufen, wäre wohl - so leid es mir für sie tut - VIA zu schlucken. Damit würde der Markt dann einen weiteren, sehr kompetenten Chipsatzhersteller verlieren - nämlich den, der für mich abseits vom SLI-Wahn den aktuell besten u. ausgereiftesten AMD-Chipsatz auf dem Markt hat.
 
Zuletzt bearbeitet:
Das 3Dlabs Team... ich hab heute noch meine erste Geforce (Annihilator von 3Dlabs) in der Vitrine liegen..
Die Jungs hatten damals was drauf, ich bin gespannt!
 
Wär echt genial wenn Intel High End Grafikchips produzieren würde. Die sollten nämlich in der Lage sein Chips zu produzieren die viel weniger Strom verbrauchen als die NVidia und ATI Karten. Außerdem wird Intel wohl bis dahin in der Lage sein in 45nm zu produzieren wovon NVidia und ATI ja noch weit weg sind. Und an Geld für die Entwicklung sollte es bei Intel ja auch nicht mangeln.
Ich bin mal gespannt was da daraus wird kanns mir allerdings auch nicht wirklich vorstellen das Intel vor hat in den High End Grafikmarkt einzusteigen.
 
@ 27 Woher willst du wissen, dass die Intel Chips weniger Strom brauchen O_O

High.End.Chips werden immer ein Non-Plus-Ultra der aktuellen Situation sein, mit viel Abwärme meist & meistens viel Strom... So ist das nunmal...

Aber Time will Tell.... :)
 
azurlord schrieb:
...
Das diese Theorie nicht funktioniert haben in der Vergangenheit einige Grafikfirmen bewiesen. Beispiel XGI. [...] Weil die Kunden eben selten nach Fakten urteilen...
Imho haben die Kunden da sehrwohl nach Fakkten geurteilt. Auch Midrange-Kunden möchten manchmal etwas Bildqualität und XGI hat nichtmal AA - bezeichnete gar freveligerweise einen Blurfilter als solches.

S3 hat zwar sehr hohe Grafikkqualität, dafür aber die schlechtesten OpenGL-Treiber, die man sich vostellen kann und auch Midrangekunden möchten in OpenGL von Hardwarebeschleunigung etwas merken. ATI's Linux-Gaming-Treiber ist ein Lamborghini Murcielago, wenn S3's Windows-OpenGL-Treiber ein Ford Fiesta ist.

Wenn Intel diese Fehler nicht auch macht, hat Intel bessere Chancen.

Vista Ready schrieb:
Aber wo habt ihr das gelesen mit CPU/GPU Verschmelzung?
Nirgends, das denken sie sich aus, ohne mal darüber nachzudenken, dass man mit mehreren Chips sehr viel mehr Performance erreichen kann, weil man so mehr Wärme ableiten kann. High-End-Grafik auf der Prozessorpackung wird es deshalb in zwanzig Jahren nicht geben.

DiaPolo schrieb:
..., umsatzmäßig sollten sie zu Zeiten des Rage128-Chip weit vor nVidia gelegen haben, soweit ich mich erinnere. Vor allem der OEM-Bereich ...
Nich nur in Masse, sondern auch in Klasse, der Rage128 war der erste echte 128b-Grafikchip auf dem Markt und die 128 war sogar schneller als die Riva TNT. Was ATI fehlte war der Ruf ein guter Gaming-Karten-Produzent zu sein, den Nvidia schon vor der TNT hatte - von vielen damals eempfunden als angeblich beste 3Dfx-Alternative, obwohl das technisch so gar nicht unbedingt stimmte. Im OEM-Bereich war ATI stark,. weil ATI da immer stark und auch der Vorreiter für umfassende Entertainmentkarten mit Video In/Out, TV-Tunern war, mit dem Rage128 waren sie aber sogar kurzzeitig Technologieführer im Gaming-Markt.

ATI hat damals nur aus irgendwelchen Gründen bei der Weiterentwicklung keine Refreshs für Rage128 vorgesehen, weswegen dann gegen TNT2 die Krise von ATI begann. Die MAXX Idee mit AFR hatte zwar gute Leistung - Stromverbrauch war damals noch kein Thema - war aber zu teuer. Und der von Anfang an gegen die damals zukünftige Geforce geplante Radeon kam zu spät und hatte zu viele Zwangs-Qualitätsverschlechterungen - ATI gewint seit dem wieder stetig Marktanteile zurück, weil ATI mit jeder Generation die eine und andere Zwangs-Qualitätsverschlechterung der Vorgängergeneration abschafft.
 
under.cover schrieb:
@ 27 Woher willst du wissen, dass die Intel Chips weniger Strom brauchen O_O
Das muss nicht zwangsläufig der Fall sein, aber fest steht, dass die hauseigenen Fertigungstechniken der CPU-Hersteller einen großen Vorsprung vor TSMC/UMC haben.
 
@ sturme

Jein, sie haben Fabriken, die bereits mit kleinerenStrukturen fertigen, diese sind allerdings schon mit den aktuellsten Prozessorlinien mehr als ausgelastet, Chipsätze und Prozessoren die nicht zur aktuellen Top-Serie gehören werden auch bei Intel und AMD noch in älöteren Strukturen gefertigt. Insofern würde ich nicht erwarten, dass sich jetzt in nächster Zeit irgendwas daran bei Grafikchips ändert. ;)
 
intel müsste jetzt nur noch die bitboys einstellen, dann wärs perfekt;)
 
@MountWalker: Das wird auch sicher noch dauern - aber das ist definitiv ein Punkt, von dem die Grafikchips profitieren würden und bald werden. ATI ist bald im Hause AMD, und damit ist ein wirklich hohes Fertigungsniveau in greifbarer Reichweite. AMD ist gerade dabei, weitere Fabriken zu bauen, die auch dazu verwendet werden können, Grafikchips zu produzieren - die müssen erst einmal fertig werden und das Design an die Fertigung angepasst werden. Intel könnte bald aber durchaus genug Kapazitäten übrig haben um eine allenfalls geplante Standalone-GPU-Serie zu produzieren.
 
Zurück
Oben