azurlord schrieb:
...
Das diese Theorie nicht funktioniert haben in der Vergangenheit einige Grafikfirmen bewiesen. Beispiel XGI. [...] Weil die Kunden eben selten nach Fakten urteilen...
Imho haben die Kunden da sehrwohl nach Fakkten geurteilt. Auch Midrange-Kunden möchten manchmal etwas Bildqualität und XGI hat nichtmal AA - bezeichnete gar freveligerweise einen Blurfilter als solches.
S3 hat zwar sehr hohe Grafikkqualität, dafür aber die schlechtesten OpenGL-Treiber, die man sich vostellen kann und auch Midrangekunden möchten in OpenGL von Hardwarebeschleunigung etwas merken. ATI's Linux-Gaming-Treiber ist ein Lamborghini Murcielago, wenn S3's Windows-OpenGL-Treiber ein Ford Fiesta ist.
Wenn Intel diese Fehler nicht auch macht, hat Intel bessere Chancen.
Vista Ready schrieb:
Aber wo habt ihr das gelesen mit CPU/GPU Verschmelzung?
Nirgends, das denken sie sich aus, ohne mal darüber nachzudenken, dass man mit mehreren Chips sehr viel mehr Performance erreichen kann, weil man so mehr Wärme ableiten kann. High-End-Grafik auf der Prozessorpackung wird es deshalb in zwanzig Jahren nicht geben.
DiaPolo schrieb:
..., umsatzmäßig sollten sie zu Zeiten des Rage128-Chip weit vor nVidia gelegen haben, soweit ich mich erinnere. Vor allem der OEM-Bereich ...
Nich nur in Masse, sondern auch in Klasse, der Rage128 war der erste echte 128b-Grafikchip auf dem Markt und die 128 war sogar schneller als die Riva TNT. Was ATI fehlte war der Ruf ein guter Gaming-Karten-Produzent zu sein, den Nvidia schon vor der TNT hatte - von vielen damals eempfunden als angeblich beste 3Dfx-Alternative, obwohl das technisch so gar nicht unbedingt stimmte. Im OEM-Bereich war ATI stark,. weil ATI da immer stark und auch der Vorreiter für umfassende Entertainmentkarten mit Video In/Out, TV-Tunern war, mit dem Rage128 waren sie aber sogar kurzzeitig Technologieführer im Gaming-Markt.
ATI hat damals nur aus irgendwelchen Gründen bei der Weiterentwicklung keine Refreshs für Rage128 vorgesehen, weswegen dann gegen TNT2 die Krise von ATI begann. Die MAXX Idee mit AFR hatte zwar gute Leistung - Stromverbrauch war damals noch kein Thema - war aber zu teuer. Und der von Anfang an gegen die damals zukünftige Geforce geplante Radeon kam zu spät und hatte zu viele Zwangs-Qualitätsverschlechterungen - ATI gewint seit dem wieder stetig Marktanteile zurück, weil ATI mit jeder Generation die eine und andere Zwangs-Qualitätsverschlechterung der Vorgängergeneration abschafft.