CHAOSMAYHEMSOAP schrieb:
Ganz unrecht hat Hr Meyer nicht, denn eine x86 Entwicklung kostet erstmal Zeit, Geld und momentan hat NVidia weder Zeit (ATI scheint eine Nasenlänge vorn zu liegen; Intel sperrt NVidia aus, usw.) noch Geld (Umsatz und Gewinn geht runter, die GTX260 ist ein Verlustgeschäft)
Herr Meyer kennt ganz gewiß die interne Situation _des_ schärfsten Konkurrenten im Bereich Graphikkarten? Wenn diese Frage mit 'JA' beantwortet wird, würde ich mich doch sehr für die Informationsquelle interessieren. Herr Meyer wird garantiert NICHT Fürsprecher nVidias! Unter dieser Prämisse darf sein Kommentar als purer Unfug gewertet werden.
Mit einem ARM Design kann man schon jetzt Dualcore SoCs für Netbooks/-tops und den embedded Markt anbieten. Da gibt es zwar auch Konkurrenten (OMAP, Snapdragon und iMX5), aber die haben sich auf den Handymarkt spezialisiert und versuchen gerade in den Netbookmarkt einzusteigen. NVidia hätte da die bessere Grafiklösung und müßte auch nicht extra eine Lizenz wie bei x86 erwerben (Tegra läuft ja bereits auf ARM Basis).
Ein erheblicher Anteil moderner Prozessorarchitekturen lebt bzw. lebte von der Wiederverwertung Innovationen anderer - siehe AMD (DEC Alpha), Intel (Itanium,HTT etc, auch DEC Alpha). Auch AMD begann mit scharf kritisiertem Nachbau der seinerzeit schon in die große Sackgasse rauschenden x86-'Architektur'.
nVidia wird sich den Schritt, einen Kommentar hierzu in die Öffentlichkeit zu schicken, sehr wohl überlegt haben, immerhin darf man erwarten, daß dem Unternehmen einige denkfähige Köpfe vorstehen, die ihr Wissen und Kenntnisse nicht aus Wikipedia oder Frikkel-Foren beziehen.
Punkten kann man, meiner bescheidenen Meinung gemäß, nur noch mit Energiesparsystemen, die hochintegriert sind oder hybridisierten Systemen, die GPGPU im Fokus haben. nVidia baut Chipsätze und Graphikchips, jetzt auf den Zug aufspringen, der deutlich in Richtung Graphik-Spar-Chipsatz-Generalisten geht, ist eine kluge Entscheidung.
Zwar wäre man mit ARM nicht x86 kompatibel, aber wenn man damit genauso surfen, Briefe/e-mails schreiben und Videos schauen oder Musik hören kann, dürfte das die Kunden kaum interessieren, zumal man mit ARM Technik eine längere Laufzeit rauskitzeln könnte.
Vielleicht versucht sich NVidia ja auch an einer x86 Emulation auf ARM/GPU Basis, dann müsste man nichtmal auf Windows verzichten.
Die ARM Architektur hat eine lange Tradition, in der Form, wie sie heute bekannt ist, kam sie Ende der 80iger als 'Archimedes' zum Kunden. Seinerzeit war der 'Embedded Chipsatz' noch auf einige Einzelbausteine verteilt, was heute komplett auf einem Siliziumplättchen verschwindet. Die ARM Technik ist gewiß auf 'günstig' getrimmt, hätte aber durchaus Potential, als Wiedergeburt der RISC Ära mit einer Kaskade von RISC-Kernen für Furore zu sorgen
Auf den Alpha AXP Systemen hat man Dank eines Wintel-Emulators auch nicht auf Windows verzichten müssen. Was vor 15 Jahren noch behäbig daherkam, dürfte heutzutage sehr viel effizienter zu realisieren sein, wenn man eine vernünftige CPU hätte. Was den x86-Intel-Schrott noch immer am Leben hält, ist das fast nicht aufzubrechende Monopol Intel-Windows. Windows bevorzugt x86, somit hat x86 eine Überlebensberechtigung. Technisch gesehen ist das, was heute als Core-i7 vorliegt, ein Wolkenkratzer, der auf dem Fundament einer schäbigen Slumhütte hochgezogen wurde.
Als Bill Gates den 'Papierkorb' in Wondows unter schäumenden Champagnergläsern der 'mündigen' und nicht minder tumben Weltöffentlichkeit vorstellte, das war 1995, hatte diese 'Öffentlichkeit' wohl schon vergessen, daß Apple und in Folge Next diese Innovation schon längst zu einem Standard gemacht hatten - de facto. Heute erklärt Intel uns eine 'Innovation', die es in zukünftigen FPUs der Sandy-Bridge Architekturen der FPU ermöglichen soll, zwei Operanden aus zwei unabhängigen Quellen zu verknüpfen und das Ergebnis auf eine dritte unabhängige Zieladresse schreiben zu können. Ich frage mich, ob man Alpha oder AltiVec der PPC vergessen hat?
Damit es nicht ganz OT wird: Meine Einschätzung ist, daß gerade Hersteller wie nVidia, aber auch ATI/AMD, eben durch ihre Vorteile im Bereich der GPU-Entwicklung einen großen Vorteil gegenüber Intel haben, wenn sich in Zukunft eine Hybridisierung/Einbettung von Fließkommarechen-Clustern als FPU-Ersatzim herkömmlichen Sinne als Weg erweisen würde. Das wird vermutlich erst in 2 - 5 Jahren der Fall sein, die Weichen aber werden heute gestellt. Insofern erscheint Herr Meyers Kommentar als der eines Mannes, der die Hosen voll hat ;-)