GUN2504 schrieb:
Intel hätte sich mal besser an die gute alte Weisheit "Bauer bleib bei deinen Kartoffeln" gehalten...
Findest du? Ich bin weiterhin positiv von Intel ARC überrascht, besonders eben von den beiden leistungsstarken A700-Modellen.
An alle Intel ARC-Kritiker da draußen:
Ja, extra in passendem Farbton
Man meckert immer, dass Intel doch schon so viele Jahre Erfahrung aufgrund der iGPU-Architekturen hätte und wie es nur sein kann, dass man jetzt nicht aus dem Stand heraus ein Produkt am Markt platzieren konnte, das in Sachen Leistung jede AMD- und nVidia-karte in den Schatten stellt.
Dabei vergessen viele gern, dass auch AMD bereits seit 1991 Erfahrungen im Bereich der Mikrochip-Fertigung mit x86-Architektur hatte und wie lange hat es letztendlich gedauert, bis man tatsächlich konkurrenzfähig zu Intel war - und zwar mit eigenen Chips, die nicht von Intel's Patent lebten? Es dauerte 5 Jahre, bis AMD mit dem K5 am Ende des Jahres 1996 um die Ecke kam, wobei auch hier nur bei Integer-Workloads gerade so mitgehalten werden konnte - ein AMD K5-PR 133 war dennoch langsamer als ein Pentium 133 und konnte gerade so den mit 100 MHz getakteten Pentium 100 hinter sich lassen. Bei Floating Point-Anwendungen hingegen hat AMD hier kein Land gesehen und das war nunmal damals schon die Mehrheit der am Markt befindlichen Anwendungen und Spiele.
Danach kam der erste K6, der - mit Verlaub - einfach nur eine Katastrophe darstellte. Der K6-2 (und K6-3) hingegen mit 3DNow-Erweiterung war ein guter Gegenspieler zum recht teuren Pentium 2, leistungstechnisch mithalten konnte man aber weiterhin nicht, trotz teilweise sehr hoher Taktraten.
Der K7 - oder auch "Athlon" (ja, der Ur-Athlon im Slot A) war eine großartige CPU, die performancetechnisch mit den Pentium 3-Prozessoren der Zeit mithalten konnte, jedoch waren sie dafür auch äußerst kostspielig.
Als Intel wieder zum Sockel-CPU zurückkehrte und die "großen" Coppermine- und Tualatin-P3s auf den Markt brachte, sah AMD erneut kein Land und fiel weit zurück. Die ersten Thunderbird-CPUs waren Hitzköpfe mit äußerst zerbrechlichen Dies, die gerne mal bei der Kühlermontage gestorben sind. Die Duron-CPUs waren immerhin eine gute Alternative zu Intel's Sparflammen-CPU Celeron.
Es dauerte erneut bis zum Thoroughbred bzw. Barton-Kern, bis AMD zumindest in der Lage war, die ersten P4-CPUs mit Willamette-Kern in Schach zu halten. Als jedoch der Northwood das Licht der Welt erblickte, war erneut kein Land in Sicht für AMD und bis auf den Lichtblick mit den "Hammer"-Namen, also SledgeHammer (Opteron, Server-CPU bzw. Enthusiasten-CPU Athlon 64 FX) und ClawHammer (Desktop-CPU) im Jahre 2003 war erneut viele Jahre nichts, aber wirklich gar nichts von AMD zu hören.
Versuche, mit den verrückt hochgezüchteten Phenom-CPUs und sogar mit den ersten 4- und später 6-Kern-CPUs erneut am Markt Fuß zu fassen, scheiterten. Es ist geradezu ein Wunder, dass AMD es geschafft hat, sich bis 2017 durchzuhangeln und wäre nicht der Kauf von ATI dazwischengewesen, womit man durchaus brauchbare und gute Grafikkarten am Markt etablieren konnte, so gäbe es heute vielleicht wirklich kein AMD mehr.
Wieso 2017? Zen-Architektur. Ab da ging's dann endlich steil und auch verdient bergauf, denn Intel hat sich hier zu lange auf den Lohrbeeren ausgeruht und AMD zeigte endlich, wie effizient und dennoch preiswert eine Mehrkern-CPU funktionieren kann.
Was ich damit sagen will:
schreibt die Intel-GPUs keinesfalls so schnell ab, denn für ein "Erstlingswerk" sind die ARC-Grafikkarten alles andere als schlecht, ganz im Gegenteil sogar.
Ich jedenfalls bin äußerst gespannt, was hier in der Zukunft noch kommt und ich hoffe inständig, dass Intel die Forschung und Entwicklung in der GPU-Sparte aufrechterhält und nach Möglichkeit sogar ausweitet.