Waelder schrieb:
das es schwer werden wird hat Intel schon lange gewusst, auch das man erst mal hinterher hinken wird dürfte jedem klar gewesen sein - verstehe nicht was manche hier erwartet haben...
Viele messen Intel an dem, was Intel über Jahre über Koduri und Co an die Außenwelt gegeben hat, nämlich dass sie ganz vorne dabei sein wollen und wie toll Xe doch werden wird.
Es ist sogar so, dass Xe als iGPU in den TigerLake-Prozessoren sogar durchaus überzeugen konnte und man
AMD bei der iGPU das erste mal hat sogar altaussehen lassen.
Genauso wurde letztes Jahr sogar noch die
GeForce RTX 3080 / Radeon RX 6800 XT als "Ziel" ausgeben.
Auch relevant ist, dass Koduri in den letzten 2 Jahren immer wieder recht auffällig über Xe gesprochen hat, auch via Twitter und wie toll doch alles klappt und wie überrascht sie von der guten Leistung sie im Labor sind.
Und genau an diesen Aussagen wird Intel gemessen. AMD ist damals auch anhand der Aussagen von Koduri zu Vega gemessen worden - "poor Volta" - und AMD musste viel Kritik einstecken, wobei Vega Volta auch wirklich schlagen konnte im HPC-Bereich, aber bei Spielen halt nicht das zeigte, was hätte sein müssen.
Waelder schrieb:
Ein Blogger meinte ja mal die Idee wieder in den GPU Sektor ein zu steigen wurde bereits getroffen als man im CPU Sektor ehr Konkurrenzlos war - auch erste Konzepte aus der Zeit(als man eigentlich Ressourcen "frei" hatte),
Intel hat die Idee in den GPU-Sektor einzusteigen immer wieder mal gehabt, sie haben aber auch jedes mal irgendwie den Arsch versohlt bekommen. Intel bemüht sich um den "GPU"-Markt aber auch zum jetzigen Zeitpunkt deutlich länger als die Ankündigungen um 2017/2018 und dem Wechsel von Koduri.
ATi - die Übernahme durch AMD hat dem etwas geschadet, weil massiv Ressourcne dann fehlten - 2006 mit FireStream und den ersten "HPC"-Berechnungen auf den X1000er-Karten gezeigt, dass für immere komplexere und aufwendigere Berechnungen sich eine In-Order-SIMD-Architektur wie die einer GPU wunderbar eignet. Floding@Home hat da sehr viel Weg bereitet. NVIDIA hat - wie ATi - die Vorzüge erkannt und entsprechen CUDA mit den Tesla (G80 aka GeForce 8000er) hervor gebracht und von dem Moment an eine passende HPC-Schnittstelle gebracht und schnell auch Tesla als Karte für den HPC-Markt. AMD hat ATi übernommen und hatte nicht das Geld da wirklich "mitzumischen", der Markt war damals auch noch vergleichsweise klein.
Intel hat damals aber auch schon erkannt, dass immer dickere CPUs mit immer mehr Kernen zwar "toll" sind, aber sie eine SIMD-Schwäche haben, was auch zu AVX mit 256 Bit - statt 128 Bit bei SSE - führte, gleichzeitig waren die eigentliche Kerne aber viel zu fett und komplex. Intel musste ein SIMD-Monster auf die Beine stellen und das haben sie mit Larrabee dann gemacht und haben auch bereits AVX512 "definiert". Da die P6-Familie als auch die damaligen Kerne aber zu viel "INT"-Leistung hatten, ist man sogar auf die alte "Pentium"-Linie als Ausgangsbasis mit zwei dicken fetten SIMD-ALUs und merkte: Das bringt richtig Leistung. Das ging sogar soweit, dass Intel sogar daran dachte, dass man auf einem "Pentium-MMX-SIMD"-Monster man sogar Grafik berechnen kann, halt in Software, also ohne ROP und TMU und TAU, aber die Shader hatte man ja.
Hat nicht so gut geklappt, aber das SIMD-Monster hat es aber in den HPC-Markt geschafft, nur hat Intel, die eigentlich wussten wie wichtig Software ist, es verpennt wie wichtig gute APIs und Entwicklerwerkzeuge waren, also konnte NVIDIA sich im HPC-Markt breit machen, AMD konnte dank GCN mehr schlecht als recht mithalten, hatte aber immer wieder seine Achtungserfolge auch mit Vega, das "Überleben" im HPC verdankt AMD aber auch zu Teilen Apple und der OpenCL-Initative von Apple.
Intel wollte wieder mal ihre "Marktmacht" nutzen, nur NVIDIA war in dem Fall halt schlauer und hat besser aggiert und angefangen auch Entwickler sehr direkt zu unterstützen, mit Hilfe bei der Entwicklung der Software aber auch, in dem man sogar teure Grafikkarten quasi "verschenkt" hat, wenn man sich über Unis und Co gemeldet hat.
Der Erfolg von NVIDIA hat bei AMD - vor allem weil man seit 2017 wieder die "Ressoucen" hat, weil man wieder Geld bekommen hat - dazu geführt, dass sie eine "Metasprache" für CUDA entwickelt haben - HIP - die sich auch stark an CUDA anlehnt und von der man aus sowohl nach CUDA übersetzten kann oder eben dem Code, der den AMD-GPUs schmeckt.
Intel selbst wusste, dass sie mit Xeon Phi nicht mehr weit kommen und dass sie eine "einfachere" Lösung brauchen um auch weiterhin mit zu halten. Genauso erkannte Intel - wie AMD - das heute oft nicht die Hardware entscheidend ist, sondern es auf die Software drumherum ankommt.
Und da man iGPUs ja schon entwickelt, kann man da auch weiter gehen.
Waelder schrieb:
aber im Lauf der Entwicklung wurden immer mehr Ressourcen wieder zurück in den CPU Sektor geholt...
Was ich an der Stelle auf der einen Seite irgendwie plausibel finden, gleichzeitig: Soll sich bei Intel das gleiche Bild wie bei AMD wiederholt haben für Koduri? Dass man ihm sein Team stark zusammen streicht und die Ressourcen entzieht?
Waelder schrieb:
Vielleicht war ja diese Annahme gar nicht so falsch, wenn man sieht wie sich das GPU Thema immer mehr zieht...
Ich glaube nicht, dass man Koduri die Ressourcne entzogen hat, sondern ich denke viel eher, dass man bei Intel auf zu vielen Hochzeiten im "Xe"-Projekt gleichzeitig tanzen wollte und man zu viele Baustellen parallel geöffnet hat. Auf Hardware-Seite haben wir 3 Xe-Projekte Xe Iris (iGPU), Arc (Xe-HPG) und Xe-HPC. Auf Softwareseite haben wir auch 3 Treiber und dazu die oneAPI. Das ist schon eine Hausnummer, dazu kommt dann noch, dass man mit Xe-HPC ja zeigen will, dass man quasi "AMD" bei ihrer "Chiplett"-Lösung - CDNA2 - überlegen ist und man es ja schafft 47 unterschiedliche Dies zu einer Xe-HPC zu kombinieren.
Die Frage ist viel eher: Wollte man nicht vielleicht zu viel?