Notiz Beförderung: Raja Koduri steigt bei Intel weiter auf

@whynot? Ist der von dir zitierte Teil nicht eine absolute Banalität?
Der Typ wurde eingestellt um eine ernsthafte eigene GPU-Entwicklung für dedizierte Grafikkarten zu starten, natürlich hat der "key changes" angetrieben was die Entwicklung von Software, Firmware und Hardware betrifft.
Dafür wurde er eingestellt!
 
  • Gefällt mir
Reaktionen: pvcf
Inxession schrieb:
Rein von der Entwicklungszeit her, würde ich sogar eher vermuten, VEGA war schon vor Koduri bei AMD fertig designed. Und Navi geht auf seine Kappe.
So "unfertig" wie Vega auf den Markt kam, gerade auch aus Software-Sicht, kann man eher bestreiten, dass Vega 2013 - als Koduri zurück kam - schon fertig war. In den 4 Jahren bis 2017 hätte AMD sowohl den Treiber als auch ggf. Fehler in den Primitive-Shaders beheben können und angehen können.

Ich verweise mal auf mich selbst un den letzten Abschnitt. Ich hab die entsprechende Berichte des Forbes-Magazines verlinkt.

Es sind zwar auch nur Indizien, aber doch schlüssig in ihrer Gesamtheit.
 
  • Gefällt mir
Reaktionen: Inxession und bad_sign
Powl_0 schrieb:
In Fairness: GCN und Vega Entwicklung begann vor seiner (zweiten) Zeit bei AMD. Navi ist ja ordentlich geworden, und daran hat er auch Anteil gehabt.
Vega ist eine Weiterentwicklung von Tahiti, erschienen 2017. Koduri war zurück bei AMD in 2021. Was meinst du wie lange Vega da schon in Etnwicklung war :lol:
 
Die erste GPU mit Hardwarebeschleunigung für AV1-Encoding auf den Markt zu bringen, ist schon ein guter Schachzug.
Intels Marketing verspricht Faktor 50 im Vergleich zum Softwareencoding.
Während AMD und Nvidia 111elf!% mehr fps in Spielebenchmarks feiern und ihre Karten teilweise noch in den Codecs beschneiden, kann Intel in Ruhe den Kreativmarkt angehen. Apple muss ebenfalls passen.
 
iSight2TheBlind schrieb:
@whynot? Ist der von dir zitierte Teil nicht eine absolute Banalität?
Der Typ wurde eingestellt um eine ernsthafte eigene GPU-Entwicklung für dedizierte Grafikkarten zu starten, natürlich hat der "key changes" angetrieben was die Entwicklung von Software, Firmware und Hardware betrifft.
Dafür wurde er eingestellt!
Les mal was dort steht: "across Intel", das betrifft nicht nur seine Abteilung sondern Intel Gesamt. Auch die ganze OneAPI Initiative ist von ihm ausgegangen..
 
Die Leute die hier über Koduri schimpfen brauchen einen Realitätscheck!

Der Mann hat mehr erreicht als alle dir hier rummaulen zusammen. Soviel dazu.

Er war an Navi beteiligt, Vega war nur noch ein Rettungsversuch da schon zu fortgeschritten.

Glauben die Leute hier echt das man so eine hohe Position bei AMD und dann Intel bekommt wenn man inkompetent ist?

Die Gpus erinnern sehr an Rdna….

2.4Ghz bei moderatem verbrauch.

Gebt dem Ding noch 2 Generationen Praxiserfahrung und wir werden 3 starke DGpu Hersteller haben in der westlichen Welt.

Davon bin ich absolut überzeugt.
 
whynot? schrieb:
Auch die ganze OneAPI Initiative ist von ihm ausgegangen..
Da wird man aber noch abwarten müssen, ob Intel damit Erfolg haben wird.

Es gibt das folgende Meme nicht umsonst:
70BEF06B-ECB4-4C1F-904C-8AAA519E0592.png
Auch wenn die Idee gut ist und Intel durchaus die Mittel hat, du musst auch die Entwickler überzeugen und dazu bringen die API zu nutzen.

AMD hat nicht umsonst ROCm angefangen und ist bemüht CUDA auf ihrer Hardware zum Laufen zu bringen.
 
Chismon schrieb:
Zudem hat Koduri als allererster, lange vor Jen-Hsun und Co. oder Lisa & Co. die Idee fuer eine MCM-dGPU Umsetzung erdacht (auch wenn die Ponte Vecchio Umsetzung/Entwicklung laenger als erwartet gebraucht hat), das scheinen viele schon vergessen zu haben.

Stimmt das denn überhaupt? Weil bis Ende 2017 (31.12.2017) gab es von Intel rein gar nix in Sachen Ponte Vecchio + MCM GPU, das bestätigt eine schnelle Google-Suche.

Was aber bekannt ist, ist, daß NVidia schon früher als Intel (bereits Mitte 2017) in Verbindung mit der Universität von Texas in Austin, der Universität von Arizona, dem Barcelona Supercomputing Center und der Universität Politecnica de Catalunya mit dem Institute of Electrical and Electronics Engineers (IEEE) handfeste wissenschaftliche Arbeiten und Artikel über das Thema MCM-GPU veröffentlichte, siehe Research.NVidia.com.

IEEE.org: MCM-GPU: Multi-chip-module GPUs for continued performance scalability (Juni 2017)
Research.nvidia.com: MCM-GPU: Multi-Chip-Module GPUs for Continued Performance Scalability (Juni 2017)
Golem.de: MULTI-CHIP-MODULE: Nvidia arbeitet an MCM-basierter Grafik (Juli 2017)

Also würde ich mich jetzt nicht unbedingt für eine angebliche Tatsache aus dem Fenster lehnen, die nicht stichhaltig zu beweisen ist (Koduri hätte MCM-GPUs erfunden).

BjörnE schrieb:
Glauben die Leute hier echt das man so eine hohe Position bei AMD und dann Intel bekommt wenn man inkompetent ist?
Ich bin mir fast sicher, ein Teil meiner Antwort würde Sie verunsichern …

Venkata „Murthy“ Renduchintala ist bei Intel auch für nahezu alle wichtigen Sparten verantwortlich gewesen und hat als wichtigstes Bindeglied zwischen der Chef-Etage und den praxisbezogenen Ingenieuren und Mitarbeitern jahrelang praktisch im Alleingang die Chef-Etage dumm gehalten, hinters Licht geführt, Rückschritte als Fortschritte verkauft, Katastrophen als Marginalien abgetan und währenddessen dickste Millionen-Boni kassiert, sicher aber prominent das komplette Desaster Namens 10nm™ von bis zu (2015-2020) verantworten gehabt. Dafür wurde er dann ja auch gefeuert.

Fakt ist jedenfalls, dass solche Leute sich und ihr Blendwerk teils über Jahre immer wieder derart perfekt verkaufen können (ohne auf größere Hindernisse zu stoßen), daß selbst ein Wechsel eines CEO rigoros ausgenutzt wird um die Verwirrung/Unwissenheit eines neuen Chefs noch ein, zwei Jahre kapital auszunutzen, bis es schlußendlich knallt und der Blender gehen muss (weil dann selbst der neue Chef weiß, wie der Hase läuft).

whynot? schrieb:
Auch die ganze OneAPI Initiative ist von ihm ausgegangen..
OneAPI ist größtenteils praktisch nur die Zusammenfassung bereits (zuvor) vorhandener Compute-Libs und Laufzeit-Bibliotheken, welche Intel schon vorher hatte/pflegte, danach aber unter einem neuen Namen als angeblich konsistentes Software-Universum neu verkaufte. Im Großen und Ganzen Alter Wein in neuen Schläuchen.

TechFA
 
  • Gefällt mir
Reaktionen: iSight2TheBlind, CyLord83, pvcf und eine weitere Person
Powl_0 schrieb:
In Fairness: GCN und Vega Entwicklung begann vor seiner (zweiten) Zeit bei AMD. Navi ist ja ordentlich geworden, und daran hat er auch Anteil gehabt.
Das stimmt so nicht! Gerade wegen Navi hat er seine Führungsposition eingebüßt.
Er hat AMD 2009 verlassen. Da wurde schon damals der Anstoß für GCN gegeben. 2013 war er wieder dabei und war maßgeblich für die weiteren Generationen veranwortlich. Gerade Vega zum teil ist unter seiner Entscheidungen entwickelt worden.

Wieso ist Navi entstanden: Sony hatte extreme Bedenken wegen der Leistung, der zuvielen nicht benötigten Funktionen und Leistungsaufnahme von GCN4 und Vega und hat damals einfach gedroht zur Konkurenz wechseln. Koduri hat sich aber geweigert und gesagt die Software/Spiele muss einfach besser und neu programmiert werden. Die GCN-Architekur ist schon eine richtig gute Architektur, aber nur in bestimmten Szenarien ist die auch effizient. RDNA1 kann man sagen war zu 50% noch eine GCN, doch diese Änderungen die Koduri am Anfang nicht wollte, hat gerade diese Effizenz beschert. RDNA2 ist nur noch wenig von GCN zu erkennen und da war Koduri schon praktisch garnicht beteiligt! Man könnte sagen er war schlicht sauer das seine Ideen nicht mehr vollständig umgesetzt wurden und nicht mehr alles Entscheiden durfte. Aber gerade diese Einschnitte hat uns am Ende RDNA2 gebracht. Ein Produkt nach sehr langer Zeit das wieder mit Nvidia konkurieren kann, sonst hätten wir jetzt GCN6 oder 7 sogar und Navi wäre nie entstanden!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA, pvcf und DevPandi
All Intel Systeme Incoming. Wer sagt, dass sie genau gleichauf oder besser als die Konkurrenz sein müssen?

Solang sie mithalten können.. Freuen sich Dell, hp.. Lenovo und Co.
---

Hab aber selbst ein komplettes AMD System :D mir kanns egal sein^^
 
BjörnE schrieb:
Glauben die Leute hier echt das man so eine hohe Position bei AMD und dann Intel bekommt wenn man inkompetent ist?
an sich: ja, siehe einige berüchtigte hohe Tiere bei diesen Firmen, die über die letzten Jahre gehen mussten, weil sie zu oft ihre Abteilung an die Wand gefahren haben.
 
DevPandi schrieb:
ätte AMD sowohl den Treiber als auch ggf. Fehler in den Primitive-Shaders beheben können und angehen können.

Ich hätte gern mehr in Erfahrung über das Projekt der Primitive Shader gebracht, weiss da jemand was ?
Das erste was ich seitens AMD dazu gesehen hatte, war ein Demo, welches "einfach" eine verbesserte Umgebungsverdeckung war, d.h. verdeckte Polygone und Shader wurden nicht mehr gerendert, was locker eine Verdoppelung der Framerate brachte.
Ich kann mir gut vorstellen, dass es an Sachen wie Schattenberechnung (die ja Abhängig von den Shadern bzw Polygonen sind) und an Transparenten Flächen hängt, dass man diese Art der Umgebungsverdeckung nie richtig in den Griff bekommen hat.
Aber vor über einem Jahr ungefähr, kam dann mal kurz, ich glaub mit Doom, eine andere Art des Primitiv Shaders auf, die, wie der Name schon sagt, Shadern auf "weit entfernten" Polygonen eine sehr viel einfachere Pipe zugewiesen haben, um es mal grob zu sagen, die nicht mit den ganzen Lametta gerendert haben, und dadurch ein paar FPS eingespart haben.
Weiss jemand was genaueres zum ursprünglichem Konzept, und ob dass zweitere noch irgendwas damit zu tun hat oder ob da einfach eine zufälllige Namensgleichheit beruht ?
 
  • Gefällt mir
Reaktionen: DevPandi
pvcf schrieb:
Ich hätte gern mehr in Erfahrung über das Projekt der Primitive Shader gebracht, weiss da jemand was ?
Im Endeffekt haben es die Primitive-Shader es als Mesh-Shader sogar nach DX12 und 12_2 geschafft.

Sie sind quasi ein Vorgänger davon, noch nicht ganz so mächtig, aber sie sind die Grundlage auch dessen, was Epic nun mit Nanite umsetzt.
 
  • Gefällt mir
Reaktionen: Volvo480, TechFA und pvcf
TechFA schrieb:
Ich bin mir fast sicher, ein Teil meiner Antwort würde Sie verunsichern …

Venkata „Murthy“ Renduchintala ist bei Intel auch für nahezu alle wichtigen Sparten verantwortlich gewesen und hat als wichtigstes Bindeglied zwischen der Chef-Etage und den praxisbezogenen Ingenieuren und Mitarbeitern jahrelang praktisch im Alleingang die Chef-Etage dumm gehalten, hinters Licht geführt, Rückschritte als Fortschritte verkauft, Katastrophen als Marginalien abgetan und währenddessen dickste Millionen-Boni kassiert, sicher aber prominent das komplette Desaster Namens 10nm™ von bis zu (2015-2020) verantworten gehabt. Dafür wurde er dann ja auch gefeuert.

Fakt ist jedenfalls, dass solche Leute sich und ihr Blendwerk teils über Jahre immer wieder derart perfekt verkaufen können (ohne auf größere Hindernisse zu stoßen), daß selbst ein Wechsel eines CEO rigoros ausgenutzt wird um die Verwirrung/Unwissenheit eines neuen Chefs noch ein, zwei Jahre kapital auszunutzen, bis es schlußendlich knallt und der Blender gehen muss (weil dann selbst der neue Chef weiß, wie der Hase läuft).

Murthy war einer der größten Katastrophen überhaupt, das stimmt, allerdings hatte er es leichter den CEO hinters Licht zu führen, da Swan ein Finanzler war und keine Ahnung von technischer Materie hatte. Mit einem technisch fundierten CEO kannst du sowas nicht bewerkstelligen (Es gab zu der Zeit ja auch die Gerüchte, dass Keller unter anderem ging, weil er mit Murthy nicht konnte). B.K. davor hat seine ehemaligen Kumpels aus der Fertigung geschützt und hat einen großen Mitanteil am 10nm Disaster, die interne Kultur bei Intel war zu dieser Zeit schon am Tiefpunkt, für diese Arroganz wurde man aber auch dementsprechend abgestraft.

Mit Gelsinger ist diese Zeit allerdings vorbei und mir fällt im Halbleiterbereich (AMD, Qualcomm, Nvidia, Apple, TSMC) derzeit auch keine namhafte Persönlichkeit ein, die sich dauerhaft, trotz Inkompetenz, halten konnte. Bei Samsung dürfte es derzeit nicht so rosig laufen, das ist aber weniger auf eine Person als auf eine suboptimale Firmenkultur zurückzuführen.
 
  • Gefällt mir
Reaktionen: Smartbomb, uNiqu3, TechFA und eine weitere Person
DevPandi schrieb:
Im Endeffekt haben es die Primitive-Shader es als Mesh-Shader sogar nach DX12 und 12_2 geschafft.

Sie sind quasi ein Vorgänger davon, noch nicht ganz so mächtig, aber sie sind die Grundlage auch dessen, was Epic nun mit Nanite umsetzt.

Danke für deine Antwort.
Mhmm, ich hätte Nanite jetzt für das exakte Gegenteil von Primitive Shadern gehalten, diametral entgegengesetzt...
Aber ja, im Prinzip beruht es auf einer Entfernungsmessung und im Idealfall auf einen Check der Umgebungsverdeckung, und für beides brauchts entweder CPU oder ne Raytracerroutine, bevor man dann überhaupt festlegen kann, ob man die Polygone Tesseliert oder gar ganz weglässt.
 
Bei Intel ist der Einäugige König.
Daher kann ich mir gut vorstellen das Raja wenn er alles umstößt und radikale Ideen und Visionen hat gerade gut ankommt. Keller kam da wohl nicht durch, das "große erwachen" und "große Köpfungsaktion" ging ja erst später los.

Geliefert hat Raja noch gar nichts, zumindest nichts was wir sehen.
Intel GPU scheint ineffizient und wie Intel typisch, mit für Leistung viel zu großen DIE anzukommen.
Treiberprobleme mal noch gar nicht angesprochen.
Außer über OEM sehe ich absolut keine Chance wie Intel das Zeug ohne die Marge zu belasten in den Markt kippen will. Naja und natürlich für Mining xD

Raja kann auf jeden Fall keinerlei Marketing, er verspricht zu viel und hält nichts bzw. Quatsch.
Man kann bsp. nicht sagen man will "Millionen Grafikkarten an Gamer im Jahr 2022 verkaufen" und kurz später das man damit auch "gut Mining betreiben" kann.
Einige Leute sind noch nicht ganz so medial betäubt, das man Aussagen von "Woche zuvor" vergisst.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind und TechFA
Der Ankündigungs Lord (poor Volta) hat ja richtig einen gerissen.
 
Powl_0 schrieb:
Über ein Jahr Verspätung, Leistung so lala, Treiber eine Katastrophe, Verfügbarkeit vermutlich sehr dünn.

Erste dGPU in diesem Jahrzehnt, aber GPUs an sich sind ja mitnichten neu für Intel. Ebenso wenig dedizierte Beschleunigerkarten.
Ergänzung ()


In Fairness: GCN und Vega Entwicklung begann vor seiner (zweiten) Zeit bei AMD. Navi ist ja ordentlich geworden, und daran hat er auch Anteil gehabt.

mMn ist eher das Problem, dass Koduri kein guter Sprecher/Presenter ist, ihm aber trotzdem immer wieder Marketing überlassen wurde.
Ne Navi würde mit Sony zusammen hinter dem Rücken von Herrn Koduri entwickelt und Frau Su wusste wohl auch warum.

Das ist zumindest meine Recherche von damals gewesen
 
  • Gefällt mir
Reaktionen: pvcf, TechFA und DevPandi
Irgendwie spannend die Karriere von dem Typen. Ich weiß kein gutes Projekt von ihm.
 
Zurück
Oben