News Intel: Raja Koduri und Foundry-Chef Randhir Thakur gehen

Vorbildlich finde ich jedoch, dass Intel aktuell seht an den Arc-Treibern schraubt. Ich wäre froh, wenn das Unternehmen doch noch einen Fuß in den GPU-Markt kriegt. Vielleicht wird der Preisbereich bis 250 Euro so bald wieder spannender.
 
  • Gefällt mir
Reaktionen: Michael vdMaas, eastcoast_pete, aid0nex und 8 andere
Shy Bell schrieb:
Also für mich ergeben "Moores law is dead"s Aussagen am meisten Sinn, weshalb ich davon überzeugt bin, dass "Enthusiasten-GPUs" von Intel schon wieder gestorben sind.

Moores law ist nicht tot. Es muss nur langsam aber sicher mal etwas an der Software passieren. Es gibt heute wirklich noch Programme die nur ein einzigen Kern nutzen. Seit ~2005 ist es bekannt, dass die Zukunft Multi-Kern heißt. Das Problem schiebe ich auch auf Windows bzw. Microsoft. Man sollte langsam aber sicher von 32 Bit weg gehen und mal ein modernes OS bauen. Wegen mir Win 12 mit 64 Bit Only, keine alten Abhängigkeiten und voll auf die Zukunft ausgelegt. Win 11 bleibt dann das "alte" Windows für die nächsten 10 Jahre.

Wenn Intel schlau ist stampfen sie die GPUs nicht ein sondern gehen all in. Das größte Problem was ich an den Intel GPUs sehe war die Verspätung. Wären die kurz nach der 3000er Nvidias gekommen wäre das super gewesen. Aber durch die Verzögerung waren im Prinzip die 4000er schon da und damit waren die Intels noch schlechter als erwartet.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Celinna und Recharging
Immer witzig wie einer als Sündenbock dargestellt wird, wurde ja bereits bei der Tragödie Vega so dargestellt als ob er allein dafür verantwortlich wäre … das war Versagen der jeweiligen Firma - damals AMD, nun Intel - wobei man hier auch einfach zu schnell zu viel erwartete. Bei ATI/AMD gab es ja wenigstens weitreichende Vorkenntnisse.

engineer123 schrieb:
Start-Up von Koduri, geil 🤣 😁

Wer darin investiert ist schön blöd 🤣 der Typ ist ja nun ausnahmslos überall gescheitert.
Vermutlich wird er wieder einige Dumpfbacken als Investoren rumkriegen und die wundern
sich dann, dass nach ein 2-3 Jahren ihre ganze Kohle weg ist und es keine Wettbewerbs-
fähigen Produkte gibt.

-> same procedure as last year, same procedure as every year! 🤜😮‍💨
Mehr als du hat er doch garantiert erreicht? Gescheitert würde ich das nicht unbedingt nennen, lässt sich bestimmt ganz entspannt leben in seiner Lage …
 
  • Gefällt mir
Reaktionen: Col. Jessep, Chismon, Tanzmusikus und 4 andere
Gerithos schrieb:
Software ist sein einziger Ausweg, woanders würde den keine mehr nehmen.
Man muss ihm da aber lassen, dass er dort einige sehr interessante Entwicklungen angeleitet hat - auch vor der OneAPI bei Intel.

Bei Apple war er hauptverantwortlich für den Grafikstack, insbesondere die Umstellung auf Retina. Ebenso war er mitverantwortlich für Metal und hat dafür die Weichen gestellt. Auch soll er bei Intel eben OneAPI angeleitet haben und auch wenn es schwer wird CUDA zu schlagen, er hat gerade da richtig gute Ansätze verfolgt und für klare Strukturen gesorgt.

Smartbomb schrieb:
So wirkt es wenn man die letzten Jahre an Berichten (und Kommentare) hier liest.
Mich würde es nicht wundern, wenn man über Umwege auch von Kollegen bei Intel die gleichen "Vorwürfe" gegen ihn hört, wie sie von Kollegen von AMD gekommen sind oder auch von Apple und Co. Dass er ein helles Köpfchen ist, gute Ideen hat, aber nicht so strukturiert arbeitet und immer den neuen Ideen hinterher rennt und dadurch das "Jetzt" vergisst.

Ich hab so einen Chef, und wenn da ein Gegenpol fehlt, der das etwas einfängt, verrennen sich diese Leute. Tolle Köpfe, aber eben etwas rastlos.
Dr.Pawel schrieb:
Jetzt wird man sehen können, ob Intel die E*** hat an den GPUs dran zu bleiben.
Arc ist für sich gesehen keine schlechte Architektur, sie hat ihre Schwächen, aber Intel hat jetzt in den letzten Monaten gut gezeigt, dass sie die Defizite im Treiber aufholen können und sie ihren Treiberstack in den Griff bekommen.

Klar, Xe und Arc ist keine vollständig neue Architektur, wie gerne behauptet wurde, sondern hat seine Wurzel in der Intel HD Graphics-Architektur. Intel hat hier noch einiges an Arbeit, aber sie können es durchaus schaffen sowohl AMD als auch NVIDIA gefährlich zu werden.
engineer123 schrieb:
Wer darin investiert ist schön blöd 🤣 der Typ ist ja nun ausnahmslos überall gescheitert.
Na ja, gescheitert. Bei Apple hat er sehr gute Arbeit geleistet, ebenso hat er bei ATi und später bei AMD, als er primär für neue Technologien zuständig war, sehr gute Arbeit geleistet haben. Ich denke eher, dass AMD und jetzt auch Intel ihn einfach in eine falsche Position gesetzt haben und ihn auch nicht entsprechend "kontrolliert" haben.
ETI1120 schrieb:
Man sollte bei der Grafiksparte aber auch diese Personalie berücksichtigen:
Interessant. Wobei das für AMD nicht unbedingt schlecht ist. Wobei da eh die Leute teilweise munter und fröhlich hin und her wechseln. AMD hat ja letzten auch ein paar Devs von NVIDIA abbekommen. ;)
Ergänzung ()

Cool Master schrieb:
Moores law ist nicht tot. Es muss nur langsam aber sicher mal etwas an der Software passieren.
Du weißt schon, dass hier nicht das Gesetz an sich gemeint ist, sondern der YouTuber(?)

Ansonsten
Cool Master schrieb:
Es gibt heute wirklich noch Programme die nur ein einzigen Kern nutzen.
Dir ist schon klar, dass sich nicht jedes Problem in der Informatik beliebig parallelisieren lässt?
 
  • Gefällt mir
Reaktionen: Michael vdMaas, E2K3, 7H0M45 und 19 andere
DevPandi schrieb:
[..] dass AMD und jetzt auch Intel ihn einfach in eine falsche Position gesetzt haben und ihn auch nicht entsprechend "kontrolliert" haben.
Naja, offensichtlich verlässt er das Schiff, wenn man ihn kontrollieren will. Intel hatte seine Position ja entsprechend geändert.
 
  • Gefällt mir
Reaktionen: Celinna und Vulture
Muhahahahahahaha! Der Typ ist doch der geilste!

P.S. Ich weiss nicht ob er an verkorksten Firmenpolitiken scheitert oder er selbst Chaos verbreitet, aber von aussen macht es zum Schmunzeln an :D
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: DannyA4, nato44 und Delirus
Ich hab nie verstanden wie manche hier Koduri immer in den Himmel gelobt haben.
Von wegen: Ja, man muss dem Mann halt nur die Ressourcen geben die er braucht und so weiter..........

Am Ende des Tages ist der Mann für zwei Sachen bekannt: Vega und Arc. Muss ich noch mehr sagen? Und wenn er wirklich so brilliant in seinem Fachgebiet ist, warum hat der grüne Marktführer absolut null Interesse an dem Typen?
Ich hoffe einfach nur, dass Intel seine Ambition im Grafikmarkt nicht begräbt. Ein starker dritter Konkurent wäre sehr, sehr wünschenswert.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR, Trumpf, Celinna und 4 andere
Cool Master schrieb:
Moores law ist nicht tot.
Beeinhaltete das Gesetz nicht auch das die Kosten per Transistor sinken?
Genau hier sehe ich aber Probleme.
Aktuell sieht es danach aus das jeder zusätzliche Transistor einfach den Preis linear erhöht.

###

Zu Raja Koduri, ob er sich einfach nur immer den schwersten und unmöglichsten Jobs aufhalst die man finden konnte, wirklich nicht fähig war oder aber hier das drumherum das Problem erzeugte werden wir wohl leider nicht erfahren.
In meinen Augen hat er nichts getan was mir / uns schadet, sondern nur höchstens zu sehr den Mund voll genommen.

Daher wünsche ich Ihm persönlich viel Erfolg. Er hat immerhin bei Intel die Geburt der Grafikkarten eingeläutet. Diese sind nur daher nicht konkurrenzfähig, da es keinen Mining Markt mehr für GPUs gibt, bei dem man die Karten hätte teuer platzieren können (keine Mining Bremse, 8-16GB Speicher). Unter den Gesichtspunkten ergeben Idle Verbrauch und der Treiber sowie Hardwareausstattung eben Sinn. Wäre der Mining Markt noch aktiv, wäre er gefeiert worden.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Illithide
Die Chinesen werden ihne bestimmt gerne einstellen
 
  • Gefällt mir
Reaktionen: sereX, aid0nex, thuering und 3 andere
Der Mann arbeitet schon länger im Grafikbereich als viele Poster hier überhaupt einen Computer bedienen können - etwas weniger Verachtung und Häme wäre hier wohl angebracht, weiß der Typ sicher so viel über Grafikbeschleunigung, dass es für mehrere professionelle Bücher reicht, während die meisten hier nicht Mal n Forenpost mit sinnvollen Dingen füllen können. Der hat nicht umsonst bei S3, ATi, AMD und Apple gearbeitet.

Wir wissen nicht, wieso seine letzten Entwicklungen alle nicht so performen, wie man es sich erwartet. Aber es ist nicht eine Person allein, die sowas designed und es ist auffällig, dass die letzten beiden Firmen eher knauserig bzw. knapp bei Kasse waren. Wer weiß schon, was er vor hatte und letztlich bewilligt bekam? Will ich mir nicht an maßen darüber zu urteilen.

Letztlich wäre es für alle ein herber Verlust, wenn Intel wieder alles nieder reißt. Die Arc GPUs machen sich ja langsam und bin gespannt auf die Nachfolger.
 
  • Gefällt mir
Reaktionen: Terrordrome, Col. Jessep, Seby007 und 28 andere
@F4711
Wohl eher nicht. Die Chinesen holen sich in dem Bereich nur Topleute und keine die nur verbrannte Erde hinter sich lassen. Was er angefasst und geplant hat, hat AMD und jetzt auch Intel sehr geschadet.
 
Shy Bell schrieb:
Also für mich ergeben "Moores law is dead"s Aussagen am meisten Sinn, weshalb ich davon überzeugt bin, dass "Enthusiasten-GPUs" von Intel schon wieder gestorben sind.
Mit diesen Zukunftsaussichten werde ich diese Produkte nicht erwerben.

Ich irre mich gerne, weil der Markt echte Konkurrenz bitter nötig hat.
Quelle? Du meinst doch den Youtuber oder?
 
Cr4y schrieb:
und Diskussionen von außerhalb können sich nur auf dem Niveau einer Klatsch- und Tratsch-Zeitschrift bewegen.

Und deswegen sind wir hier oder? Das gilt für 90% aller News... verstehe den Beitrag nicht...
 
In der internen Mail bei Intel steht wohl "with mixed feelings" von Pat über den Abgang der 2. Das heißt also gut und schlecht. Es ist immer mehr dran als das Blumige, was nach außen getragen wird. Evtl wurde er ja wirklich gekantet oder ist dem nur zuvor gekommen, denn mehr als ein Tweet gabs nicht. Er ist sicher ein intelligenter Mensch und wird auch einiges bewegt haben, aber nimmt eben den Mund immer zu voll. Das hab ich vor Jahren bei AMD schon bemängelt und seit Arc-Ankündigung damals war es soooo klar, dass es in die Hose geht. So gut konnte es gar nicht werden, aber immer auf die Kacke hauen damit. Und diese Meinung haben halt nicht wenige.


Aber ja, ist auch nur Klatsch und Tratsch :D
 
  • Gefällt mir
Reaktionen: KlaasKersting, StarTrokus, Tanzmusikus und 9 andere
DiePalme schrieb:
@F4711
Wohl eher nicht. Die Chinesen holen sich in dem Bereich nur Topleute und keine die nur verbrannte Erde hinter sich lassen. Was er angefasst und geplant hat, hat AMD und jetzt auch Intel sehr geschadet.
Falsch - AMD und auch Intel haben sich wenn dann selbst geschadet - er war nur ein Mitarbeiter von vielen.

Bei solchen Aussagen könnte man meinen du hättest noch nie in einer Firma gearbeitet …
 
  • Gefällt mir
Reaktionen: Kommando und thuering
Koduri musste doch mit dem intel Team was anfangen, was intel seine aufstrebende GPU Sparte nannte. Für intel Xe Produkte mussten sicher viele Personalzugänge rein kommen, Mitarbeiter die man entweder abwerben muss oder auf deren Studiumabschluss warten und dann im Unternehmen die Strukturen aufeinander umgekrempeln und abstimmen. Sieht man ja mit Sapphire Rapids, wenn unterschiedliche Teams spezialisierte Module bauen und es auf einem Produkt auch funktionierend zusammen finden muss. Bei Apollo 13 gab es ja mit unterschiedlichen Bauteams der Raumkapesl und Landefähre das eingehende Problem der Sauerstoffversorgung, wo man sprichwörtlich des Eckige in das Runde mit verfügbaren Bordmitteln innerhalb eines Zeitfensters lösen musste, sonst wären alle erstickt. intel tut sich durch verschleppte Managementfehler mit zusätzlichen Eindreschen auf TSMC wie lange schwer seine eigenen Fertigungsanlagen zu verbessern?

Die ARC Chip wird von TSMC in 6nm gebaut. Gut für intel und den Entscheider der TSMC für die Produktion verpflichtet hat, sonst hätte deren ARC mit intel 10, falls dafür tauglich noch schlechter ausgesehen.

Bei ATi hatte Koduri Erfolg, weil das ganze ATi Team da war. Bei Apple sind auch mit seiner Teilnahme das schon genannte Retina zum Erfolg geworden. Steve Jobs hat aber der Personalie und seinen gewünschten Perfektionismus auch als Personalchef streng die Kompetenzlinien angeführt, was wer machen soll um zur Deadline ein Produkt vorzustellen.

Bei AMD musste man mit der Personalverschlankung leben, die sich in dem Unternehmen bei den geringen Marktanteilen durchsetzte. Das Team rund um ZEN war sicherlich sehr schlank, wenn man mit AGESA noch mit ZEN 3 Endkontrolle beim Kunden gemacht hat. Was muss erst bei der Radeon Abteilung los gewesen sein, wenn man noch bei den neuesten nvidia Funktionen Paroli bieten wollte und allein NVENC über Generationen unangefochten Qualität und Leistung bot, weil ATi All in Wonder Produkte für AMD zu teuer wurde und die Treiber immer schlechter.

Was AMD mit seinem Team entwickeln konnte, zeigt diese Tech Demo. Das ist kein anspuchsvolles Crysis, was noch heute gut aussieht.

Intel steht heute mit Koduri und weiteren Entscheidungen sehr gut da, wenn intel schon wie lange versucht mit einem Fuß in den GPU Markt zu kommen?
 
  • Gefällt mir
Reaktionen: andi_sco, Tanzmusikus und Ganjaware
MalWiederIch schrieb:
Falsch - AMD und auch Intel haben sich wenn dann selbst geschadet - er war nur ein Mitarbeiter von vielen.
Ein Mitarbeiter der mit der technischen Leitung betraut war. Als Kopf, gibt er die Richtung vor. Das ist die Aufgabe einer Führungsperson nicht die Umsetzung der Richtung selbst. Er hat falsche Entscheidungen getroffen die nicht zum gewollten Ziel geführt haben. Ich würde eher teile seiner Mitarbeiter einstellen, aber nicht ihn selbst und wenn, dann nicht als Entscheider. Als Berater oder Ideengeber, ja... aber definitiv nicht als Entscheider.
 
  • Gefällt mir
Reaktionen: Floppes, 7H0M45, Trumpf und 4 andere
Zurück
Oben