News Neuer Intel-CEO Lip-Bu Tan: Vom geschassten Aufsichtsrat zum neuen Chef-Retter

TechFA schrieb:
Der Meinung war nicht nur Tan. Selbst schon Bob Swan brachte das um den Verstand …

Ich überlasse an dieser Stelle mal dem angeblich "schlechtesten Intel-CEO aller Zeiten" das Wort…

(...)
Ein sehr umfangreiches Posting. Deine Beurteilung von Gelsinger teile ich mit Sicherheit nicht, aber vor allen Dingen frage ich mich, wer denn bitte auf die Idee kam, Bob Swan als den schlechtesten Intel-CEO aller Zeiten zu bezeichnen. Brian Krzanich hat diese Rolle ganz klar und eindeutig inne. Unter ihm wurden die unfassbaren Fehlentscheidungen getroffen, die nicht nur zum 10nm-Desaster geführt haben, sondern insbesondere auch dazu, dass Apple sich von Intel trennen konnte. Mit vernünftig weitergeführter CPU-Architektur-Entwicklung und insbesondere SOC-Entwicklung wäre das niemals in der heutigen Form möglich geworden.

Bob Swan ist in meinen Augen der Rory Read von Intel: Halt ein solider Übergangs-CEO, der Dinge in Ordnung bringen möchte, aber der sich sehr bewusst ist, dass er selbst keine langfristige Vision hat und daher nur Steigbügelhalter ist.

Doch noch eine Sache zu Gelsinger:
TechFA schrieb:
Der Chaot Gelsinger hat dem sogar diametral entgegen gewirkt, indem Pat gar knapp 20K neue Leute einstellte, direkt nachdem er dort anfing.

Gelsinger hat die 2016'er Entlassungswelle über 12K Leute umgehend mehr als rückgängig gemacht …

Bezeichnend ist, daß außerordentlich Viele von denen, die Gelsinger reinholte, Teil der Alten (satten) Garde waren, welche ganz geziehlt wieder geholt wurden, um im Austausch gegen üppige Bebutterung ihrer Retirement-plans Gelsinger im Gegenzug innerbetrieblich in den Himmel zu loben, die ja dann auch in unschöner Regelmäßigkeit für ihn den Hochofen der medialen Gerüchteküche mit Schlamm beschickt haben.
Er hatte doch gerade Leute wieder eingestellt, die Intel vor längerer Zeit verlassen hatten. Und er hat eben in erster Linie die Produktentwicklung gestärkt. Also, wenn man rein die Zahlenverhältnisse anschaut, doch Bob Swans (verhindertes) Werk versucht fortzusetzen.
 
Zuletzt bearbeitet:
CDLABSRadonP... schrieb:
Mit vernünftig weitergeführter CPU-Architektur-Entwicklung und insbesondere SOC-Entwicklung wäre das niemals in der heutigen Form möglich geworden.

Das bezweifele ich. Es hätte ggf. länger gedauert aber Apple hätte früher oder später die M-Chips entwickelt. Das sieht man ja auch am eigenen Modem (C1) was Apple nun im 16e verbaut.
 
  • Gefällt mir
Reaktionen: Gizzmow
Cool Master schrieb:
Das bezweifele ich. Es hätte ggf. länger gedauert aber Apple hätte früher oder später die M-Chips entwickelt.
Natürlich hätten sie trotzdem den A14X alias M1 entwickelt. Aber hätten sie ihn auch in ein Macbook stecken können, wenn die Intel-Chips der LastGen oder gar DoubleLastGen die besseren SOCs gewesen wären? Der Erfolg ihres Wechsels zu Apple Silicon im Mac-Segment beruhte ja darauf, dass die Geräte günstiger und besser waren als die LastGen-Version mit Intel-SOCs. Mit einem kompetenten Intel wäre es dazu vielleicht nie gekommen.
Cool Master schrieb:
Das sieht man ja auch am eigenen Modem (C1) was Apple nun im 16e verbaut.
Definitiv. Sie hätten weitergemacht. Wobei das C1 ja übrigens auf abgekaufter Intel-Technik basiert...
 
Cool Master schrieb:
Das bezweifele ich. Es hätte ggf. länger gedauert aber Apple hätte früher oder später die M-Chips entwickelt
Dafür gibt es keine Garantie. Historisch hat Apple nie Ambitionen gehabt, eigene Chips zu entwickeln, sondern immer eingekauft. Und sich dabei auch nicht an eine Architektur gebunden, sondern auch fundamentale Wechsel durchgezogen (68k -> PowerPC -> Intel) sowie parallel ARM/Samsung ins iPhone geholt (und das wohl nur, weil Intel nichts passendes anbieten konnte).

Apple ist tatsächlich dann an den Punkt gekommen, dass sie die Schnauze voll von schlechten Chips hatten, oder davon bei der direkten Konkurrenz kaufen zu müssen, und hat angefangen (zuerst für das iPhone) eigene Chips zu entwickeln.

Wir hätten vermutlich weder A- noch M-Serie gesehen, wenn Intel es geschafft hätte, seine Ziele für Smartphone-Chips zu erreichen und nicht dann auch noch bei PC-CPUs so versagt hätte. Hätte Intel seine Roadmaps erfolgreich durchgezogen, dann würden wir heute relativ wahrscheinlich immer noch Intel-Macs haben und auch Intel-iPhones.
 
TechFA schrieb:
Ich überlasse an dieser Stelle mal dem angeblich "schlechtesten Intel-CEO aller Zeiten" das Wort…
---
Im selben Atemzug hat man scheinheilig ausgerechnet Bob Swan als angeblich "schlechtesten Intel-CEO aller Zeiten" verunglimpfen lassen, selbst wenn Niemand bisher Intel so sehr geschadet hat wie Gelsinger.
Da muss ich vehement widersprechen, der mit Abstand schlechteste Intel CEO wird auf alle Zeiten Brian Krzanich bleiben, er ist hauptverantwortlich für das 10nm Disaster, technologischen Stillstand und financial engineering (Stock Buybacks, sinnlose Aquisationen usw).


Woher du deine Infos bezüglich Pat beziehst ist mir nicht ganz klar, soweit ich das Beurteilen kann war er allgemein beliebt bei der Belegschaft da es wieder eine klare Strategie bei Intel gab.

Pat hat einige Fehler gemacht (er hätte bei Antritt sofort die Dividende komplett streichen, und das "bloated" middle Management ausdünnen müssen, damals war aber noch nicht Absehbar, dass die Chat GPT Revolution die Server CapEx bei den Kunden nur noch auf GPUs schiebt) aber im Großen und Ganzen sehe ich jetzt nicht warum er so eine harte Kritik von dir verdient.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP...
CDLABSRadonP... schrieb:
Aber hätten sie ihn auch in ein Macbook stecken können, wenn die Intel-Chips der LastGen oder gar DoubleLastGen die besseren SOCs gewesen wären?

Das kann leider niemand sagen. Da Apple aber nicht zwingend auf die Performance Krone schaut sondern eigentlich schon immer P/W-Orientiert war könnte ich mir vorstellen, dass sie es ggf. später gemacht hätten oder auch Parallel. Damit hätten sie auch Druck auf Intel ausüben können. Wenn schon nicht längere Batterielaufzeit dann wenigstens günstiger Einkauf.

stefan92x schrieb:
Dafür gibt es keine Garantie.

Jup, Garantie dafür gibt es natürlich nicht.

stefan92x schrieb:
Historisch hat Apple nie Ambitionen gehabt, eigene Chips zu entwickeln, sondern immer eingekauft.

Das stimmt aber das lag auch daran, wie @CDLABSRadonP... schon ansprach, dass zu der Zeit die Chips super waren. Es gab also kein Grund Milliarden in F&E zu stecken. Nvidia hatte aber schon gezeigt was passieren kann. Die AMD Karten die Apple anbot waren zwar ok aber kein Vergleich mit Nvidia und vor allem Cuda. Deshalb sind viele im Uni-Bereich auch vom Mac weg oder haben sich eGPUs zugelegt, wobei es da später auch keine Treiber mehr gab und nach wie vor nicht gibt.

stefan92x schrieb:
Wir hätten vermutlich weder A- noch M-Serie gesehen, wenn Intel es geschafft hätte, seine Ziele für Smartphone-Chips zu erreichen und nicht dann auch noch bei PC-CPUs so versagt hätte.

Ja da könnte etwas dran sein. Ich glaube das die Entwicklung auch nicht unbedingt wegen Intel angefangen hat sondern historisch bedingt, wie schon gesagt, beim Nvidia-Bruch. Das war der erste Nagel im Sarg und mit den Intel Problemen hatte Apple dann wirklich die Schnauze voll. Aber ein eigenen Chip zu bauen entscheidet man nicht in 2 Jahren. Ich denke also, dass Apple bereits um 2014 mit dem A8 sich sagte könnte man das skalieren und in Notebooks/Desktops einbauen.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP...
DevPandi schrieb:
Die Frage ist an der Stelle immer, warum es so aufgeblasen ist. Wobei oft das Problem nicht unbedingt ist, dass diese Mitarbeiter gibt, sondern wie diese Strukturiert sind.

Oft werden solche Strukturen je geschaffen um bestimmte Arbeitslasten besser zu verteilen und auch bestimmte Aufgaben die viel Zeit Kosten für bestimmte Chefs zu reduzieren. Zum Beispeil Personalplanung, Urlaubsplanung und Co, was durchaus sehr viel Zeit fressen kann.

Das Problem des mittleren Managements entsteht meistens - und das kann ich aktuell bei uns gut nachverfolgen - wenn bestimmte Personen in diesem Management nicht "genug" Aufgaben haben oder es zu Kompetenzgerangel kommt und bestimmte Personen "mehr" Entscheidungsgewalt haben wollen, als sie eigentlich haben sollten und die nächste Etage aus Desinteresse das auch noch fördert. Ich hab zwei Kolleginnen, die durch ihre eigene Unzufriedenheit nun nach und nach Entscheidungen, die ich z.B. treffen muss, nun in einer Meeting-Runde besprochen werden müssen, weil sie sich dazu äußern wollen und mitentscheiden wollen.

Was Du schreibst trifft einen Kern des Problems.

Man lässt zu, dass im Unternehmen Machtspiele laufen. Das hat nichts mit der Firmengröße zu tun, sondern damit, dass einige Leute sich nicht damit beschäftigen was für die Kunden und das Unternehmen am besten ist, sondern nur ihren Einfluß und Pründe (= Stellen in ihrem Verantwortungsbereich) mehren wollen.

Wenn ein Unternehmen gesund bleiben will muss es solche Personen möglichst schnell loswerden. Und wenn die dann weg sind wundern sich alle warum man viel mehr arbeiten kann.

Aber in großen Unternehmen halten sich solche Leute Denn wenn sie loyal sind, bekommen sie die Rückendeckung von ihren Chefs.

Und wenn es im Management nicht mehr um den Erfolg des Unternehmens geht, dann zählt Loyalität zum Chef mehr als Können und Leistung, d. h. die Misere breitet sich früher oder später im ganzen Unternehmen aus. Kleine Unternehmen gehen dann schnell vor die Hunde, bei großen Unternehmen kann es sehr lange dauern.

Der Fehler des Topmanagements ist dann eigentlich nur, diese Zustände zu dulden.
In einem solchen Laden sind Fehlentscheidungen des Topmanagement folgerichtig, weil das Topmanagement keine Kontrolle über das Unternehmen hat. Entweder sind die Entscheidungen falsch, da sie auf falschen Informationen beruhen oder für einige Leute unbequeme Entscheidungen werden schlicht weg sabotiert.

Der zweite Kern des Problems sind demotivierte Mitarbeiter, aber das wäre eine viel zu lange Geschichte mit viele Fassetten.

Meetings sind allerdings nicht das eigentliche Problem. Es kommt eben darauf an wie die Kultur im Unternehmen ist. Meetings produktiv zu halten ist entscheidend für eine Firma. Wenn alle betroffenen im Meeting sind und alle relavante Punkte im Meeting zur Sprache kommen sind sie die Basis einer schnellen Entscheidungsfindung. Wenn man zulässt, dass Selbstdarsteller die Meetings zur eigenen Showbühne instrumentalisieren dann stehlen sie einfach nur Zeit. Aber dasselbe gilt eben auch, wenn man wichtige Punkte nicht in den Meetings zur Sprache bringt.

Was ich sehr oft sehe ist es, dass es zwischen Mitreden wollen und Verantwortung übernehmen eine riesen Diskrepanz gibt. Dieses vor der Verantwortung zu drücken äußert sich dann in Unmengen an Absicherungs-Emails die letztlich bedeuten, dass man sich vor der Entscheidung drücken will.

pioneer3001 schrieb:
Ich traue der Sache nicht. Der Mann kommt von einer Software-Firma und soll geeigneter sein als Gelsinger der Jahrzente Erfahrung mit Hardware hat.
Pat Gelsinger war von 2012 bis 2021 CEO bei VM-Ware.

Von Pat Gelsinger habe ich nur Sprüche gehört wie toll Intel ist. Dass er die Personaldecke massiv aufgestockt hat ohne zuvor die Bürokratie auf ihre eigentliche Funktion zusammenzustutzen war einer seiner grundlegenden Fehler.

Die paar Worte die jetzt von Lip Bu Tan bekannt wurden, treffen genau den Kern der Sache.

Und die erste Zeit von Pat Gelsinger bei Intel hat nicht nur positive Aspekte. Klar als Chief Architect bei den X86 CPUs hat er sehr gute Arbeit gemacht aber zu seiner Zeit als CTO von Intel gehört eben auch, dass alles andere als X86 CPUs für Client und Server vermasselt wurde. Und so wie ich es verstehe hat Pat Gelsinger aktiv verhindert, dass etwas anderes als X86 bei Intel Fuß fasst. Also war er schon damals kein Teil der Lösung sondern Teil des Problems.

Cool Master schrieb:
Tan muss deutlich mehr machen als nur einige Leute raus zu kicken.
Das mit dem Rauskicken von einigen Leuten, damit alles gut wird ist schon lange lange vorbei.

Es geht darum die Firma komplett neu aufzubauen und dabei das Tagesgeschäft nicht zu behindern. Intel wurde als Engineering Company groß, aber dann geriet das Engineering bei Intel mehr und mehr in die zweite Reihe. Märkte zu beherrschen und auszunehmen wurde wichtiger. Das traditionelle Geschäft von Intel, die Embedded Märkte hat Intel weitgehend anderen überlassen. Alle Versuche in anderen Märkten Fuß zu fassen sind letztendlich gescheitert.

Raja Koduri hat im Februar auf Twitter ein Essay zu Intel geschrieben.

Die Titelgrafik ist Bild gewaltig und nichts für Schwache Nerven:
1741864214174.png

Falls es nicht klar ist was die Grafik aussagt, die die Arbeiten werden von der Bürokratie abgewürgt und das Management schaut in aller Ruhe dabei zu und lässt die die gar nichts tun in aller Ruhe gewähren.

Es ist die Illustration zur Aussage von Lip Bu Tan, dass Intel die doppelte Anzahl von Mitarbeitern für Aufgaben benögtigt als die Konkurrenz.

Bevor hier eine Diskussion über Raja Koduri losgeht: Raja Koduri kommt aus der Softwareentwicklung und hat nie selbst Hardware entwickelt.

Das Problem vor dem Lip Bu Tan steht, ist allerdings dass Massenentlassungen viel Schaden in einem Unternehmen anrichten. Es ist eine Fiktion, dass nur die schlechten Mitarbeiter gehen. Intel ist über sehr viele Massenentlasungen in die aktuelle Lage geraten.

Was Lip Bu Tan machen muss ist die Zombies entweder produktiv machen oder loszuwerden und die Bürokratie von allen Personen befreien denen es nur um ihre Pfründe geht. Das ist einfacher geschrieben als umgesetzt. Das was Raja Koduri vorschlägt könnte funktionieren. Wenn Intel die Zeit dafür hat.

Cool Master schrieb:
Die Produkte sind aktuell nicht das was sie mal vor 10 Jahren waren als Intel wirklich Platzhirsch war.
Damals hat die Halbleiterfertigung einiges an Schwächen kaschiert.

Dass sich AMD und die RISC-Anbieter in der zweiten Hälfte der 2000er Jahre selbst demotiert haben, kann man nicht Intel als Verdienst zurechnen. Will sagen die Position als Platzhirsch beruhte mindest ebenso stark auf der Schwäche der Konkurrenz als auf den eigenen Stärken

Schon damals fiel bei den Hyperskalern die Entscheidung Intel das Data Center aus der Hand zu nehmen. Intel war schlicht und einfach zu gierig.

TechFA schrieb:
Das Interview mitsamt Statement von Bob Swan ist von August 2017!
Obwohl Brian Krzanich sicher viel mehr zerstört hat, war auch Bob Swan als CEO nicht gut für Intel. Er hat weiter fleissig Aktien zurückgekauft. Geld das er benötigt hätte um die Fabs auszugliedern.

Und auch beim Ausgliedern der Fabs kam er nicht voran, weswegen das Board kalte Füße bekam und Pat Gelsinger geholt hat, der das Gegenteil propagiert hat.
 
  • Gefällt mir
Reaktionen: ILoveShooter132, whynot?, TechFA und 2 andere
Weyoun schrieb:
Leider ist zudem oft das "Schmerzensgeld" in Großkonzernen deutlich höher als beim Mittelstand, weshalb man am Ende doch bleibt, auch wenn man mental bereits mit der Firma abgeschlossen hat.
Kommt halt auf das Schmerzensgeld an. Wenn wir hier von nem guten 6-stelligen Betrag sprechen, dann würde ich mir auch 6 - 8 Stunden Meetings am Tag geben. Bei meinem jetzigen Gehalt, würde ich schreiend kündigen, weil das Geld das nicht Wert ist.
stefan92x schrieb:
Intel macht aber eben auch deutlich mehr selbst als AMD. Das darf man nicht ignorieren und das anzumerken hat noch nichts mit schönreden zu tun.
Intel hat sich - auch durch die Gewinne - lange Zeit einiges an Projekten und Co geleistet und dafür die Teams, auch wenn am Ende dabei nicht viel rum gekommen ist als Produkt. Hat aber dann das Ökosystem PC als ganzes weiter gebracht oder in anderen Bereichen für Erfahrungen gesorgt.

Chuzam schrieb:
Intel hat aber mehr Mitarbeiter als AMD und TSMC zusammen - und TSMC bedient ja noch sehr viele andere Kunden als AMD ;)
AMD selbst "krankt" dabei zum Teil daran, dass sie zu wenige Mitarbeiter in bestimmten Bereichen haben. TSMC wiederum ist in einem "Bereich" aktiv.

Bei Intel wiederum hast du auch viele Abteilungen, die keine Produkte an sich entwickeln, gleichzeitig aber eben doch. Aktuell "spürbar" ist da Thunderbolt zu nennen. Aber ebenso teilweise die ATX-Norm, neue PC-Formate und Co. Intel hat im Bereich PC und Computer allgemein immer relativ viel "experimentiert", was keine direkten Produkte waren, aber irgendwie doch heute verwendet wird.

Dazu kommen Sparten, in den Sie Produkte anbieten, die man so garnicht auf dem Schirm hat.
CDLABSRadonP... schrieb:
Mit einem kompetenten Intel wäre es dazu vielleicht nie gekommen.
Es wäre dazu gekommen, nur die Frage in dem Fall ist wann. Grüchte, dass Apple auf ARM umschwenken will, gab es schon länger, nach dem man bei den Smartphone-Chips quasi schon eigene Wege gegangen ist.

https://www.maclife.de/ratgeber/neu...s-mehr-bringt-apple-2016-10073639.html?page=5

Und noch mal etwas älter: https://www.hardwareluxx.de/index.p...bald-mit-arm-statt-mit-intel-prozessoren.html
stefan92x schrieb:
Historisch hat Apple nie Ambitionen gehabt, eigene Chips zu entwickeln, sondern immer eingekauft.
So nicht ganz richtig. Sowohl an ARM als auch PowerPC war Apple in den Entwürfen beteiligt. Nur das Apple in den 80er und 90er nicht darum bemüht war, das alles "aus" ihrer Hand kommt, aber sie wollten teilweise schon die Kontrolle und haben an entsprechenden Stellen auch mitgearbeitet,

Apple hat da auch entscheidende Einflüsse auf die Prozessorenentwicklung bei Motorola und Co.
stefan92x schrieb:
Und sich dabei auch nicht an eine Architektur gebunden, sondern auch fundamentale Wechsel durchgezogen (68k -> PowerPC -> Intel) sowie parallel ARM/Samsung ins iPhone geholt (und das wohl nur, weil Intel nichts passendes anbieten konnte).
Das war eine Entwicklung, die sie gemacht haben und das auch aus gutem Grund. Sie wollten weitgehend "unabhängig" von einem Herstellster sein.

Motorola konnten sie mit ihrer "Macht" dazu bringen, dass quasi 68K "eingestellt" wurde und man nun PowerPC-Prozessoren entwickelt. Als die nicht mehr das "lieferten" was Apple wollte, ging man zu Intel und auch Intel hat ja einige "Extrasüppchen" für Apple gekocht.

Apple wollte immer eine gewisse Kontrolle über alles haben und sofern die Hersteller da mit gespielt haben: Gut. Wenn die Hersteller das irgendwann nicht mehr getan haben, wurde ein neuer gesucht oder eben einfach es in die eigene Hand genommen.
 
CDLABSRadonP... schrieb:
sondern insbesondere auch dazu, dass Apple sich von Intel trennen konnte. Mit vernünftig weitergeführter CPU-Architektur-Entwicklung und insbesondere SOC-Entwicklung wäre das niemals in der heutigen Form möglich geworden.
Brian Krzanich hat die CPU Entwicklung beschnitten, weil er Geld für andere Aufgaben frei machen wollte.
Gleichzeitig hat er im großen Stil Aktien zurückgekauft. Das hat sicher bei den Mitarbeitern für einen Motivationsschub gesorgt.

Aber auch bei der Prozessentwicklung und Fertigung sind damals sehr viele Leute gegangen.

Der Großteil der Zukäufe waren Flops andere haben im Grund wie zum Unternehmen gepasst.

Cool Master schrieb:
Das bezweifele ich. Es hätte ggf. länger gedauert aber Apple hätte früher oder später die M-Chips entwickelt. Das sieht man ja auch am eigenen Modem (C1) was Apple nun im 16e verbaut.
Das sehe ich genau so.
stefan92x schrieb:
Dafür gibt es keine Garantie. Historisch hat Apple nie Ambitionen gehabt, eigene Chips zu entwickeln, sondern immer eingekauft.
Apple war Geburtshelfer für Arm.
stefan92x schrieb:
Und sich dabei auch nicht an eine Architektur gebunden, sondern auch fundamentale Wechsel durchgezogen (68k -> PowerPC -> Intel)
68k wurde von Motorola gegen die Wand gefahren, deshalb musste Apple auf PowerPC wechseln. Aber Motorola und IBM haben auch den PowerPC gegen die Wand gefahren, weshalb Apple zu Intel wechseln musste. Es gab für die Macs keine Alternative. Es gab damals keine Arm-Prozessoren für PCs.

Zum Marktführer Intel zu gehen war für Apple eine sichere Wette.

stefan92x schrieb:
sowie parallel ARM/Samsung ins iPhone geholt (und das wohl nur, weil Intel nichts passendes anbieten konnte).
Ich würde es eher so sagen, dass Intel nicht der passende Partner für den Mobilmarkt war.

Intel hat Anfang der 2000er einiges in XScale investiert, das eine ARMv5 Architektur war. 2006 hat Intel XScale an Marvel verkauft und hat bekannt gegeben dass man das Mobil segment mit X86 (Atom) abdecken will. AFAIK gab es damit nur ein Mobilphone das RAZR i von Motorola.

Bestätigt von mehreren Quellen ist hingegen dass Apple bei Intel nachgefragt hat, den Chip fürs Iphone zu fertigen. Der Deal kam nicht zustande da Intel sich nicht auf die Preisvorstellungen von Apple einlassen wollte. In einem seiner letzten Interview hat Paul Otellini dies als seinen größten Fehler bezeichnet.
Ergänzung ()

DevPandi schrieb:
Es wäre dazu gekommen, nur die Frage in dem Fall ist wann. Grüchte, dass Apple auf ARM umschwenken will, gab es schon länger, nach dem man bei den Smartphone-Chips quasi schon eigene Wege gegangen ist.
Das mit den Gerüchten ist so eine Sache, es hat schließlich bis November 2020 gedauert.

Die Gerüchte gab es, weil es offensichtlich war, was Apple vorhat. Die SoCs wurden von Generation zu Generation leistungsfähiger und haben die Lücke zur X86 Performance Stück für Stück geschlossen.

Außerdem wenn selbst Microsoft versucht hat PC mit Arm zu etablieren war es klar dass Apple es früher oder später durchziehen wird. Apple hatte zuvor zwei Mal ziemlich problemlos die Prozessorarchitektur gewechselt.

Im November 2020 war eben alles bereit für den Umstieg.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cool Master
DevPandi schrieb:
Kommt halt auf das Schmerzensgeld an. Wenn wir hier von nem guten 6-stelligen Betrag sprechen, dann würde ich mir auch 6 - 8 Stunden Meetings am Tag geben. Bei meinem jetzigen Gehalt, würde ich schreiend kündigen, weil das Geld das nicht Wert ist.
Die Abfindungen berechnen sich meist folgendermaßen (bis die Deckelung halt greift):
Aktuelles Monatsgehalt mal Anzahl der Jahre im Konzern mal Altersfaktor. Der Altersfaktor variiert von Firma zu Fima und liegt oft zwischen 0,7 und 1,5. Im außertariflichen Bereich wird sogar oft noch mehr gezahlt.
 
Volker schrieb:
@CDLABSRadonP... Nicht nur zu Intel, das passt auch zu BMW, VW usw. Denn das Problem gibt es in der Regel ganz oft wenn ein Unternehmen zu groß geworden ist. Dann schleppst einfach gaaaaanz viel mit.
Das ist in vielen Unternehmen so.
Sehe ich gerade in der Firma, wo mein Bruder arbeitet.
Von den 3500 Angestellten müssen 450 in den nächsten 2 Jahren gehen.
Die Person, welche den 1.3 Milliarden Verlust hauptsächlich verschuldet hat, ist jetzt für den Abbau zuständig.

omaschabubu schrieb:
Was ist den geschassten 😜
https://de.m.wiktionary.org/wiki/schassen
 
CDLABSRadonP... schrieb:
Dann wäre er auf jeden Fall ein ziemlicher Dummkopf.
Nein, wahrscheinlich einfach nur bei Verstand.

Weil es bringt rein gar nichts, nur weil man Intel ist, ein hoch-defizitäres Produkt gegen jeden Widerstand und gesunden Menschenverstand und auf Kosten von horrenden Schuldenbergen von zig Milliarden verstohlen in den Markt drücken zu wollen, nur um darauf zu hoffen, daß man damit irgendwie auf Umwegen die Mitbewerber mit den eigenen schlechteren Produkten würde Paroli bieten können und über kurz oder lang damit den Wettbewerb ausbooten und vom Markt drängen kann, nur weil man meint, man würde den längeren finanziellen Atem haben …

Aber derart verfährt Intel ja weiß Gott nicht erst seit Gestern – Das war immer ihr Standard-Prozedere.

Solche Winkelzüge sind keine gesunde Unternehmensstrategie, das ist schlicht Schwachsinn, kapitales Rezept für finanziellen Ruin und ökonomische Selbstzerstörung wegen krankhaften Ego-Problemen. Zumindest soviel Selbsterkenntnis sollte man schon besitzen, um sowas erkennen zu können.
Aber das ist ja genau der Punkt, woran Intels Chef-Etage seit Jahrzehnten krankt: Selbstreflexion.

Das mag in den Neunzigern ganz toll funktioniert haben, wo man nur kurz für paar Wochen oder Monate unter des Wettbewerbers' Preis verkaufen mußte, um den Konkurrenten die Preise und damit Umsätze kaputt zu machen und aus dem Markt zu bekommen. Aber sowas klappt sicher nicht mehr heutzutage, wo Milliarden jedes Quartal im Spiel sind. Das ist schlicht Wahnsinn. Intel versucht es trotzdem …

Die dedizierte Intel-Grafik ist ein Kind von Gelsinger – Ein horrendes Milliardengrab auf Ganze Linie.
Der Quatsch hätte niemals auf den Markt kommen dürfen, solange man keine anständige Architektur und ausgereiftes Endprodukt vorweisen kann. Vom desolaten Treiber-Zustand ganz zu schweigen …

Mit ihrem DG1, dann Intels Xe Graphics und jetzt ARC durch die OEMs klammheimlich und hinterrücks am normalen Kaufverhalfen vorbei und fundamentalen Wettbewerbsprinzipien aussetzend, mit Verlusten zu weit unter Herstellungskosten an (hoffentlich genug) Marken-verblendete Endverbraucher zu verkaufen, hat Intel nichts Anderes eingebracht als Spott, Häme und brutale Verluste in Milliardenhöhe.

Intel hat nicht nur mal wieder die OEMs dafür bezahlen müssen, ihre Grafik überhaupt zu verbauen, sie mußten auch entweder zum Selbstkostenpreis oder gar weit unterhalb der eigentlichen Herstellungskosten verkaufen, damit sie (selbst von Fans!) überhaupt in Betracht kommen – Selbst eine massiv verlustbehaftete Produkt-Subventionierung hat also nicht geholfen, ein schlechtes Produkt am Markt zu platzieren.

Ein Glück hat diesen Ausgang absolut Niemand vorhersehen, noch soweit im Voraus denken können
Die OEMs, die sich von Anfang an samt und sonders geweigert haben, Intel ARC-Karten als Endnutzer-Produkte zu bringen, wußten bereits, daß der Intel-Quatsch in den Regalen versauert, weil in Keiner kauft.

Allein das Desaster um Intels Supercomputer AURORA Next war an Katastrophen-Meldungen doch kaum zu überbieten, konnte bestenfalls als Parade-Beispiel zum Fremdschämen herhalten und Intel hat Wer weiß wie viel Milliarden darin versenkt.

Wir müssen ja nichtmal zu Sapphire Rapids schauen, um festzustellen, daß Intel damit keine müde Mark gemacht hat. Ponte Vecchio war das selbe Theater und beide Performance-mäßig der blanke Treppenwitz, bei der Validierung obendrein sind SFR und PVC die reinste Horror-Show gewesen.

Intel hätte wirklich gut daran getan, bereits 2018 oder 2019 und spätestens um 2020, ein, zwei Jahre vor der eigentlich geplanten (und bereits von 2018 verschobenen) Ablieferung die Reißleine zu ziehen, notwendigenfalls Vertragsstrafen zu kassieren und das Projekt als solches insgesamt zu stoppen.

So gab es nicht nur eine Vertragsstrafe von mehr als einer halben Milliarde ($600m), Intel hatte für diesen ganzen Unsinn Milliarden-Investitionen und horrende Verluste durch die akuten Validierungsprobleme bei Sapphier Rapids und Ponte Vecchio. Der Knaller war, das beide Produkte praktisch unmittelbar danach eingestellt wurden, Ponte Vecchio sofort am selben Tag, während man Sapphire Rapids hat notgedrungen weiter laufen lassen, weil das einzige Produkt in der Pipeline (Esmerald sollte erst später kommen).
CDLABSRadonP... schrieb:
Die dGPUs muss Intel nicht entwickeln, um im dGPU-Markt Gewinne einzufahren, sondern um die iGPU-Architekturentwicklung zu beschleunigen.
Man muß deswegen kein miserables und unvollständiges Produkt im Markt platzieren, dieses unterhalb der Herstellungskosten verkaufen und dabei Milliardenverluste bestreiten, nur um festzustellen, daß man bisher nicht mit dem Wettbewerb mithalten kann.

Mag vielleicht bei dem Ein oder Anderen Neuland sein, aber Tests kann man tatsächlich auch intern machen!

CDLABSRadonP... schrieb:
Ohne die beste iGPU-Architektur ist schlicht kein Blumentopf zu gewinnen.
Eben. Intel hat sich ja die letzten bald 20 Jahre jede Mühe gegeben, genau das eindrucksvoll zu beweisen.

Nvidia und besonders AMD hat seit jeher aus gutem Grund Kreise um die iGPUs von Intel gedreht. AMD ist bei APUs derart ungeschlagen und auf und davon, daß Nvidia nach Jahren selbst ihre Shared-Memory Grafik-Chipsätze einstellte, weil sie kaum mit AMD's APU-Grafik mithalten können.

Da braucht man jetzt kein Hellseher sein, um festzustellen, daß es praktisch unmöglich ist, Jahrzehnte an Erfahrung in GPU-Entwürfen und Treiber-Entwicklung für Grafikkarten aufzuholen, zumal Intel selbst mit der Qualität, Stabilität und Leistung ihrer eigenen iGPU-Treiber immer gewisse Probleme hatte.

Intel kann noch so sehr forschen und versuchen, es ändert nichts an den Tatsachen und deren Realitäten;
Der Markt für dedizierte Grafik ist Patent-technisch fest in den Händen von AMD/ATi (Radeon, rDNA, RNA uws.), Nvidia (GeForce, Tesla/Quadro usw.) und Imagination Technologies (PowerVR), genannt in der Reihenfolge der Patent-Volumina, wobei ich Qualcomm's Grafik-IP (Adreno) noch zu ATi (Imageon) zählen würde.

Es ist heute praktisch unmöglich dedizierte Grafik zu entwickeln, ohne die Patente von den dreien zu verletzen oder zumindest Zugang zu deren Grafik-IP zu haben. Intel will trotzdem mit dem Kopf durch die Wand.
 
Zuletzt bearbeitet: (Typo)
Das tönt schon mal nicht schlecht, vor allem, weil er auch ein gewisses technisches Verständnis mitbringt. Pat Gelsinger war wohl zu gutmütig, schade konnten die Zwei sich damals nicht einigen, sonst würde es jetzt weniger dramatisch um Intel stehen.
 
Volker schrieb:
@CDLABSRadonP... Nicht nur zu Intel, das passt auch zu BMW, VW usw. Denn das Problem gibt es in der Regel ganz oft wenn ein Unternehmen zu groß geworden ist. Dann schleppst einfach gaaaaanz viel mit.
Beim sogenannten "mittleren Management" ist das Problem des "bloating" - Blähungen- besonders groß; die sogenannte Führungsetage (Senior Management) hat ihre Daseinsberechtigung auch darin, wieviele Middle Management Leute sie denn so führen. Wenn man Mittlere Manager abbaut, braucht man auch nicht mehr so viele VPs. Und wenn Personal abgebaut werden soll, wird meistens zuerst das Mittlere Management gefragt, wer gehen soll; nur die wenigsten Manager schlagen sich dann selbst vor 😁.
Ergänzung ()

Helge01 schrieb:
Wenn man dann noch die Meeting-Seuche abschafft, gibt es wieder genügend Mitarbeiter die auch mal zum arbeiten kommen.

In meinen letzten Arbeitsjahren nahmen die schon den Großteil der Arbeitszeit ein.
In mindestens einer Ventures Capital Firma in Silicon Valley hat man deshalb schon vor über 20 Jahren die Regel eingeführt, das alle Meetings stehend gemacht werden müssen - keine Stühle erlaubt. Ausnahmen nur für Leute, die aus medizinischen Gründen nicht stehen können. Scheinbar hat diese Regel die durchschnittliche Dauer der Meetings sehr stark reduziert 😄.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Helge01
TechFA schrieb:
Weil es bringt rein gar nichts, nur weil man Intel ist, ein hoch-defizitäres Produkt gegen jeden Widerstand und gesunden Menschenverstand und auf Kosten von horrenden Schuldenbergen von zig Milliarden verstohlen in den Markt drücken zu wollen, nur um darauf zu hoffen, daß man damit irgendwie auf Umwegen die Mitbewerber mit den eigenen schlechteren Produkten würde Paroli bieten können und über kurz oder lang damit den Wettbewerb ausbooten und vom Markt drängen kann, nur weil man meint, man würde den längeren finanziellen Atem haben …
Sich in einem neuen Markt zu etablieren, kostet nun Mal Geld. Du willst also, dass Unternehmen nicht versuchen sich neue Märkte zu erschließen?

Das Problem ist nicht, dass Intel versucht GPU IP aufzubauen, sondern dass Intel viel zu lange sich darum gedrückt hat GPU IP außerhalb von iGPUs einzusetzen und es im Data Center mit letztendlich untauglichen Architekturen versucht hat.

TechFA schrieb:
Allein das Desaster um Intels Supercomputer AURORA Next war an Katastrophen-Meldungen doch kaum zu überbieten, konnte bestenfalls als Parade-Beispiel zum Fremdschämen herhalten und Intel hat Wer weiß wie viel Milliarden darin versenkt.
Wie gesagt basiert ein großer Teil der Verzögerungen und Probleme bei Aurora darauf, dass Intel viel zu lange versucht hat HPC und AI ohne GPU IP abzudecken.

Ponte Vecchio war IMO der Versuch eine noch nicht wettbewerbsfähige GPU IP durch Advanced Packaging zu kaschieren. Aber offensichtlich ist dies misslungen.

TechFA schrieb:
Intel hätte wirklich gut daran getan, bereits 2018 oder 2019 und spätestens um 2020, ein, zwei Jahre vor der eigentlich geplanten (und bereits von 2018 verschobenen) Ablieferung die Reißleine zu ziehen, notwendigenfalls Vertragsstrafen zu kassieren und das Projekt als solches insgesamt zu stoppen.
Das Problem einen ineffizienten Supercomputer zu haben, hat das Argonne National Laboratory. Intel hat einen Supercomputer geliefert, darauf hätte Intel aufbauen können ...

Dir ist doch klar, dass Pat Gelsinger weder 2018, noch 2019 noch 2020 Aurora canceln konnte, da er noch gar nicht CEO von Intel war?

Außerdem wäre das zurücktreten vom Auftrag für Aurora ein katastrophaler Imageschaden für Intel gewesen.
TechFA schrieb:
Der Knaller war, das beide Produkte praktisch unmittelbar danach eingestellt wurden, Ponte Vecchio sofort am selben Tag, während man Sapphire Rapids hat notgedrungen weiter laufen lassen, weil das einzige Produkt in der Pipeline (Esmerald sollte erst später kommen).
Viel schlimmer war aber, dass gleichzeitig auch Rialto Bridge der Nachfolger von Ponte Vecchio eingestellt wurde. Intel wollte sich auf dessen Nachfolger Falcon Shores konzentrieren.

Intel hat im Januar 2025 Falcon Shores zu einem internen Testchip degradiert. Nun soll es dessen Nachfolger Jaguar Shores richten. Zuvor hatte Intel die Weiterentwicklung von Gaudi zugunsten von Falcon Shores gecancelt. Ein Großteil des Gaudi-Entwicklerteams hat Intel schon wieder verlassen.

Canceln ist auch keine Lösung, da man damit lediglich der Konkurrenz den Markt überlässt. Produkte, die nur in den eigenen Testlabors herumdümpeln bringen rein gar nichts.

Ohne wettbewerbsfähige GPU IP geht Intel ganz schweren Zeiten entgegen.

TechFA schrieb:
Es ist heute praktisch unmöglich dedizierte Grafik zu entwickeln, ohne die Patente von den dreien zu verletzen oder zumindest Zugang zu deren Grafik-IP zu haben. Intel will trotzdem mit dem Kopf durch die Wand.
Wo soll da das Problem sein? Dafür gibt es Patenttauschabkommen:
https://www.computerbase.de/news/ne...-fuer-patenttausch-mit-nvidia-1-5-mrd-.30042/

Und nein, diese 1,5 Mrd USD hat nicht Pat Gelsinger zu verantworten, er war da schon weg.

Es mag Dich schocken, aber Intel hat auch bei GPUs ein nettes Patentportfolio.

iGPUs macht Intel auch schon sehr lange:
https://en.wikipedia.org/wiki/List_of_Intel_graphics_processing_units
 
Nazrael schrieb:
Richtig. Wer einmal einen Einblick in die Strukturen von Großkonzernen bekommen hat, weiß genau, wie extrem marode diese oft sind - da ist das endlose „Mail-Weiterleiten-Ping-Pong“ noch die harmloseste Ausprägung.
Ich war mal in einer Abteilung wo es mehr Manager hatte als Entwickler und Kundenbetreuer. Endlos meetings... Die Firma wurde verkauft und bald darauf restrukturiert.
 
  • Gefällt mir
Reaktionen: Nazrael und eastcoast_pete
polyphase schrieb:
Och ne, der Typ ist ein totaler KI Fetischist und war gegen das entwickeln von GPUs.

Na gute Nacht, das war's mit ARC Karten 😢

In Zukunft gibt es dann den Intel KI Core Ultra KI PRO Max 😆
Wie geht das denn zusammen? Gpus sind doch gerade für AI interessant?!

Cheers
hamu
 
Ich würde mich freuen, wenn Intel diese Unternehmenskrise übersteht. Dazu gehört selbstverständlich auch das Überleben der eigenen Foundry. Das wäre sehr gut für den Halbleitermarkt bzw. für die allgemeine Kostenentwicklung von Halbleiterprodukten.
 
GOOFY71 schrieb:
Auf alle Fälle werden viele Kartons auf so mancher Ebene bei Intel in den Büros gepackt werden...
Und wer gießt die ganzen Benjaminis in den leerstehenden Büros?
 
  • Gefällt mir
Reaktionen: GOOFY71
Zurück
Oben