fdsonne schrieb:
Unsinn, das ist nur die typische Stammtisch Argumentation. Intel hat grob 6 Jahre lang 10nm nicht unters Volk bekommen und sich durch weitere Verbesserung des Vorgängerprozesses dazu noch selbst Steine in den Weg gelegt.
Mit Ausruhen hat das exakt gar nix zu tun, eher im Gegenteil, AMD aktuell belegt eindeutig, dass Innovationen im CPU Architektur Bereich was Leistung und Effizienz angeht, oben in der Position des Vorreiters absolut kein Selbstläufer ist, von den hohen Zuwächsen von Zen 1 auf 2 auf 3 und ein Stück weit noch 4 wird es nunmehr immer dünner. Es ist viel einfacher ähnlich der existierenden Konkurrenz zu agieren als in größeren Schritten dieser Vorwegzulaufen.
Intel hat nach wie vor kein Technologie Problem bei der CPU selbst, sondern ein Fertigungsproblem bis hin zu 3nm von TSMC extern eingekauft, weil es selbst nicht fertigbar ist zu dem Zeitpunkt. Sie haben sogar die mMn etwas besseren Karten in der Hand, da sie voll funktionfähige Hybrid Chips fertigen und dazu noch anstatt simplem MCM Verfahren Tile based ihr Endprodukt aus dem Baukasten erstellen. Mit der richtigen Technik kann das durchaus Vorteil sein. Abwarten ob sie es zustande bekommen. AMD muss schon tricksen, klassisch monolitisch oder riesen Trümmer von MCM. Selbst Apple ist da nicht flexibel genug. Wobei das ein anderer Markt ist.
Neben all den Plänen und Visionen ist das am Ende bei weitem kein "ausruhen" sondern viel eher ein nicht auf die Reihe bekommen. Möglicherweise gepaart mit der anfänglichen Überheblichkeit das Thema doch lösen zu können, was bestimmt 2, 3 Jahre gekostet hat bis man dort 10nm initial zusammen gekürzt hat um auch Druck raus zu nehmen.
Ich bin gespannt, wie du es hinbekommen möchtest, folgende Punkte bzgl. Ausruhen wegzuargumentieren:
- Intel hat sich nicht ernsthaft darum gekümmert, eine sinnvolle GPU-Architekturbasis aufzubauen.
- Intel hat endkundenunfreundliche Eigenheiten aktiv aufgebaut und nicht umgehend wieder fallen gelassen, als AMD Ryzen in den Konkurrenzkampf eingetreten ist.
- Intel hat sich zu spät um Chiplets gekümmert.
- Intel hat insgesamt überall B-Noten schleifen lassen.
- Intel hat keinen Summit-Ridge-Hardcounter gebracht.
Zu 1.: Wieso ist das wichtig? Wenn man GPU-Architektur ignoriert, dann ist es leichter möglich, für andere Marktteilenehmer im SOC-APU-Geschäft zurückzuschlagen. Und ja, es ist sinnvoll, dGPUs auch dann zu produzieren, wenn sie einem selbst gar nichts einbringen (sollen), man dafür aber eine sinnvolle Architekturbasis aufbaut.
Zu 2.: Wieso ist das wichtig? Durch ihre TIM-Geschichte, durch ihr künstliches unterbinden vom Laden von XMP und solchen Geschichten hat Intel Desktopkäufer in die Arme von AMD getrieben. Das führt natürlich auch zu schlechten Leumund, was Intel angeht und zu einem guten Ruf für AMD.
Zu 3.: Intel war überzeugt, dass für sie keine Chiplets bei Server-CPUs nützlich sind. Diese Überzeugung war vollkommen absurd. Aus einem System mit zwei Sockeln eines mit einem zu machen, mit dem doppelt so viel verknüpft ist, ist einfach super attraktiv. Sie hätten damit sogar ihren Großkunden noch mehr aus der Tasche ziehen können und hätten obendrein Technologie parat gehabt.
Zu 4.: Egal, ob es um Displayanschlüsse (besonders wichtig in Notebooks) an den iGPUs, um Boxed-Kühler, um Mainboards oder sonst etwas geht, stehts gilt: Intel hat Potential verschenkt! Das ist der Inbegriff des Ausruhens, sie haben sich nicht darum gekümmert, uneinholbar zu werden.
Zu 5.: Intel hätte problemlos damals sagen können, dass sie schon einen 9900K-ähnlichen Prozessor bringen würden und das zu gutem Preis. Und zwar einfach, indem sie die iGPU zusammengestrichen oder ganz entfernt hätten. Von der Chipfläche hätte das gepasst.
Fällt etwas auf? Das waren fünf knallharte Punkte und allesamt Punkte ohne Einfluss der Fertigung. Zur Fertigung wurde bereits von jemand dritten genug gesagt, siehe hier:
RogueSix schrieb:
Doch. Eigentlich schon. Gelsinger hat selbst wörtlich gesagt, dass das "stupid" war, dass man nicht parallel zum Multipatterning auch an EUV geforscht und entwickelt hat (alles natürlich vor seiner Zeit gewesen).
Da kann ich ihm nur zu 100% Recht geben. Das war wirklich dumm. Eine Firma vom Format von Intel sollte im Rahmen des Risikomanagements immer einen Plan A, einen Plan B und ggf. -je nach Sachlage- sogar noch weitere Pläne in petto haben.
Multipatterning Plan A, EUV Plan B. So hätte es aussehen müssen und nachdem Multipatterning krachend gescheitert ist, hätte man damals (wir reden da so über ca. 2016/2017) zügig das Gleis wechseln müssen.
Dann wäre Intel mutmaßlich viel erspart geblieben. Sie hätten 10nm mit etwas Verzögerung hinbekommen statt jahrelang auf der x-ten Iteration von 14nm+ rumzuhängen.
Für mich ist das unerklärlich, wie Intel das so versemmeln konnten. Da braucht man kein hochbezahlter Top-Ingenieur für sein. Das gebietet doch schlicht und ergreifend schon der gesunde Menschenverstand, dass es immer vorteilhaft ist, wenn man mehrere Eisen im Feuer hat und Intel muss doch damals schon klar gewesen sein, dass an EUV längerfristig eh kein Weg vorbei führen wird.
Je früher man also damals angefangen hätte, Erfahrungen zu sammeln, desto besser wäre das doch gewesen. Intel hat zahlreiche Teams und Standorte, die sie damals auf EUV hätten ansetzen können, um schon mal die Grundsteine zu legen, während andere Teams/Standorte parallel hätten versuchen können, den Multipatterning-Pfad weiter auszutreten.
Da gibt es nichts zu beschönigen. In der Hinsicht hat sich Intel wirklich regelrecht saudumm und amateurhaft angestellt. So etwas kannst Du als Konzern von dem Format nicht bringen.
Da müssen zahlreiche Führungskräfte in Schlüsselpositionen komplett versagt haben. Das ist doch wie man im Englischen sagt "business 101", dass man als Führungskraft wie beim Schach im Idealfall alle möglichen Züge im Voraus durchdenkt und somit auch immer mindestens ein Plan B vorhanden sein MUSS, den man alternativ aktivieren kann, wenn Plan A zu scheitern droht.