Das würde - so wie ich das nun versteh, korrigiere mich gerne - aber heißen, wenn Intel die Fertigung hinkriegt (also vor allem die Fremdfertigung) zumindest technisch nicht so schlecht da steht. TSMC wohl die Nr1, Intel dahinter und wenn Samsung es nicht hinkrieg dann länger mal nichts. Und das könnte ja auch für Intel eine Chance sein?ETI1120 schrieb:Intel wird so wie es aussieht moderne Prozesse haben die Funktionieren. Samsung nicht. Die anderen Foundries hängen bestenfalls am 14 nm Node. Bei den anderen Foundries ist für Intel schon noch einiges zu holen. Gegen TSMC wird es verdammt schwer.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Andauernde Yield-Probleme: Samsung kämpft mit 4 nm, 3 nm und 2 nm
- Ersteller Volker
- Erstellt am
- Zur News: Andauernde Yield-Probleme: Samsung kämpft mit 4 nm, 3 nm und 2 nm
Zu N3 wurde jede Menge Blödsinn geschrieben, das gehört IMO dazu. Die Geschichte kam zum ersten mal in EETimes auf, in einem sehr kruden Artikel.eastcoast_pete schrieb:Letztes Jahr (2023) lief bei TSMC deren "bester" 3 nm (N3b) Knoten auch nicht so toll, so daß Apple anstatt pro Wafer dann nur pro funktionierende SoC gezahlt hat.
TSMC lebt davon hohe Yields zu erzielen.
Es ist genau anders herum.eastcoast_pete schrieb:Einer der Gründe (der Hauptgrund?) warum zB Zen4c und auch Zen5c nicht so hoch takten können bzw dürfen wie die "full size" Kerne ist wohl auch, daß die Strukturen der C-Kerne enger gepackt sind (bei gleicher Fertigung).
Aus einem Interview mit Mike Clark bei Toms Hardware
TH: Wie erreichen Sie das, wenn Sie den Standardkern betrachten und ihn verkleinern und gleichzeitig die Leistungsfähigkeiten so anpassen, dass Sie keine Probleme mit Thread-Abhängigkeiten haben? Dichtere Bibliotheken, engere Abstände?
MC: Es ist eher das Letztere - die Bibliothek ist die gleiche. [...] Es gibt eine Art logische Blöcke, und es gibt sogar Subblöcke, aber um die hohe Frequenz in bestimmten kritischen Geschwindigkeitsbereichen zu erreichen, müssen wir das Design in kleine Teile zerlegen, an denen wir dann individuell arbeiten. Letztendlich ist es aber ein Rechteck; die Dinge sind weiter voneinander entfernt, als sie sein müssten, es gibt Leerraum, und das alles, um die hohe Frequenz zu erreichen. Aber dann sagen wir: „Okay, dann senken wir eben die maximale Frequenz. Dann können wir Blöcke miteinander kombinieren; wir müssen nicht mehr so viel individuelle Arbeit leisten, und das Design kann nach innen gestaucht werden. Es ist jetzt natürlich kleiner, weil wir den Platz besser ausnutzen. Als es noch größer war, gab es zusätzliche Logik für Repeater und dergleichen, es gab Pufferung, und all das fällt jetzt weg. Es ist erstaunlich, wie sehr man den Kern schrumpfen kann, egal welches Ziel man sich gesetzt hat, um dann einen Haufen Fläche und Energie zu finden, um das Maximum herauszuholen. Das lag wirklich nur daran, was wir tun mussten, um diese hohe Frequenz zu erreichen. Nun könnte man sagen: 'Warum seid ihr nicht besser darin, diese kleinen Bündel auszuwählen? ' Aber das machen wir schon seit Jahren, und wir können die kleineren Blöcke nicht perfektionieren. Das liegt einfach in der Natur des Designs.
MC: Es ist eher das Letztere - die Bibliothek ist die gleiche. [...] Es gibt eine Art logische Blöcke, und es gibt sogar Subblöcke, aber um die hohe Frequenz in bestimmten kritischen Geschwindigkeitsbereichen zu erreichen, müssen wir das Design in kleine Teile zerlegen, an denen wir dann individuell arbeiten. Letztendlich ist es aber ein Rechteck; die Dinge sind weiter voneinander entfernt, als sie sein müssten, es gibt Leerraum, und das alles, um die hohe Frequenz zu erreichen. Aber dann sagen wir: „Okay, dann senken wir eben die maximale Frequenz. Dann können wir Blöcke miteinander kombinieren; wir müssen nicht mehr so viel individuelle Arbeit leisten, und das Design kann nach innen gestaucht werden. Es ist jetzt natürlich kleiner, weil wir den Platz besser ausnutzen. Als es noch größer war, gab es zusätzliche Logik für Repeater und dergleichen, es gab Pufferung, und all das fällt jetzt weg. Es ist erstaunlich, wie sehr man den Kern schrumpfen kann, egal welches Ziel man sich gesetzt hat, um dann einen Haufen Fläche und Energie zu finden, um das Maximum herauszuholen. Das lag wirklich nur daran, was wir tun mussten, um diese hohe Frequenz zu erreichen. Nun könnte man sagen: 'Warum seid ihr nicht besser darin, diese kleinen Bündel auszuwählen? ' Aber das machen wir schon seit Jahren, und wir können die kleineren Blöcke nicht perfektionieren. Das liegt einfach in der Natur des Designs.
Übersetzt mit DeepL.com (kostenlose Version)
Wie groß kann man diesen Vorteil ca einschätzen?ETI1120 schrieb:TSMC hat noch FinFlex und NanoFlex die den Designern weiteres Optimierungspotential.
Das Problem ist dass Intel die Erwartungen nach oben getrieben hat. Diese zu erfüllen wird schwer.BAR86 schrieb:Das würde - so wie ich das nun versteh, korrigiere mich gerne - aber heißen, wenn Intel die Fertigung hinkriegt (also vor allem die Fremdfertigung) zumindest technisch nicht so schlecht da steht.
Zum Glück für Intel öffnet Samsung öffnet eine Tür.
Es ist so: TSMC ist die Nummer 1 und dann kommt erst Mal nicht, dann könnte Intel kommen.BAR86 schrieb:TSMC wohl die Nr1, Intel dahinter und wenn Samsung es nicht hinkrieg dann länger mal nichts. Und das könnte ja auch für Intel eine Chance sein?
Aber aus unterschiedlichen Designs Aussagen über die Prozesse ableiten zu wollen, ist sehr schwer.BAR86 schrieb:Hmmm vielleicht können wir ein bisschen was ableiten wenn wir Panther Lake in 18A haben nächstes Jahr?
Man wird sehen wen Intel als Kunden gewinnt und welche Produkte gefertigt werden.
Oh, weil ich ein Depp bin und meist nebenbei was anderes tu, etwa Kinder bespaßen die nicht schlafen wollen.... ich bezog mich auf Lunar Lake (TSMC N3(E?) vs Panther Lake (Intel 18A)ETI1120 schrieb:Aber aus unterschiedlichen Designs Aussagen über die Prozesse ableiten zu wollen, ist sehr schwer.
Was wohl auch der Fall ist ist das selbst wenn alle 3 die gleichwertigen Prozesse anbieten könnten, TSMC immer noch vorne wäre, weil wohl die Tools die die Bereit stellen und die Kommunikation mit denen besser läuft.
Dazu hat z.B. Nvidia keine Angst bei TSMC zu produzieren, aber bei Intel könnte es schon Angst sein das die sich inspirieren lassen von deren Chips... und dann plötzlich Fortschritte bei deren GPUs machen...
Dazu hat z.B. Nvidia keine Angst bei TSMC zu produzieren, aber bei Intel könnte es schon Angst sein das die sich inspirieren lassen von deren Chips... und dann plötzlich Fortschritte bei deren GPUs machen...
TSMC hat mit einem Rückstand von 2 Nodes angefangen.
Nach dem Initialen Start an dem TSMC die Prozesse Philips übernommen hat, entwickelte TSMC die weiteren Prozesse selbst weiter. Wie Intel. Samsung war ab der Jahrtaussendwende bei der Prozessentwicklung in einem Joint Venture mit IBM und AMD. Aber wahrscheinlich der dominierende Partner.
Als Samsung auf TSMC aufmerksam wurde und ebenfalls behauptet hat eine Foundry zu haben, waren TSMC und Samsung von den Prozessen in etwa gleich auf. Trotzdem sind alle Kunden die Samsung Foundry hatte, letztendlich bei TSMC gelandet. Weder Xillinx noch Apple sind zu TSMC gewechselt, weil TSMC bessere Prozesse hatte. Aber Xilinx und Apple haben TSMC weitergebracht.
Der Punkt warum die Samsung Foundry immer nur begrenzten Erfolg hatte ist, dass die Samsung Foundry keine Foundry ist. Samsung steht in Konkurrenz zu seinen Kunden. Und dass die Branche Samsung nicht vertraut hat nicht nur mit dem schlechten Yield und den schlechten Chips zu tun die Samsung in den letzten Jahren fertigt.
Hinzu kommt das die Idee alle 3 gleichwertige Prozesse hätten, so nicht funktioniert. Ein Prozess der ideal für Mobilphone SoC ist, in in der Regel nicht ideal für High Performance CPUs. Es gibt kein One Size Fits all. Deshalb bietet TSMC viele verschiedene Prozesse an. und deshalb haben sie viele kleine Foundries ihre Nische gefunden. Denn selbst TSMC kann den Markt nicht komplett abdecken.
Heutzutage müssen Design und Prozess eng aufeinander angepasst werden, das wird als DTCO bezeichnet. Die Skalierrung basierte in den letzten Nodes mehr und mehr auf DTCO anstatt auf nur auf verkleinern der Strukturen. Dazu müssen Kunde und Foundry eng zusammenarbeiten. Und wenn man nicht eng zusammenarbeitet weil der Kunde der Foundry nicht vertraut, kommen schlechtere Ergebnisse heraus.
Bei der ganze Geschichte darf man nicht vergessen, dass TSMC in den letzten Jahren gewaltig gewachsen ist. TSMC war auch sehr erfolgreich als sie im Vergleich zu Intel und Samsung Semiconductor ein kleines Unternehmen waren. Das sind sie nun nicht mehr.
Bei den Ausgaben für Kapazitätserweiterungen kann selbst Samsung Seminconductor kaum mithalten. Geschweige denn Intel.
Nach dem Initialen Start an dem TSMC die Prozesse Philips übernommen hat, entwickelte TSMC die weiteren Prozesse selbst weiter. Wie Intel. Samsung war ab der Jahrtaussendwende bei der Prozessentwicklung in einem Joint Venture mit IBM und AMD. Aber wahrscheinlich der dominierende Partner.
Als Samsung auf TSMC aufmerksam wurde und ebenfalls behauptet hat eine Foundry zu haben, waren TSMC und Samsung von den Prozessen in etwa gleich auf. Trotzdem sind alle Kunden die Samsung Foundry hatte, letztendlich bei TSMC gelandet. Weder Xillinx noch Apple sind zu TSMC gewechselt, weil TSMC bessere Prozesse hatte. Aber Xilinx und Apple haben TSMC weitergebracht.
Der Punkt warum die Samsung Foundry immer nur begrenzten Erfolg hatte ist, dass die Samsung Foundry keine Foundry ist. Samsung steht in Konkurrenz zu seinen Kunden. Und dass die Branche Samsung nicht vertraut hat nicht nur mit dem schlechten Yield und den schlechten Chips zu tun die Samsung in den letzten Jahren fertigt.
Hinzu kommt das die Idee alle 3 gleichwertige Prozesse hätten, so nicht funktioniert. Ein Prozess der ideal für Mobilphone SoC ist, in in der Regel nicht ideal für High Performance CPUs. Es gibt kein One Size Fits all. Deshalb bietet TSMC viele verschiedene Prozesse an. und deshalb haben sie viele kleine Foundries ihre Nische gefunden. Denn selbst TSMC kann den Markt nicht komplett abdecken.
Heutzutage müssen Design und Prozess eng aufeinander angepasst werden, das wird als DTCO bezeichnet. Die Skalierrung basierte in den letzten Nodes mehr und mehr auf DTCO anstatt auf nur auf verkleinern der Strukturen. Dazu müssen Kunde und Foundry eng zusammenarbeiten. Und wenn man nicht eng zusammenarbeitet weil der Kunde der Foundry nicht vertraut, kommen schlechtere Ergebnisse heraus.
Bei der ganze Geschichte darf man nicht vergessen, dass TSMC in den letzten Jahren gewaltig gewachsen ist. TSMC war auch sehr erfolgreich als sie im Vergleich zu Intel und Samsung Semiconductor ein kleines Unternehmen waren. Das sind sie nun nicht mehr.
Bei den Ausgaben für Kapazitätserweiterungen kann selbst Samsung Seminconductor kaum mithalten. Geschweige denn Intel.
Ähnliche Themen
- Antworten
- 47
- Aufrufe
- 2.585
- Antworten
- 43
- Aufrufe
- 8.565
- Antworten
- 22
- Aufrufe
- 5.266
- Antworten
- 60
- Aufrufe
- 9.097