News Foundry-Gerüchte: Samsungs Vorzeige-Fabrik bei 5 nm unter 50 % Yield

TierParkToni schrieb:
Das ist die eine Seite der Medaille, aber die andere ist der dafür notwendige Rohstoffbedarf und davon wiederum deren Erzeugung/Gewinnung - wenn sich das "Rennen" diesbezüglich nur um 10 % verlangsamt, ist die prognostizierte Umwelt-Belastung hierfür bei 20-30% weniger, und damit für alle auf dem 3. Planeten in diesem Sonnensystem ein Gewinn....
Das ist Blödsinn, wenn diese Chips fehlen verlangsamt es potenziell auch die Forschung oder Entwicklung von bspw. genaueren Wettermodellen. Wenn wir uns alle in Höllen verkriechen wird uns das vor dem Klimawandel auch nicht retten.

S.Kara schrieb:
Das wäre tatsächlich fatal, dann würde eine 3080 eher 1200€ anstatt 700€ kosten. Da würde Nvidia massivst Marktanteile verlieren und somit einen Teufel tun dort zu buchen.
Aus Sicht von TSMC nicht so das Problem. Das wir Lieferknappheiten bei Chips nicht gewohnt sind ist ein anderes Problem.
 
Matthias B. V. schrieb:
aber auf Dauer werden sie das nicht durchalten. Intel hatt nur Glück dass AMD nicht genügend Kapazitäten hat und man aktuell alles verkaufen kann. Nvidia steht besser da aber sollte sich auch nicht zu sehr ausruhen...

Zumindest der Teil mit 'aktuell kann man alles verkaufen', wird uns wohl noch etwas länger begleiten.
Unabhängig davon sehe ich aber auch zunehmend kein so großes Problem mehr darin, wenn nicht jedes Produkt im neueste, kleinsten und damit besten Fertigungsprozess hergestellt wird. Auf CB macht man sich damit vlt. unbeliebt, aber außerhalb der Enthusiasten Blase sind Smartphone SoCs, CPUs und GPUs 2021 nur in seltenen Fällen limitierende Faktoren. Ein neuer Ryzen R5/7 oder Core i5/7 würden auch 2022 in der aktuellen Strukturbreite Abnehmer finden.
Vlt. sind die neuesten Prozesse eben bald der Wirtschaft und Forschung vorenthalten, wo mehr Geld vorhanden und die höchste Effizienz wirklich von Nöten ist.

Geschrieben auf nem 10nm SD835, der auch 2021 noch nicht zu langsam ist.
 
  • Gefällt mir
Reaktionen: eastcoast_pete und ComputerJunge
v_ossi schrieb:
Vlt. sind die neuesten Prozesse eben bald der Wirtschaft und Forschung vorenthalten, wo mehr Geld vorhanden und die höchste Effizienz wirklich von Nöten ist.

Oder eben halt denen, die am meisten bezahlen können, wie z.B. Apple.
 
onetwoxx schrieb:
Gewinne/Verluste wird ja über die gesamte Fertigungssparte verteilt, am Ende jedes Quartals hat Samsung ja bisher dennoch immer einen operativen Gewinn auszuweisen

So lange Samsung nichts dazu sagt, sind das nur die üblichen Gerüchte, die doch gefühlt jedes Jahr im Raum stehen um am Ende meist dramatisch übertrieben sind
Andererseits könnte man sagen, wer bei 50% i. O. Teilen immer noch Geld verdient, verdient sich bei 100% i. O. Teilen ne goldene Nase.
Sag das mal der Kunststoffindustrie da muss du quasi 99,5% Gutteile fahren um noch was zu verdienen.
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
S.Kara schrieb:
Das wäre tatsächlich fatal, dann würde eine 3080 eher 1200€ anstatt 700€ kosten. Da würde Nvidia massivst Marktanteile verlieren und somit einen Teufel tun dort zu buchen.
Naja das ist aber auch eine Milchmädchenrechnung. Hier gehts nur um die reinen Fertigungskosten und die 700€ sind ja MSRP und beinhalten Versand & Abwicklung, Garantie(en), R&D, Marketing, VRAM, Kühler & Marge vom Dritthersteller sowie Marge vom Distributor und Retailhandel und mehr.

Reine Produktionskosten werden deutlich tiefer liegen. Wenn man davon ausgeht dass ein 300mm Wafer dich um die 6,5k kostet und man bei einem 83% Yield etwa 73 gute Dies rauskriegt a 628mm² GA102 kostet dich der Chip selbst nur 89 Steine an Material, plus natürlich ein bisschen was extra.

Die GPU würde dann halt 800€ kosten statt 700€. Ja, das ist auch nicht geil, aber die Rechnung geht schon eher auf wenns um kleine Chips geht a la Apple M1 (119mm²), wo selbst mit höherer Defect Density problemlos die Kosten bei unter 15$ pro Chip liegen. Und ob dein Macbook nun statt 2.679€ auf einmal 2.699€ kostet dürfte egal sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schumey, onetwoxx, S.Kara und eine weitere Person
Der Artikel grenzt schon an Rufschädigung. Volker sollte vorm schreiben nachdenken. Ohne Vergleichszahlen ist das alles nichts wert. TSMC wird bei 5nm auch keine >90% Yield haben. Zudem Yield auch jeder anders definiert. Zählen die alle 100% funktionierende Dies oder auch Downgrades dazu.
Bsp. Wenn TSMC aus einem Wafer die Hälfte funktionierender Ryzen Chiplets 4 Kerner und die andere Hälfte 3 Kerner "rausbekommt", ist das 100% Yield oder nur 50%? Oder 75%?
 
Yield ist auch ein wenig ungenau und errechnet sich ja aus der Kombination aus DD und Die Size, sinnvoller wäre Defect Density pro Quadratzentimeter/Millimeter whatever als Angabe und damit kann dann jeder für sich selbst nachrechnen bei welchen CPU/s oder GPU/s da was welchen Yield ergibt.
 
  • Gefällt mir
Reaktionen: eastcoast_pete
Naja und selbst wenn man wüsste, wieviel so ein Wafer kostet, wie hoch die Ausbeute ist, oder die Fehlerdichte - Informationen, die die Firmen eh nie rausrücken werden. Muss man berücksichtigen: Forschung, Entwicklung, Marketing, usw. kostet halt auch einiges. Klar, die Firmen machen alle gutes Money und haben eine hohe Marge - die Informationen sind ja öffentlich zugänglich.

Laut dieser Quelle verlangt TSMC satte $17000 pro 5nm Wafer. Das ist schon ordentlich.
 
1. Wie auch schon von anderen gefragt: wie hoch (oder niedrig) ist denn der Yield von TSMC's 5 nm? Und, ja, ich weiß daß Samsung's "5 nm" eher mit TSMC's N7 vergleichbar ist, zumindest was Perf/W bei identischen ICs angeht.

2. "Yield" hängt aber auch sehr von der Komplexität und Größe der gefertigten ICs ab. Ein großer monolithischer Chip a la 28 Kern Xeon ( = weniger ICs pro Wafer) ist hier eben viel anfälliger für einen eventuellen "fatal flaw" irgendwo im IC, was ja Chiplets so attraktiv macht.
Wobei hier Samsung keine gute Ausrede hat; die Anzahl der Transistoren pro SoC ist bei den Apple SoCs (TSMC 5 nm) mindestens genauso hoch wie bei Qualcomm's 888. Und ich nehme an, daß TSMC's Yield deutlich über 50% ist; aber, wie unter 1. gefragt, aktuelle Zahlen für TSMC wären hier besser als Annahmen, inklusive meiner eigenen (:
 
[wege]mini schrieb:
Zu wenig Wörter, zu kleiner Horizont der Verwender und viel zu viele Nichtmuttersprachler.

Schon viele Versuche gesehen sich an der deutschen Sprachblase festzuklammern, aber das ist einfach nur hochgradig peinlich. Alle englischsprachigen wissenschaftlichen Publikationen sind demnach also von minderwertiger Qualität, weil sie nicht deinem längst vergangenem Ideal einer Sprache der "Dichter und Denker" entsprechen. Und dann mit Kaiser und Weltkrieg kommen.

Sonst alles frisch?


____________________

Yield-Rate ist ein recht dehnbarer Begriff. Die Grafiken von Anandtech wurden im Thread ja bereits verlinkt: https://www.anandtech.com/show/15219/early-tsmc-5nm-test-chip-yields-80-hvm-coming-in-h1-2020

Demnach hat TSMC 80% Yield angegeben, allerdings bei einer mutmaßlichen Die-Größe von lediglich 18 mm². Das entspräche einer Fehlerrate von 1,271/cm². Auf eine realistische Chipgröße gemünzt (100 mm²) wären das plötzlich nur noch 32% Yield.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TomH22
Ned Flanders schrieb:
Wobei die Yield Angabe ja eine abgeleitete Größe ist und von der Größe der gerfertigten Dies abhängig ist.

Wenn das alles riesen GPUs mit ~800mm2 sind wäre eine Yield von 50% ja nicht genauso schlecht wie eine Yield von 50% bei kleinen Exynos Dies mit ~90mm2.

Hier bei exakt gleicher Fehlerdichte mal gegenübergestellt

Anhang anzeigen 1098236

Einmal <50% Ausbeute und einmal >90%
Genau das! Danke für die Grafik!
Allerdings wird's ja selbst da (bei großen Dies) noch komplizierter; eine GPU hat viele Compute Units (CUs), geht schnell in die tausende, und GPU Dies sind schon im Design so ausgelegt, daß nicht alle CUs aktiv sein müssen bzw verwertet werden können; daher sieht man außerhalb von Profi Karten sehr selten den "Vollausbau". Bei großen monolithischen CPUs mit ähnlicher Fläche bzw Transistor Zahl wird da schon viel eher Ausschuss produziert, weil irgendeine essenzielle Funktion nicht mehr tut.
 
Warum sprechen alle von Yields? Yields haben null Bedeutung ohne weitere Eckdaten zu wissen!

Die korrekte Frage wäre 'wie hoch ist die Fehlerdichte?'
Mit der Fehlerdichte kann man sich für die eigenen Chips dann auch die Yields herleiten, andersrum geht's nicht bzw. nur mit einigen zusätzlichen Informationen.
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
blubberz schrieb:
Laut dieser Quelle verlangt TSMC satte $17000 pro 5nm Wafer. Das ist schon ordentlich.
5nm wird am Anfang auch sehr viel teurer sein. Und je nach Chip Größe können da 700-1000 Chips und mehr raus kommen pro Wafer, und dann ist der Preis wieder günstig.
 
Popey900 schrieb:
Und je nach Chip Größe können da 700-1000 Chips und mehr raus kommen pro Wafer, und dann ist der Preis wieder günstig.
Der größte Teil der 5nm Wafers dürfte an Apple gehen und da kommen weniger Chips pro Wafer bei raus... bei den 121mm² des Apple M1 z.B. sind da ~480 Dies zu erwarten.
 
Rock Lee schrieb:
Noch ein Hinweis:

5nm von Samsung ist ein 7nm-Derivat. Deren 7nm EUV wurde von "alles im Zeitplan" zu "nur intern" umgelabelt. Da wird es gar keine Produkte im Markt geben. Da sieht man mal im Nachhinein wie schlecht erst 7nm sein mussten. 20% Yield? :freak:

Woher nimmst du die 20%? Vorallem zu welchem Zeitpunkt?

Fighter1993 schrieb:
Andererseits könnte man sagen, wer bei 50% i. O. Teilen immer noch Geld verdient, verdient sich bei 100% i. O. Teilen ne goldene Nase.
Sag das mal der Kunststoffindustrie da muss du quasi 99,5% Gutteile fahren um noch was zu verdienen.

Öhm das ist beides nicht Vergleichbar. Ein ganzer Chip wird wegen eines defekten Chips (auf Grund einer Verunreinigung) nebenan nicht schlechter.
 
  • Gefällt mir
Reaktionen: Popey900
Die Vergleiche mit den sehr großen GPUs, denen man einen sehr niedrigen Yield bescheinigt, hinken meiner Ansicht nach etwas. Zwar ist es richtig, dass sehr große Chips seltener fehlerfrei sind als kleinere, wodurch der Yield natürlich drastisch sinkt, jedoch gilt es zu beachten, dass GPUs aus sehr vielen identischen "Kernen" bestehen, von denen die Defekten einfach abgeschaltet werden können, weshalb es ja meist auch mehrere "Abstufungen" ein und desselben Chips gibt, bei denen einfach nur mal mehr und mal weniger Rechenkerne deaktiviert sind.

Soll heißen, es gibt prozentual sehr wenig fehlerfreie Chips für die Top-Karten, die diesen Chip verwenden, dafür aber sehr viele (also ein recht hoher Yield), bei denen einfach ein gewisser Anteil an (defekten) Clustern deaktiviert wird, um die Funktionalität des finalen Chips beizubehalten.

Bei GPUs ist also gar nicht die Chip-Größe so entscheidend, sondern die Größe und Komplexität der einzelnen Recheneinheiten auf diesem Chip. Korrigiert mich, wenn ich da falsch liege.
 
Floletni schrieb:
Öhm das ist beides nicht Vergleichbar. Ein ganzer Chip wird wegen eines defekten Chips (auf Grund einer Verunreinigung) nebenan nicht schlechter.
was hat das denn mit 50% Chipausbeute zu tun?

Ich verstehe das so das 5 von 10 Chips verkauft werden können....
 
Innocience schrieb:
Hab ich was überlesen oder wird im Artikel gar nicht geklärt, was diese 50% Yield mir überhaupt sagen sollen? Die Zahl ergibt ja nur Sinn, wenn auch angegeben wird, wie groß die entsprechenden Referenzchips und Siliziumblöcke sind. Die einzige eigentlich nützliche Metrik wäre ja sowas wie mittlere statische Zahl der Defekte je Fläche.
Gibt's da einen Standard wie groß diese Referenzchips und der Gesamtblock des Silizium ist, oder posaunen das die Foundrys einfach fröhlich frech als Zahlen raus und man muss wieder klüger sein als Samsung und TSMC um das zu verstehen?

Nicht nur das haben die unzähligen Experten hier übersehen.

Auch ist über das QM Verfahren nichts bekannt.
Die wenigsten Einheiten sind ja völlig kaputt, oft kann man mit höherer Spannung noch zum Ziel kommen oder durch deaktivieren von Teilen der Einheit eine funktionierende Logik bekommen.
 
Zurück
Oben