News 450-mm-Wafer erst 2023, EUV ebenfalls verspätet

Die Einführung der 450 nm - Produktion dürfte wohl eher ein wirtschaftliches als ein technisches Problem sein.
Eine solche Anlage ist nur dann rentabel, wenn sie große Mengen produziert, und diese Mengen müssen auch Abnehmer finden.
Solange die Kunden maßgeschneiderte Chips bevorzugen, wird es keinen Markt für derartige Chipmengen geben.
Die nächste Ankündigung einer "Verschiebung" (= heutiges Datum + 10 Jahre) der 450 nm - Produktion wird nicht lange auf sich warten lassen.
 
Atom = 0,1 nm, kleiner wird es nicht werden, zumindest nicht mit dieser Technik.
 
Außerdem ist es ein absolutes Gerücht dass Quantencomputer einen gigantishen Sprung in der Rechenleistung ermöglichen würden. Es gibt nur einige bestimmte Probleme wie z.B. das Knacken von Verschlüsselungen die ein Quantencomputer prinzipbedingt schneller berechnen kann. Bei dem Großteil der Berechnungen die heute stattfinden wäre ein Quantencomputer bestenfalls gleich schnell wie ein traditioneller von Neuman Rechner.
 
Nitschi66 schrieb:
Dann hat AMD ja genug zeit bei den Größen mit Intel gleichzuziehen. Haha
AMD hat keine fertigung, HAHA

werden eure dummen kommentare nicht irgendwann fad?
Ergänzung ()

dgschrei schrieb:
Sofern Glofo die 5nm überhaupt noch miterlebt und stemmen kann.
GF sitzt auf einem großen geldberg...
 
Krethi & Plethi schrieb:
GF sitzt auf einem großen geldberg...
Die Scheichs werden auch nur dann weiter Geld da reinpumpen wenn absehbar ist, dass man das Geld auf lange Sicht inkl Zinsen wieder zurückkriegt. Wenn die Investitionen in Regionen steigen wo das nicht der Fall ist, wird da relativ schnell Schluss sein.
 
udn deswegen bietet GF jetzt auch bulk an, mit SOI only ist man bei den kunden zu sehr eingeschränkt.

das GF unfähig ist, ist auch nur dummes gerede von DAUs.
ob TSMC keine probleme hatte ist egal, die bieten kein SOI an udn somit kann man da nichts vergleichen.

IBM hatte mit 32nm SOI jedenfalls nicht weniger probleme als GF, das berücksichtigt aber nie jemand.
 
dgschrei schrieb:
@incurable

Was hat die Wafergröße bitte mit der Effizienz der Chips am Hut? Die Chips bleiben doch gleich groß es passen nur mehr auf einen Wafer und man hat prozentual weniger Verschnitt an den Rändern.
450mm FABs machen in einer Welt keinen Sinn, in der der größte Hersteller von Hochleistungs-ASICs nicht mal seine zweite 300mm 14nm FAB effizient ausgelastet bekommt.

Wo soll also das ganze Silizium hin, dass eine 450mm FAB produzieren müsste, um die Entwicklung und Bau zu refinanzieren?

Nur wenn wir bald in die Lithographie-Mauer rennen könnte sich u.U. ein Markt auftun, wenn plötzlich wieder in die Breite gebaut werden müsste, um höhere Rechenleistungen abzurufen, aber selbst das wäre unwichtig, so lang der größte Wachstumsmarkt weiter durch die Leistungsaufnahme limitiert bleibt.
 
@Cool Master & Mickey Mouse: Besten Dank für die Antworten :cool_alt:

Bin mal gespannt, wie weit die Geschichte noch führen wird :D
 
Hier ist die Lichtwellenlänge und das optische System die Grenze:
http://de.wikipedia.org/wiki/Fotolithografie_(Halbleitertechnik)

(Heutige chipherstellung)

Je kürzer, desto blauer. Der UV bereich fängt bei 380nm an, danach gehts weiter runter, Röntgenstrahlung....Gamma...etc.
Ein Atom ist etwa 0.1 nm groß (Angström)
Nanotubes (schichtrweise aufwachsen )und sonstige techniken die versuchen wenige bis einzelne Atome zu manipulieren (z.b. durch Ionenstrahlimplementierung oder RTM/REM) haben bisher noch einen nachteil....


Es dauert verdaaaaaaammt lang. Man kanns ungefähr so verleichen:
Ein typ mit Overheadprojektor und einer Folie mit der Mona-lisa

Ein typ mit einer farbpallete, vorlage und einem pinsel an dem 1 Haar dran ist.

Aufgabe: Bild von der Monalisa an die wand machen....


Dazu, ein chip / IC ist ein haufen leiterbahnen, die Ladungsträger sollen schön auf ihren "bahnen" bleiben, mach ich aber die abstände zwischen den bahnen so dünn, das Quantenmechanische effekte greifen. Dann muss man den Tunneleffekt berücksichtigen.
Elektronen "tunneln" so einfach in das nachbarmaterial, OBWOHL ihre energie klassisch nicht ausreicht.
Das muss dann schon beim Chipdesign durch Redundanz aufgefangen werden, also muss man MEHR schaltungen aufbringen die Fehlerkorrigieren, während man die Strukturk kleiner macht, um mehr schaltungen aufzubringen....
 
Krethi & Plethi schrieb:
udn deswegen bietet GF jetzt auch bulk an, mit SOI only ist man bei den kunden zu sehr eingeschränkt.
Man könnte auch schlicht sagen, dass IBM und AMD 15 Jahre in eine SOI-Sackgasse entwickelt haben, wer weiss, wie viele Milliarden allein dort versenkt wurden.
 
warum sackgasse?

22nm pd-SOI scheint bei IBM zu funktionieren, als sackgasse würde ich das jetzt nicht bezeichnen.
FinFET auf SOI ist auch einfacher als FinFET auf Bulk.
 
Liefert IBM überhaupt schon Power8s aus? Selbst wenn sie mittlerweile soweit wären, sind sie immer noch 2+ Jahre hinter Intel, die offensichlicht als einzige 22nm bulk FinFET produzieren können.
 
IBM will die in kürze ausliefern, eine verschiebung hätte man sicher angekündigt wenn es nicht optimal laufen würde.
IBM kündigt solche sachen erst an wenn sie sich sicher sind es einhalten zu könen.

warum 2+ jahre?

intel bescheißt, 22nm vin intel sind echte 26nm.
22nm pd-SOI wird sogar besser als der intel prozess sein, intel wird mit "14nm" auch keinen so großen vorteil haben.
 
Intel misst kreativ, und bei IBM kommen wahrscheinlich wahlweise Rechtsabteilung oder Schlapphüte vorbei, wenn man dem Produkt zu nahe kommt.

Good times.
 
Krethi & Plethi schrieb:
udn deswegen bietet GF jetzt auch bulk an, mit SOI only ist man bei den kunden zu sehr eingeschränkt.

GF bietet Bulk übrigens schon seit der Aquisition von Chartered Semiconductor in 2010.
 
Ultrawurscht schrieb:
Bei wie vielen Nanometern liegt eigentlich die Grenze des (mit aktueller Technik) technisch Machbaren?
Oder sind die im Artikel genannten 5 Nanometer die (eventuelle) Grenze?

Was für ne präzise Fragestellung :D
Was soll denn machbar sein? Strom in eine Richtung fließen lassen? Zwei Leiterbahnen nebeneinander haben, ohne, dass die eine die andere übermäßig stört? Nen Transistor in die Gegend pflanzen? Nen ganzen x86-Kern? Oder nen heute typischen Prozessor oberhalb des Labormaßstabs herstellen? Oder doch was anderes?
 
Da ich selbst bei nem Euqipment Hersteller für besagte Firmen arbeite, kann ich den Schritt nur begrüßen. Die Maschinen sind bei 300mm schon unglaublich groß und extrem schwer. Bei 450mm braucht man schon fast bei jedem Teil 2 Mann oder nen kleinen Kran :D
Von daher kanns mir im Moment noch gestohlen bleiben. Lieber bestehende Fabs effizienter machen, bzw auf 300mm effizientere Chips oder Verfahren entwickeln.
 
KTelwood schrieb:
Nanotubes (schichtrweise aufwachsen )und sonstige techniken die versuchen wenige bis einzelne Atome zu manipulieren (z.b. durch Ionenstrahlimplementierung oder RTM/REM) haben bisher noch einen nachteil....


Es dauert verdaaaaaaammt lang. Man kanns ungefähr so verleichen:
Ein typ mit Overheadprojektor und einer Folie mit der Mona-lisa

Ein typ mit einer farbpallete, vorlage und einem pinsel an dem 1 Haar dran ist.

Aufgabe: Bild von der Monalisa an die wand machen....

Also Ich würde auf eine (gesteuerte) Selbstorganisation für den Zusammenbau dieser Strukturen setzen. Das doofe ist das wir die Prozesse noch nicht verstehen aber es funktioniert (bei biologischen Maschinen) prima.

Andere Auswege währen (hab ich schonmal in nem anderen Forum erläutert, ich wiederhole mich trotzdem gerne :D )
(mit veralteter Silizium Technologie)
* Reduktion des Taktes für alle Kerne und massives Anheben der Kernzahlen, zusammen mit richtigen 3d Chips (keine billige Intel 3d Transistoren oder chip gestacke)
* Integration von FPGA technologie und komplettes umwältzen der Software auf eine Software/Hardware-kombination
wahlweise auch kombiniert

andere Technologien:
* Photonik (3d "Chips" sind kein problem)
* Spintronik (kann man theoretisch extrem hoch takten)
 
Zurück
Oben