Matzegr schrieb:
Intel 22nm: 0,108µm²
Intel 14nm; 0,0588µm²
TSMC 16nm: 0,0700µm²
Samsung 14nm: 0,0645µm²
Samsung 10nm: 0,0400µm²
SRAM Zellen werden für Testchips bei neuen Fertigungsverfahren hergenommen.
SRAM Chips haben über den Chip gesehen eine sehr gleichmäßige Struktur
und SRAMs (weil es eben ein Speicher ist) können gut getestet werden
und damit können Fehler und Probleme ganz gut aufgespürt werden.
Die Nanometer-Angaben bei den Prozessen verschiedener Hersteller
sind mehr eine interne Referenz als eine externe.
Das ist schon fast wie bei Kleidergrößen ...
Wo werden die Nanometer gemessen, und was ist mit dem ganzen Rest?
Viele andere Dinge entscheiden darüber ob ein Prozess gut/passend bzw. profitabel (!) ist.
Aus der Meldung kann man im wesentlichen ersehen dass Samsung Fortschritte gemacht hat, und das ist gut so.
Ob dieser Prozess besser ist als ein anderer hängt von vielen Faktoren ab, unter anderem auch von der geplanten Anwendung.
Generell wird es nun überhaupt schon ziemlich eng auf dem Chip für die lieben Elektronen.
Die haben da schon bald nicht mehr ausreichend Platz
um sich noch zuverlässig irgendwo durch zu zwängen ohne all zu sehr anzuecken.
Fest steht jedenfalls dass die Kosten (und damit das Risiko) für einen Chip immens steigen je kleiner die Strukturgröße wird. Da braucht man schon brachiale Stückzahlen (=Absatz) um so einen Chip noch rechtfertigen zu können.
Bei Intel wird man künftig FPGA-Funktionsblöcke (Altera) auf dem Chip vorfinden (1-2 Jahre).
Die integrierten FPGAs können im Nachhinein
mit einer von der Anwendung oder vom Kunden geforderten Funktion belegen werden.
Dadurch kann Intel die Anzahl der Chip-Designs reduzieren
und pro Design eine große Stückzahl produzieren.
Also z.B. ein Design für 10 Anforderungen anstatt 10 separate Chip-Designs.
Das hat dann einen Einfluss auf den Preis des einzelnen Chips.
Ich denke wir werden künftig eher Multilayer-Chips (aka "3D") sehen als noch kleinere Strukturen.
Die Grenzen der gegenwärtigen Halbleiter-Physik sind schon ziemlich in Sichtweite.
Eine "Glass Ceiling" von 2020 ist ja schon seit vielen Jahren im Gespräch,
vielleicht können wir die bestehende Halbleitertechnik noch ein paar wenige Jahr weiter triezen
und noch letzte Verbesserungen herausquetschen.
Danach werden wir wohl erst mal ein Plateau erreichen
bei dem nicht mehr viel bis gar nichts mehr geht in Bezug auf Strukturbreiten.
Der Ausweg ist dann erst mal (wie jetzt auch schon) die Flucht in die Höhe (3D).
Danach müssen wir uns wohl mal grundsätzlich umsehen ...
An den Chips kann man noch viel verbessern (Taktübertragung, Bus-Systeme),
aber verkleinern wird künftig immer schwieriger und vor allem auch teurer.
Künftig wird man beachten müssen dass kleiner nicht immer unbedingt besser oder schneller heißen muss.
Auch die Zuverlässigkeit der Chips könnte bei kleineren Strukturen leiden
(auch ein Grund dafür dass Intel und andere sich sträuben militärische Bauteile zu produzieren).
Mal sehen was dem menschlichen Genius dann einfällt
um "das Ende der Physik" (der gegenwärtigen Halbleiter-Physik) zu umgehen.
Wird wohl ein ganzes Weilchen dauern bis sich da geeignete Alternativen auftun.
In ein paar Jahren werden wir uns vielleicht sogar
auf eine Stagnation im Bereich des Fortschrittes bei hochintegrierten einstellen müssen.
Das wird ungewohnt ... vielleicht gehen wir dann mal das Thema Software neu an,
die ist ja heutzutage nicht sonderlich effektiv - da wird ja ziemlich rumgeaast.
-