News Nvidia cuLitho: GPUs berechnen künftig komplexe Belichtungsmasken

Danke für den Artikel, ich finde sowas immer hochgradig spannend.
Kurz zusammengefasst kommt es mir so vor als würde man bei den heutigen Strukturgrößen mit Weitsichtigkeit eine Gehirn-OP ohne Brille durchführen, und nur weil es genug Spielraum gibt klappt die OP :D
 
nlr schrieb:
Hier geht es um die Berechnung der Maskenmuster.

Natürlich. Trotzdem unglaublich lange.

"Für anstehende Nodes wie die 2-nm-Fertigung und noch kleinere Verfahren könne die bisherige Computational Lithography ausschließlich mit CPUs potenziell nicht mehr praktikabel sein, sagt Nvidia, weil man von einem um den Faktor 10 gesteigerten Berechnungsaufwand für künftige Belichtungsmasken ausgehe."

Dann sind wir schon bei 20 Wochen, die man braucht, um sein im Computer existierendes Produkt überhaupt bauen zu können.

Da wird der Druck nicht kleiner, dass das Ding auch macht, was es soll. :evillol:

mfg
 
nciht schrieb:
Oder alternativ zum Stromsparen die zusätzlichen Kapazitäten (auch Platz) nutzen um die Produktion zu steigern und dadurch dann mehr Geld zu verdiene
Hä.
Also ich bin kein Profi auf dem Gebiet.
Aber so wie ich das sehe wirf damit die Maske berechnet. Dann hergestellt und dann eingesetzt und 3-30 Wochen oder wie lange auch immer hergestellt.
Somit ist der limitierende Faktor immer die EUV Anlage die ausgebucht ist.
Man muss nun nur nicht 3 Wochen vor Produktionsbeginn mit dem Umrüsten beginnen sondern kann 3-5 Tage vorher anfangen.
Wobei.... wenn die 100 Layer allesamt eine eigene Maske benötigen werden da trotzdem sehr viele Tage benötigt.

Jemand mit Insider Infos hier?
 
nciht schrieb:
Oder alternativ zum Stromsparen die zusätzlichen Kapazitäten (auch Platz) nutzen um die Produktion zu steigern und dadurch dann mehr Geld zu verdienen - Wofür sich so große Konzerne wohl entscheiden werden?
Der Spaß wird effizienter, was aber nur darin gipfelt, dass man mehr Simulationsschritte und kleinere Auflösungen nutzen wird. Die Energiebedarf wird im Endeffekt im besten Fall gleich bleiben oder mit der Zeit dennoch steigen.


bad_sign schrieb:
Klingt nach einem fetten Boost.
Damit dürfte doch solche Masken deutlich günster werden, wenn man nicht mehr 2 Wochen warten muss, sondern 1 Tag.
Natürlich kosten die Cluster Geld, und die Software wohl erst. Aber die 40k CPUs in die Software waren sicher auch nicht billig
Da wird gar nix günstiger. Die Anforderungen an Masken bzw. bei EUV tendenziell Spiegel steigt exponentiell. Zwei Generationen Fertigung und die vorgestellten GPUs rechenen wieder Tage bis Wochen.

SaschaHa schrieb:
Interessant wäre, ob es in Zukunft nicht sogar möglich wäre, solche Berechnungen über ein Netzwerk wie Folding@Home zu realisieren. Interessant, was die Zukunft da noch bringen könnte!
Das wird nicht passieren.
1. Die Simulation enthält zwangsläufig zukünftige Designs und IP der Fertiger, die unter strengem Verschluss sind. Sowas außerhalb streng abgeschotteter DMZ laufen zu lassen, wird kaum passieren.
2. Folding@Home ist massiv beschränkt bei der Kommunikation zwischen den Knoten. Die Masken sind tendenziell jedoch extrem groß und sind auf viel Ram und viel Kommunikation zwischen den Rechenknoten angewiesen.

SaschaHa schrieb:
Interessante Frage, wie werden die Masken eigentlich hergestellt? Diese müssen ja mindestens genauso präzise sein wie die Wafer, für die sie genutzt werden.
Bei den kleinen Strukturen soll es etwa Faktor 4 zwischen Größe der Zielstruktur uns Maske liegen. ABER die Leute die beim Maskenfertiger um die Ecke arbeiten werden alle Wortkarg, wenn es um EUV geht. Faktor 4 war die Aussage zu Quarzmasken für 180nm ..
Ergänzung ()

Haldi schrieb:
Wobei.... wenn die 100 Layer allesamt eine eigene Maske benötigen werden da trotzdem sehr viele Tage benötigt.

Jemand mit Insider Infos hier?
Die kleinsten Strukturen brauche 1..4 Belichtungen mit unterschiedlichen Masken bei EUV und man versucht nach möglichst wenig Schichten größere Strukturen zu nutzen, die zum einen nicht die EUV Belichter brauchen und mit weniger Masken auskommen.

Beispiel älterer 20nm Chips:
Samsung 20nm.png

von https://sst.semiconductor-digest.co.../04/06/samsungs-finfets-are-in-the-galaxy-s6/

3 Lagen sind die kleinen Stukturgrößten und danach wird es "grob" wo es nur um Anschlüsse geht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Haldi, LamaMitHut, SaschaHa und eine weitere Person
Lithografie ist Strom und zeit aufwendig, kleinste Fehler werden bestraft bei der Herstellung von Wafern kenne ich aus meiner Firma. Die von Nvidia entwickelte Software dazu (Litho) wird hier einiges besser machen und einige Kollegen von ihren Nachrichten Überstunden befreien.
 
  • Gefällt mir
Reaktionen: nlr
r4v398 schrieb:
Was haben die immer mit ihren Scheiß Spiegelungen und Licht.. alles Schall und Rauch, Placebo-Effekte mehr nicht. Wer steht denn in Horror Spielen irgendwo an einer Pfütze "Woah geil, diese Spiegelungen der verschimmelten Hütte da vorne"?! - Ich will z.B eher vernünftige realistische Physik haben! Kann doch nicht sein dass in 2023 Betonklötze herunter fallen wie aus Holz, und so ein Zeugs. Komm mir vor wie in SNES Spielen. 🤨

^^so geil, der Post, voll gegen die Wand gepowert und in die Buffe bekommen 🤣 😁

zum Artikel an sich:

hervorragend 👌 👍
Nvidia wieder vorne dran, machen kräftig Druck, so muss ein 👍✌️
 
engineer123 schrieb:
^^so geil, der Post, voll gegen die Wand gepowert und in die Buffe bekommen 🤣 😁
Die was bekommen?? Hauptsach wiederholen was schon zig andere meinten.. blah blah.. Artikel gelesen? Immer der Standardspruch hier.. ignoriert es doch einfach und gut. Ich nehme auch nicht Bezug auf jeden Kommentar hier..
 
@nlr: Super beschrieben 👍 und ein spannendes Thema.
...Ist schon verrückt, von welchen Dimensionen und Einflussgrößen man hier spricht.
 
  • Gefällt mir
Reaktionen: JohnWickzer
Danke für die aufschlussreiche Zusammenfassung. Jetzt hab ich endlich auch mal so ungefähr begriffen was man unter den unterschiedlichen Verfahren versteht.
 
Ich muß ganz ehrlich sagen, das hört sich für mich wie Magie an. Mal ehrlich, diese hochkomplexen Nanostrukturen die so gebändigt werden, daß die mit 100F immer noch klarkommen.. irgendwie schon super Krass.

Danke für den Artikel.
 
  • Gefällt mir
Reaktionen: JohnWickzer
40.000 CPUs und dann zwei Wochen sind heftig.
Wie oft solche Berechnungen schon erneut durchgeführt wurden, weil irgendetwas noch angepasst werden musste?

Und ich meine bei den ganzen Steppings für Testchips während der Entwicklung müssten ja ebenfalls jedes Mal neue Masken berechnet werden?
 
Nvidia wird immer mehr zum software Anbieter :) irgendwie müssen die ja Ihre überzogenen Hardwarepreise rechtfertigen. würde sicher auch auf Intel oder AMD Hardware laufen wenn auch schlechter.
 
S.Kara schrieb:
Wie oft solche Berechnungen schon erneut durchgeführt wurden, weil irgendetwas noch angepasst werden musste?

Und ich meine bei den ganzen Steppings für Testchips während der Entwicklung müssten ja ebenfalls jedes Mal neue Masken berechnet werden?
Wenn du die Änderung in Hardware haben willst und nicht nur simuliert, dann brauchst in jedem Fall eine neue Maske.
 
  • Gefällt mir
Reaktionen: S.Kara
aLanaMiau schrieb:
Wann wohl die ersten Libs zum Chiprouting kommen?
Libs also Bibliotheken?
Das ist Stand der Technik. Es gibt Bibliotheken die sowohl die Gestalt von Transistoren[1] umfassen als auch ganze Logikblöcke (Sram Zellen bzw. ganze Blöcke davon zum Beispiel). Seitens der Fertiger bekommt man da Zugriff, wenn man glaubhaft machen kann wirklich einen Chip fertigen zu wollen UND dass man sich an den NDA halten wird.

Wobei für alte Prozesse es mittlerwiele besser zugänglich geworden ist:
https://developers.google.com/silicon
Und als Ansatz das als OpenSource zu implementieren:
https://libresilicon.com/

[1]Leistungstransistoren, Transitoren mit schneller Schaltcharakteristik bzw. geringen parisitären Kapazitäten, Transistoren mit wenig Leckströmen, Transistoren die Zwischenstufen/Kompromisse darstellen ..

S.Kara schrieb:
Und ich meine bei den ganzen Steppings für Testchips während der Entwicklung müssten ja ebenfalls jedes Mal neue Masken berechnet werden?

nlr schrieb:
Wenn du die Änderung in Hardware haben willst und nicht nur simuliert, dann brauchst in jedem Fall eine neue Maske.

Kommt drauf an..
Je näher man etwas an den Transistoren ändern muss, also je kleiner die Strukturen werden, desto aufwendiger wird die Synthese der Masken. Nach Möglichkeit versucht man jedoch Änderungen bei den gröberen Schichten, also der Verdrahtung der Logikelemente zu lösen (wenn es denn möglich ist). Wobei der Aufwand entsprechend geringer wird.
Im Extremfall baut man seine Chips (teils) als "Sea-of-Gates" und definiert die Logik nur über die Verdrahtung bzw. Metallschichten https://de.wikipedia.org/wiki/Sea-of-Gates

Und selbst während der Entwicklung wird versucht das Generieren von Masken zu vermeiden. Zum einen nutzt man vom Fertiger Bibliotheken, die die Gestalt von Transistoren sowie von Funktionsblöcken definieren. Es werden also als funktionierend bekannte Komponenten verwendet. Zum Anderen wird Logik in Software und auf FPGAs getestet.

Und selbst wenn Prototypen dann Probleme haben, im Zweifelsfall wird mit Ionen- und Elektronenstrahlen am Prototyp modifiziert. Das überleben die Chips dann meist nicht lange, aber Maskenspins sind einfach teuer.

Icke-ffm schrieb:
Nvidia wird immer mehr zum software Anbieter :)
Sind sie doch schon. CPUs/GPUs ohne passende Compiler, Bibliotheken und bedingt Anwendungen sind witzlos. Entsprechend investiert Nvidia recht Konstant Arbeit.
 
  • Gefällt mir
Reaktionen: S.Kara
@Piktogramm
Da du da wohl etwas Ahnung zu haben scheinst: Kannst du irgendwie abschätzen inwiefern Nvidias neue Beschleuniger tatsächlich etwas verbessern? Wird die Entwicklung Experimentierfreudiger?

Wenn man sich auch so zu helfen weiß und diese Berechnungen überwiegend umgehen kann, spart man am Ende nur 1/2/3 Mal diese zwei Wochen und das wars? Das wäre ja praktisch zu vernachlässigen bei mehreren Jahren Entwicklungszeit.
 
Zurück
Oben