News Samsung und Synopsys: GPU-Beschleunigung sorgt für Tempo bei Halbleiterfirmen

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
10.560
  • Gefällt mir
Reaktionen: C4rp3di3m, nERdWIN, konkretor und 7 andere
Beeindruckende Zahlen, tatsächlich.
Frage mich da aber auch warum sowas vorher mit etwas älterer Hardware nicht möglich gewesen zu sein scheint.
Vermutlich wurde das als solches schlicht nicht probiert, frei nach dem Motto: "never change a winning team".
 
  • Gefällt mir
Reaktionen: C4rp3di3m, Zocker1996, Zagrthos und 3 andere
Einfach mal hinschauen, welche Sprünge die Hardware in dem Bereich in den letzten Jahren gemacht hat...
 
  • Gefällt mir
Reaktionen: Zagrthos, Sherman789 und SweetOhm
Ach, das ganze Zeugs kann man auch auf nen C64 berechnen... Wozu dicke Hardware? Ok, vielleicht braucht nen C64 etwas länger...
Spaß bei Seite: das sind schon krasse Zahlen. Bin gespannt, wann die ersten Programme mittels AI die komplette Schaltung optimieren/ entwerfen.
 
  • Gefällt mir
Reaktionen: Qyxes
Ah, jetzt erklärt's sich warum ich bei der Meldung grad ein Deja Vu habe :D
Genau um diese Zeit bzw. jedes Jahr zur GTC kam eine Meldung zu cuLitho nun seit 2023

21.03.2023: https://www.computerbase.de/news/pr...en-kuenftig-komplexe-belichtungsmasken.83684/
19.03.2024: https://www.computerbase.de/news/gr...thografie-geht-in-die-serienproduktion.87445/
22.03.2025: https://www.computerbase.de/news/pr...-sorgt-fuer-tempo-bei-halbleiterfirmen.91891/

Aber zwei Jahre von Vorstellung über Einführung in die Serienproduktion bis zur Analyse der Auswertungen ist schon ziemlich fix für die Einführung einer "neuen Technologie", auch wenn hier nur die Berechnungen verlagert werden (wobei ich mich frage, warum bei sowas nicht schon viel früher an GPGPU-Beschleunigung gedacht wurde).
 
  • Gefällt mir
Reaktionen: slow_snail, KaHaKa, Zocker1996 und 9 andere
Verstehe ich das richtig. Es geht hierbei um Simulation der Schaktkreisen von Microchips bzw Speicherzellen von z.b Ram oder SSD? Und das kann man jetzt schneller Simulieren?
Das ist auf jedenfall etwas gutes. Wenn man den Zeitbedarf sieht.
 
  • Gefällt mir
Reaktionen: Qyxes
Topflappen schrieb:
Beeindruckende Zahlen, tatsächlich.
Frage mich da aber auch warum sowas vorher mit etwas älterer Hardware nicht möglich gewesen zu sein scheint.
Nvidia hat cuLitho erst 2023 vorgestellt und ab 2024 war es im Markt wirksam. Denkt nicht immer nur an die Hardware. Die Vormachtstellung von Nvidia ist auch das Resultat von deren umfangreichen SoftwareÖkosystem. Einfach mal auf der nvidia-Seite in der Sektion Lösungen stöbern.
 
  • Gefällt mir
Reaktionen: BlueBringer, Zagrthos, Newbie_9000 und 5 andere
Geldverschwendung was die Firmen da machen! Es bringt nichts, die Zeitersparnisse sind eine Illusion. Diese AI Blase ist unnützer Marketingkram und wird bald platzen! 🥸
 
  • Gefällt mir
Reaktionen: LamaMitHut
Weltraumeule schrieb:
Geldverschwendung was die Firmen da machen! Es bringt nichts, die Zeitersparnisse sind eine Illusion. Diese AI Blase ist unnützer Marketingkram und wird bald platzen! 🥸
Außerdem ist es erst dann "KI", wenn es von allen Skeptikern als "KI" anerkannt wird. Und dann beruht es natürlich trotzdem auf mathematischen Regeln die seit Ewigkeiten bekannt sind, also ist es nichts besonderes. ;-)
 
  • Gefällt mir
Reaktionen: Marflowah
Weltraumeule schrieb:
Es bringt nichts, die Zeitersparnisse sind eine Illusion...
Inwiefern sind Zeitersparnisse auf ein Sechstel der ursprünglichen Zeit für ein benötigte Aufgaben eine Illusion?

Es geht hier nicht um ChatGPT-"KI", dass dir für irgendeine Frage eine mögliche Antwort vermutet, sondern es geht um das Prüfen von Schaltungen auf Fehler und wie sich Designs auf das Ergebnis auswirken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BlueBringer, Qyxes und Weltraumeule
Weltraumeule schrieb:
Diese AI Blase ist unnützer Marketingkram und wird bald platzen!
Thema leider verfehlt. Die Beschleunigung ist nicht durch “KI” erfolgt, sondern durch ne ganz normale Bibliothek. Von neuronalen Netzen hat niemand gesprochen.

FrozenPie schrieb:
wobei ich mich frage, warum bei sowas nicht schon viel früher an GPGPU-Beschleunigung gedacht wurde
Könnte mir vorstellen das es am Software-Ökosystem oder schlicht am verfügbaren Vram oder der Rechenleistung gescheitert ist. NVIDIA macht aktuell riesige Sprünge in dem Bereich.

Ich habe mich aber ebenfalls lange gefragt, ob die Hersteller ein GPU oder CPU Design vorab vollständig emulieren können. Natürlich nicht in Echtzeit, das sollte klar sein.
 
  • Gefällt mir
Reaktionen: Weltraumeule
Es wir eine x86 CPU mit A100 oder H100 oder GH200 verglichen. Was für eine CPU wurde verwendet? Das würde mich nur mal zum Vergleich interessieren.
 
  • Gefällt mir
Reaktionen: Eorzorian
Cabranium schrieb:
Verstehe ich das richtig. Es geht hierbei um Simulation der Schaktkreisen von Microchips bzw Speicherzellen von z.b Ram oder SSD? Und das kann man jetzt schneller Simulieren?
Das ist auf jedenfall etwas gutes. Wenn man den Zeitbedarf sieht.
Long story short, irgendwas wird schneller mit mehr Rechenleistung.

Wenn du einen neuen Chip designt hast, musst du ihn irgendwie in die Fertigung bringen.
Synopsis kann anscheinend mit mehr und besser integrierter (GPU) Rechenleistung die Designs der einzelnen Prozesslayer schneller erstellen.

Das ist deshalb so interessant, weil die Simulation Tage dauert und du als Kunde vom Fertiger das Ding so schnell wie möglich auf der Straße haben willst (time2market).

Das Problem beim fertigen Design ist, es ist damit nicht für die Fertigung nutzbar. Es müssen für die einzelnen Prozesslayer Masken erstellt werden. Eine 1:1 Kopie des Designs auf die Lithographiemasken klappt nicht.
Wegen optischer Physik (schwarze Magie) würden Linie zu dünn werden oder Ecken nicht richtig von der Lithographie dargestellt.
Damit die Lithographie das gewünschte Design darstellt, wird das im Artikel erwähnte OPC verwendet.
OPC sorgt dafür, dass die Fertigung dein Chip design abbildet.

Der erwähnte litho-etch-bias bezeichnet ein Fertigungsproblem. Strukturdichtegebiete und unterschiedlich große Strukturen können sich unterschiedlich schnell ätzen. Nach der Lithographie ätzt du dein Design in den Wafer, wenn der litho-etch-bias nicht berücksichtigt wird... Geht's halt schief^^

Ich hoffe, ich konnte helfen:)
 
  • Gefällt mir
Reaktionen: anarchie99, Zagrthos, mae und 6 andere
Code aus Kommentaren zu generieren funktioniert bestimmt genauso gut wie bei Copilot oder ChatGPT. Und die genannten utopischen Zahlen propagiert z.B. auch Microsoft in ihren Vorträgen zu KI wo man plötzlich nur noch die Hälfte an Entwicklern braucht oder so ein Entwickler 50% seiner Zeit mit anderen Dingen verbringen kann.

Wo das hinführt kann man an sämtlichen Microsoft Produkten derzeit sehen.

Edit: Bezieht sich auf dieses Schaubild aus dem Artikel:
Screenshot_20250322_140516_Samsung Internet.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KingL und Zarlak
Weltraumeule schrieb:
Diese AI Blase ist unnützer Marketingkram und wird bald platzen! 🥸
Dafür, dass das ne Blase ist, hat es aber schon ganz schön gravierende Auswirkungen wenn ich sehe, wieviele Jobs in meiner Branche schon AI zum Opfer gefallen sind...
 
@SirSilent
Der Witz ist ja, dass die Unternehmen welche diese AI für deine Branche verkaufen, damit kein Gewinn machen. Um Gewinn zu machen müssten sie die Preise so massiv anheben, dass es dann auch schon wieder Sinn machen kann nen Menschen einzustellen.
 
Nvidia hat ja anscheinend wirklich den Fuss in allen möglichen Türen mit zukunftsweisender Technologie.

Viele schimpfen hier ja auf die Lederjacke, dass er ihnen so einen verkorksten 5000er-Launch vor die Füsse gesetzt hat. Der ist aber eben gedanklich schon (mindestens) zwei drei Jahre weiter und "pushes the envelope" bei der Technologie von morgen. Mittelfristig werdet ihr dadurch "geilere" Games sehen als wenn die aktuelle Generation halt 20% oder 30% schneller gewesen wäre.
 
Zurück
Oben