UALink vs. NVLink: Big-Tech entwickelt Standard für AI Data Center ohne Nvidia

Jan-Frederik Timm
32 Kommentare
UALink vs. NVLink: Big-Tech entwickelt Standard für AI Data Center ohne Nvidia
Bild: HPE

Nvidias Umsatz und Gewinn kennen nur eine Richtung: steil nach oben. Dafür verantwortlich sind Nvidias Produkte für AI-Rechenzentren, die HPC-GPU, CPU und Netzwerkinfrastruktur (NVLink) umfassen und für sich genommen, aber vor allem in Summe quasi konkurrenzlos sind. Die größten Abnehmer und Konkurrenten wollen das ändern.

Das Who is Who ohne Nvidia

AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta und Microsoft haben sich zusammengeschlossen und den Ultra Accelerator Link (UALink) verabschiedet, ein gemeinsames Pressestatement nennt weitere Details. Nvidia, aber auch Marvell als Broadcom-Konkurrent finden sich nicht in der Liste der Gründungsmitglieder UALink Promoter Group .

Ultra-high performance interconnects are becoming increasingly important as AI workloads continue to grow in size and scope. Together, we are committed to developing the UALink which will be a scalable and open solution available to help overcome some of the challenges with building AI supercomputers.

Der so genannte „Ultra Accelerator Link“ ist ein offener Standard zur effizienten Verbindung von AI-Beschleunigern untereinander. In Rechenzentren, die nicht einen, sondern Tausende bis Zehntausende GPUs zur Abarbeitung der anfallenden Aufgaben einsetzen, kommt deren Verbindung eine tragende Rolle zu Teil.

Version 1.0 der UALink-Spezifikationen wird die Verbindung von 1.024 AI-Beschleunigern in einem „Pod“ und das direkte Speichern in und Laden aus dem an die Beschleuniger angeschlossenen Speicher erlauben. Die Pods werden wiederum über Switches miteinander verbunden. Erscheinen soll Version 1.0 schon im 3. Quartal, Zugang bekommen alle Firmen, die sich dem Ultra Accelerator Link (UALink) Consortium anschließen.

Ultra Accelerator Link (UALink) is a high-speed accelerator interconnect technology that advances next-generation AI/ML cluster performance. AMD, Broadcom, Cisco, Google, HPE, Intel, Meta and Microsoft are forming an open industry standard body to develop technical specifications that facilitate breakthrough performance for emerging usage models while supporting an open ecosystem for data center accelerators.