Omniverse Cloud APIs: Nvidia bringt digitale Zwillinge auf die Apple Vision Pro
Das Nvidia Omniverse für digitale Zwillinge kommt über neue APIs unter anderem auf die Apple Vision Pro. Diese APIs ermöglichen es Entwicklern, ihre OpenUSD-Szenen aus ihren favorisierten Content-Creator-Apps an das GDN von Nvidia zu schicken, dort rendern zu lassen und an die Apple Vision Pro, aber auch Software zu streamen.
Insgesamt hat Nvidia im Rahmen der GTC fünf Omniverse Cloud APIs angekündigt, die einzeln oder kollektiv von den Anwendern genutzt werden können. Dazu gehören:
- USD Render — Generiert vollständig per Raytracing gerenderte Szenen auf Basis von OpenUSD-Daten.
- USD Write — Ermöglicht Anwendern, OpenUSD-Daten zu modifizieren und damit zu interagieren.
- USD Query — Ermöglicht Szenen-Queries und interaktive Szenen
- USD Notify — Trackt Veränderungen an der USD und stellt Updates zur Verfügung
- Omniverse Channel — Verbindet Anwender, Werkzeuge und Welten für das kollaborative Arbeiten und mehreren Szenen
Apps erhalten Viewport für das Omniverse
Über die neuen APIs lassen sich eine oder mehrere der Omniverse-Technologien in Anwendungen unter anderem aus Bereichen wie Design und Automatisierung einbinden, sodass darin ein entsprechender Viewport zur Verfügung steht.
Die OpenUSD-Daten stammen aus entsprechenden Content-Creator-Apps wie Autodesk 3ds Max oder Blender und werden in der Omniverse Cloud von Nvidia verarbeitet, gerendert und in einen Viewport innerhalb einer industriellen Anwendung geschickt, sodass dort zum Beispiel der digitale Zwilling einer gesamten Fabrik dargestellt werden kann, während parallel neue Maschine dafür entwickelt werden. Die Omniverse-Bildausgabe aus Nvidias Graphics Delivery Network (GDN) kann damit aber eben auch an die Apple Vision Pro erfolgen.
Omniverse Cloud APIs starten bei Microsoft Azure
Die Omniverse Cloud APIs sollen gegen Ende des Jahres über Microsoft Azure angeboten werden. Laut Nvidia stehen selbst gehostete APIs auf A10-GPUs und Managed-Services auf Nvidia OVX zur Auswahl. Software-Unterstützer aus dem industriellen Sektor finden sich mit Ansys, Cadence, Dassault Systèmes, Hexagon, Microsoft, Rockwell Automation, Siemens und Trimble. Einspeisen über die OpenUSD-Daten lassen sich künftig auch Sensordaten von Forvia Hella, Luminar, Sick AG und Sony Semiconductor Solutions, um in Simulationswerkzeugen wie Foretellix’s Foretify Platform, Carla oder MathWorks zum Beispiel autonome Roboter und Fahrzeuge zu trainieren, zu testen und zu validieren.
Leistung der Apple Vision Pro reicht nicht aus
Speziell auf die Apple Vision Pro bezogen könne „fotorealistisches Rendering auf Basis von OpenUSD-Content jetzt an die ultrahochauflösenden Displays der Apple Vision Pro gestreamt werden“, sagte Mike Rockwell, VP der Vision Products Group bei Apple. In einem Vorabgespräch erklärte Nvidia, dass die Rechenleistung der Apple Vision Pro, die einen M2 mit integrierter GPU nutzt, nicht das hochauflösende Rendering inklusive Raytracing liefern könne, das Nvidia aus dem Omniverse streamen kann.
Unterstützt wird dabei auch hybrides Rendering, sodass eine Anwendung für die Apple Vision Pro das native SwiftUI und Reality Kit nutzen und zugleich Inhalte des Omniverse RTX Renderers aus dem Graphics Delivery Network von Nvidia erhalten kann. Zur GTC zeigte Nvidia einen Designer mit Apple Vision Pro, der einen im Omniverse gehosteten Autokonfigurator im CGI-Studio von Katana bedient.
ComputerBase hat Informationen zu diesem Artikel von Nvidia im Vorfeld und im Rahmen einer Veranstaltung des Herstellers in San Jose unter NDA erhalten. Die Kosten für Anreise, Abreise und vier Hotelübernachtungen wurden von dem Unternehmen getragen. Eine Einflussnahme des Herstellers auf die oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe war der frühestmögliche Veröffentlichungszeitpunkt.