AI 平台/部署

大规模部署 Omniverse Kit 应用

运行采用先进渲染和仿真技术的 3D 应用程序,通常需要用户进行复杂的安装,并依赖高性能的基础设施。NVIDIA Omniverse Kit App Streaming 有助于开发者显著降低使用门槛,使其能够将基于 NVIDIA Omniverse SDK 和库构建的应用直接部署并流式传输至浏览器中。无论您倾向于选择完全托管的解决方案,还是希望自主管理基础设施,Omniverse Kit App Streaming 都提供了灵活且云原生的部署方式,满足不同需求。

在本博客中,我们将深入探讨Omniverse Kit应用流式传输的入门知识,详细介绍各种部署选项,并结合实际案例进行分享。

什么是 Omniverse Kit 应用流送?

Omniverse Kit App Streaming 是一套 API 和 Omniverse Kit 扩展程序,可将基于 OpenUSD 的工业与物理 AI 应用(使用 Omniverse Kit SDK 构建)直接流式传输给客户。用户可通过基于 Chromium 的浏览器或任何基于 Web 的应用程序访问您的服务。

通过在 NVIDIA RTX GPU(包括最新的 RTX Pro 6000 Blackwell Server Edition 系列)上流式传输服务器端运行的应用,用户能够快速、无缝地与高要求的数字孪生和仿真应用进行交互,并享受低延迟的性能体验。无需依赖强大的本地基础设施,也无需在本地安装软件,用户即可获得这些优势。

借助 Omniverse Kit 应用流送技术,以下灵活的部署选项可轻松实现向任何地点用户的规模化、安全应用交付。

  1. 可使用您自有基础设施或任一主流云服务提供商(CSP)上可用的 NVIDIA RTX GPU,进行自主管理的部署。
  2. Azure Marketplace 解决方案模板,支持快速“一键式”部署与配置。
  3. 在 NVIDIA L40 GPU 上,通过 DGX Cloud 中的 NVIDIA Omniverse 运行全托管、可扩展的基础设施。

如何开始使用 Omniverse Kit 应用流送功能?

无论选择本地部署还是云部署,入门都非常简单,关键步骤包括:

1. 查看文档

在开始之前,请先查阅 Omniverse Kit App Streaming 文档,了解这些容器化微服务如何协同工作,从而提供原生支持 Kubernetes 的流式传输体验。

这些服务构成了部署架构的核心支柱。

服务 目的: 容器化技术(Container)
Omniverse 应用程序与配置文件服务 列出并管理支持流媒体的 Kit 应用模板及运行时配置文件,实现便捷的应用发现与启动。 kit-appstreaming-applications
Omniverse 流媒体会话管理器 编排应用流程,管理生命周期及GPU资源分配。 kit-appstreaming-manager
Omniverse RMCP(控制平面 管理 Helm 图表的生命周期,并跟踪所有生成的部署资源。 kit-appstreaming-rmcp
AWS NLB Manager(可选) 动态管理 AWS 网络负载均衡器的监听器及其流量目标组。 kit-appstreaming-aws-nlb
表1Omniverse Kit应用流式传输基础设施核心服务

2. 构建并测试您的应用

构建和测试支持流式处理的 Kit 应用的最快方法是使用 Kit App 模板中的嵌入式网络查看器。该模板原生支持 Omniverse Kit 应用流式传输,并已预先配置,可直观展示 WebRTC 信令、消息传递和核心扩展等关键流式传输组件如何与应用层集成。

创建新应用时,系统将提示您启用流式应用层(例如 omni_default_streaming),以确保从初始阶段就包含正确的扩展和服务。

该工作流简化了配置过程,确保与最新的推荐实践保持一致,无需手动设置 .kit 文件及相关的依赖项。由于构建流程和选项可能随时间变化,建议您参考模板仓库中维护的最新指引,以获取最准确的操作说明。

构建 Kit 应用后,下一步是在测试环境中验证其功能是否正常。无论您是在本地进行测试,还是在沙盒环境中使用云服务提供商的 GPU,Kit App Streaming 都提供了相应的工具,帮助您在应用上线前全面评估其功能与性能。您可在此处查阅 Kit App 测试相关文档。

将您的应用程序进行容器化

在完成应用程序的构建、测试并做好部署准备后,您需要使用 Linux 工作站上的内置打包脚本来对应用程序进行容器化。

./repo.sh package --container --name {container name}

该脚本会将您的应用程序及其所有必需的依赖项和流式处理扩展打包成一个可部署的 Docker 容器。输出结果为一个可直接运行的镜像,可上传至容器注册表,便于在云端或自托管环境中部署。

4. 注册并部署您的应用程序

容器镜像准备就绪后,应将其推送至部署环境可访问的镜像注册表,例如 NVIDIA NGC 的私有注册表

在图像可用后,使用 Kubernetes 原生工具将您的应用注册到 Omniverse Kit 应用流实例中。

  • 使用自定义资源定义(CRD)来定义 Omniverse Kit 应用及其运行时配置文件。
  • 使用预配置的 Helm 图表部署 Omniverse Kit 应用流式传输基础设施,便于实现生命周期管理。

无论您选择本地部署还是云端部署,该方法都能让您以完全声明式的方式控制 Kit 应用的启动、扩展与管理。

5.设置基础设施

您可以在所选环境(Microsoft Azure、AWS 或本地)中,于支持 GPU 的 Kubernetes 集群上部署容器镜像。(有关这些选项的更多详情,请参见下文。)

NVIDIA 在 Azure Marketplace 上提供了一键式解决方案模板,若使用 Azure,该模板可自动配置所有核心基础设施和服务。

部署核心 Omniverse Kit App Streaming 服务后,您可以配置以下可选服务以增强系统功能。

  • API 网关与负载均衡器在流量路由中的应用
  • 使用数字证书实现端到端加密,确保安全访问。
  • 热池化,以缩短应用启动时间。
  • 身份集成(如单点登录 SSO),以实现安全且面向特定用户的访问。

这些增强功能可确保您的部署在所有受支持的环境中具备可扩展性、安全性和生产就绪性。

此外,通过在 DGX Cloud 上使用 Omniverse,可实现无缝的部署流程,NVIDIA 将负责 GPU 资源的预配置、扩展和维护。

如需更详细的实操演练,请参考以下官方部署指南开发者快速入门模板

Diagram showing Omniverse Kit apps containerized and deployed via self-managed or NVIDIA-managed streaming to a web client.
图1展示了Omniverse Kit应用的高级架构,呈现了容器化工作流、部署选项(自托管或由NVIDIA托管)以及向Web客户端的内容交付。

如需详细了解 Omniverse Kit 应用流送的架构,请参阅官方架构概述文档。

有哪些部署方式可供选择?

自行管理部署

可直接从 NGC 访问

如果需要完全控制、高级定制以及严格的合规性,自行管理的 Omniverse Kit 应用流式传输部署将是更灵活的选择。

如果满足以下条件,那么该部署路径将是最佳选择:

  • 具备内部 DevOps 专业能力
  • 需要留出间隙、进行混合或自定义 Kubernetes 环境。
  • 需要将流式传输深度集成到现有基础设施以及安全框架或策略中。
  • 在高度监管的行业中开展业务

NVIDIA 提供了强大的参考实现,您将通过 NVIDIA 官方的 Helm 图表、CRD 和容器镜像来部署并维护所有核心流服务,并可根据自身独特的运维和安全需求对每个组件进行定制。采用此部署方案,您需要具备以下条件:

  • 应用配置与扩展逻辑
  • 内部安全策略与身份验证
  • 监控、可观察性以及持续的维护与安全补丁
  • 高级部署选项,包括自定义标签、网络规则以及预置策略。

部署示例:西门子 Teamcenter 数字现实查看器

西门子数字化工业软件通过西门子管理的部署架构,直接向客户提供 Teamcenter 数字现实查看器(Teamcenter Digital Reality Viewer)解决方案。

该解决方案与部署结合了由 NVIDIA Omniverse 库提供支持、通过 Kit SDK 实现的高性能实时光线追踪技术,以及基于西门子安全云基础设施的按需 NVIDIA 加速计算能力。通过集中的云端 GPU 集群,用户可获得稳定且高性能的使用体验,能够直观地可视化和交互基于物理特性的产品数字孪生,专注于特定任务与应用场景,而无需操心硬件与软件的管理。

3D model of HD Hyundai ship in Siemens Teamcenter with part list and digital twin interface.
图2展示了HD Hyundai船舶的3D模型,该模型在Siemens Teamcenter中呈现,包含详细的组件分解以及海洋工程数字孪生的集成。

预构建的 Microsoft Azure Marketplace 云解决方案部署

可通过 Azure 市场获取

NVIDIA Omniverse Kit App Streaming 在 Azure Marketplace 上以预配置的解决方案模板形式提供,可实现快速、无摩擦的部署。

此路径特别适合以下开发者:

  • 希望在无需进行复杂的 DevOps 改进的情况下,快速完成原型设计、试点或投入生产。
  • 希望能够在自己的 Azure 环境中统一管理扩展、更新和安全问题。
  • 需要一个支持完全控制与高度定制的云原生工作流。

只需轻点几下,您即可启动一个由 NVIDIA GPU 驱动的 Kubernetes 环境,该环境已预装所有核心的 Omniverse Kit App Streaming 组件,随后只需上传容器化的 Kit 应用即可。

部署示例:Sight Machine Operator Agent

Sight Machine 是一家专注于为工业 AI 提供集成数据平台解决方案的公司,其 Operator Agent 平台已广泛应用于瓶装、汽车及其他制造业领域的客户。通过采用 Azure 的自动配置功能和 NVIDIA Omniverse Kit 的应用流送基础设施,Sight Machine 能够基于浏览器实现对复杂生产环境和实时操作数据的沉浸式 3D 可视化。

机器和生产线的特定建议通过代理式AI推荐直接呈现在Sight Machine用户界面中。该解决方案在统一环境中融合了AI、实时数据与3D可视化,使团队能够更高效地协作,快速识别并解决生产问题,从而提升设备可用率和生产线吞吐量等关键生产绩效指标。

Dashboard of a bottling line showing equipment status, low production volume, and one packer down while other machines are running.
图3展示了生产线的实时数据与3D沉浸式视图,呈现设备状态、机器效率,以及影响设备可用性和吞吐量的瓶颈。

完全托管的部署

通过 NVIDIA Omniverse 访问 DGX Cloud

如果您希望专注于应用程序的构建,而无需操心基础设施的运维工作,那么在 DGX Cloud 上使用 NVIDIA Omniverse 将是大规模部署基于 Kit 的应用程序的最简便方式。该方案提供完全托管的基础设施,以及涵盖入职、安全和部署的全方位支持。

此完全托管的方案非常适合:

  • 为满足严苛的生产环境部署需求,企业需具备容量自动扩展、高可用性以及全天候业务关键型支持能力。
  • 需要安全且合规的托管基础设施的团队
  • 具备基本 CloudOps 经验的开发者,希望专注于应用程序的构建与流式传输。

开发者可将容器化的 Kit 应用上传至 NVIDIA NGC,随后在 NGC 中注册并部署这些应用,以实现流式传输。

部署示例:Hexagon HxDR 实景云工作室

Hexagon Digital Reality(HxDR)是空间数据采集与应用技术领域的领军企业,其 HxDR Reality Cloud Studio 平台正采用这一托管式解决方案。建筑、工程和施工等行业的用户依赖该平台,在云端高效创建高度逼真、细节丰富的三维实景模型。

通过运用 Omniverse Kit 应用流技术和NVIDIA加速计算,HxDR Reality Cloud Studio 用户能够在标准笔记本电脑上创建高质量的沉浸式模型与可视化效果,无需牺牲性能或受限于昂贵的硬件设备。团队得以更快速、更高效地协同工作,显著缩短项目周期并取得更优成果。

A screenshot of photorealistic 3D models streamed via Hexagon HxDR Reality Cloud Studio deployed on DGX Cloud.
图4:在DGX Cloud上部署Hexagon HxDR Reality Cloud Studio,实现高保真3D模型的流式传输。

部署选项概览

  自主管理型云服务(Self-managed) 预构建的 Microsoft Azure Marketplace 应用 完全托管 (DGX Cloud)
设置工作量 高级:手动配置 Kubernetes、Helm、CRD 等组件。 低:通过预安装组件进行引导式部署 最小:无需配置基础设施即可使用
基础设施管理 完全由开发者管理 Azure 托管计算与用户自定义应用配置 NVIDIA 管理(硬件管理、功能扩展、安全防护、更新维护)
AI 计算基础设施 选择适合您应用需求的 NVIDIA GPU(如 A10、L40、RTX Pro 6000 Blackwell 等),获取最佳的 GPU 解决方案。 NVIDIA A10 GPU* NVIDIA L40 GPU*
扩展性 基于手动或 Kubernetes 的扩缩容 通过 Azure 工具实现手动或脚本化扩展 内置自动扩展功能
安全与合规性 由开发者完全管理 Azure 负责管理基础设施,开发者负责管理应用级别的身份验证。 由 NVIDIA 管理的云服务
定制化服务 全面掌控服务、扩展功能及网络连接 中级:提供可定制前端的示例门户 中级:通过示例门户或 API 完成配置
部署速度 速度较慢:具体取决于基础设施的准备情况。 快速:一键部署模板,快速上传应用,便捷配置访问权限 即时:上传即可使用
非常适合用于 具备内部 DevOps 或高级基础设施需求的团队 DevOps 团队规模较小,适合希望快速启动的团队。 追求零维护、全球交付的团队
用例适用性 自定义工作流、支持混合云、实现全栈可控 试点先行、概念验证、快速迭代、轻量级生产 企业级部署,支持大规模生产
表2:高级别摘要,旨在帮助开发者为其团队选择最合适的流式部署方案。*GPU 选项可能有所变动

现在,您已了解如何开始使用 Omniverse Kit 应用流送。选择合适的部署方式,构建、测试并打包您的应用,即可通过浏览器随时随地享受由 RTX 驱动的实时体验。

如需了解更多详细信息,请参考以下资源:

订阅 NVIDIA 新闻关注 NVIDIA Omniverse 的 DiscordYouTube 账号,以便及时获取最新动态。

使用开发者入门套件,快速开发并增强您自己的应用与服务。

 

标签