AI 平台/部署

开发者现在可以直接从自己喜欢的第三方平台下载 CUDA

对开发者而言,构建和部署应用往往充满挑战,需要协调软件与硬件功能之间的复杂关系。确保每个基础软件组件不仅正确安装,而且版本符合要求,以避免兼容性冲突,这一过程可能十分耗时,常常导致应用工作流中的部署延迟和运行效率下降。

因此,NVIDIA 致力于简化开发者在各类操作系统(OS)及包管理器中部署 CUDA 软件堆栈的过程。

该公司正与其分发平台生态系统合作,以实现 CUDA 的再分发。操作系统供应商 CanonicalCIQSUSE,以及开发者环境管理器 Flox—基于包管理器 Nix—将能够直接重新分发 CUDA 软件。这使得他们可以将 CUDA 集成至各自的软件包源中,从而简化安装流程并优化依赖项解析。这一举措对于将 GPU 支持整合到 PyTorch 等复杂应用以及 OpenCV 等库中具有显著帮助。

这项工作拓展了所有开发者对 CUDA 的访问渠道,提升了使用的便捷性。用户现在可以在同一平台获取所需的全部软件,进一步优化了现有的访问方式。未来还将有更多发行商陆续加入。

面向开发者的主要功能

各个重新分发 CUDA 的平台都将提供一些关键内容,帮助开发者和企业与 NVIDIA 的分布式 CUDA 软件保持同步。

  • 一致的 CUDA 工具包命名: 第三方软件包将符合 NVIDIA 命名规范,以避免文档和教程中出现混淆。
  • 及时的 CUDA 更新: 第三方软件包将在 NVIDIA 官方发布后及时更新,以确保兼容性并减少 QA 开销。
  • 继续免费访问: CUDA 本身仍可免费使用,即使是打包在付费软件中也是如此。分销商可能会对其软件包或软件的访问收取费用,但不会专门通过 CUDA 盈利。
  • 全面的支持选项: 一如既往,您可以通过分销商获取支持,也可以通过 NVIDIA 论坛或 NVIDIA 开发者网站寻求帮助。

对开发者生态系统的影响

从 NVIDIA 获取 CUDA 软件始终是免费的。目前,所有获取 CUDA 的方式——包括下载 CUDA 工具包、拉取 CUDA 容器镜像,以及通过 pip 或 conda 安装 Python 相关组件——均正常可用。

然而,通过分发平台,我们能够在大型企业的部署环境和软件应用中集成 CUDA,从而确保开发者的使用体验更加简便。您只需下载并安装应用程序,系统便会自动在后台安装相应版本的 CUDA。

展望未来

以这种方式与 NVIDIA 生态系统合作,是我们致力于降低 GPU 软件部署复杂性的重要里程碑。通过携手操作系统和软件包管理领域的核心参与者,NVIDIA 确保无论开发者在何种环境或方式下构建 CUDA,都能获得一致、便捷且易于访问的体验。

随着更多第三方平台的推出以及 CUDA 生态系统的持续扩展,请持续关注后续更新。

标签