我们每周的综述包括最新的软件更新、学习资源、活动和值得注意的新闻。


Software releases

GPU 使用 nvCOMP v2 加速非对称数字系统。 2

重新设计的 nvCOMP 2.2.0 接口提供了一个可以进行压缩和解压缩的 nvcompManagerBase 对象。用户现在可以解压缩 nvcomp 压缩文件,而不知道它们是如何压缩的。该接口还可以管理暂存空间,并将输入缓冲区拆分为独立的块以进行并行处理。

What’s new:

  • 重新设计的高级界面通过将元数据存储在压缩的缓冲区中,增强了用户体验。
  • 所有压缩机都可以通过低级和高级 API 获得。
  • 基于非对称数字系统的专有熵编码器。
  • GDeflate :仅熵变量
  • Windows 支持

立即下载: nvCOMP 2.2.0 版


Courses

学习使用 Riva ( DLI )部署文本分类模型

这门免费的、 30 分钟的在线课程是自定进度的,包括 NGC TAO 工具包对话人工智能集合中的一个样本笔记本,以及一个实时 GPU 环境。

了解更多: 使用 Riva 部署文本分类模型

优化车辆路径( DLI )

在这个一小时的免费课程中,参与者将以自己的速度演示一个常见的车辆路径优化问题。完成后,参与者将能够预处理输入数据,供 NVIDIA ReOpt 路由求解器使用,并组成反映现实世界业务约束的问题变体。

在线注册: 优化车辆路径

CUDA Python ( DLI )加速计算基础

本次深度学习学院研讨会将向您介绍使用 GPU CUDA 和 Numba 编译器运行 GPU 加速 Python 应用程序的基本工具和技术。该研讨会将于 2 月 23 日上午 9 点至下午 5 点举行。

研讨会结束时,您将了解使用 CUDA 和 Numba 的 GPU 加速 Python 应用程序的基本工具和技术,包括:

  • GPU 用几行代码加速 NumPy UFUNC 。
  • 使用 CUDA 线程层次结构配置代码并行化。
  • 编写自定义 CUDA 设备内核,以获得最佳性能和灵活性。
  • 使用内存聚合和设备共享内存来增加 CUDA 内核带宽。

网上注册: CUDA 加速计算基础 Python


Webinars

了解大都会如何促进上市努力​ 在开发者会议上

在 2 月 16 日和 17 日的开发者大会上加入 NVIDIA 专家,了解 Metropolis 计划如何发展您的愿景 AI 业务,并增强上市努力​.

Learn how:

  • Metropolis 验证实验室优化应用程序并加快部署。
  • NVIDIA Fleet Command 简化了边缘部署的调配和管理,加快了从 POC 扩展到生产的时间。
  • NVIDIA Launchpad 提供了对 GPU 实例的轻松访问,以实现更快的 POC 和客户试用

在线注册: NVIDIA 都市计划如何为你的业务充电

一个灵活的解决方案,适用于所有人工智能推理部署

2 月 23 日上午 10 点,通过网络研讨会和现场问答,深入了解 NVIDIA 推理解决方案,包括开源 NVIDIA Triton 推理服务器和 NVIDIA TensorRT 。

了解如何:

  • 使用 Triton 推理服务器和 TensorRT 优化、部署和扩展生产中的人工智能模型。
  • Triton 通过 CPU 和 GPU 上的不同查询类型(实时、批处理、流式),以及用于高效部署的模型分析器,简化了推理服务。
  • 标准化工作流,使用 TensorRT 优化模型,并与 PyTorch 和 TensorFlow 进行框架集成。
  • 现实世界的客户正从 Triton 和 TensorRT 中受益。

在线注册: 一个灵活的解决方案,适用于所有人工智能推理部署