我们每周的综述包括最新的软件更新、学习资源、活动和值得注意的新闻。
Software releases
GPU 使用 nvCOMP v2 加速非对称数字系统。 2
重新设计的 nvCOMP 2.2.0 接口提供了一个可以进行压缩和解压缩的 nvcompManagerBase 对象。用户现在可以解压缩 nvcomp 压缩文件,而不知道它们是如何压缩的。该接口还可以管理暂存空间,并将输入缓冲区拆分为独立的块以进行并行处理。
What’s new:
- 重新设计的高级界面通过将元数据存储在压缩的缓冲区中,增强了用户体验。
- 所有压缩机都可以通过低级和高级 API 获得。
- 基于非对称数字系统的专有熵编码器。
- GDeflate :仅熵变量
- Windows 支持
立即下载: nvCOMP 2.2.0 版
Courses
学习使用 Riva ( DLI )部署文本分类模型
这门免费的、 30 分钟的在线课程是自定进度的,包括 NGC TAO 工具包对话人工智能集合中的一个样本笔记本,以及一个实时 GPU 环境。
了解更多: 使用 Riva 部署文本分类模型
优化车辆路径( DLI )
在这个一小时的免费课程中,参与者将以自己的速度演示一个常见的车辆路径优化问题。完成后,参与者将能够预处理输入数据,供 NVIDIA ReOpt 路由求解器使用,并组成反映现实世界业务约束的问题变体。
在线注册: 优化车辆路径
CUDA Python ( DLI )加速计算基础
本次深度学习学院研讨会将向您介绍使用 GPU CUDA 和 Numba 编译器运行 GPU 加速 Python 应用程序的基本工具和技术。该研讨会将于 2 月 23 日上午 9 点至下午 5 点举行。
研讨会结束时,您将了解使用 CUDA 和 Numba 的 GPU 加速 Python 应用程序的基本工具和技术,包括:
- GPU 用几行代码加速 NumPy UFUNC 。
- 使用 CUDA 线程层次结构配置代码并行化。
- 编写自定义 CUDA 设备内核,以获得最佳性能和灵活性。
- 使用内存聚合和设备共享内存来增加 CUDA 内核带宽。
网上注册: CUDA 加速计算基础 Python
Webinars
了解大都会如何促进上市努力 在开发者会议上
在 2 月 16 日和 17 日的开发者大会上加入 NVIDIA 专家,了解 Metropolis 计划如何发展您的愿景 AI 业务,并增强上市努力.
Learn how:
- Metropolis 验证实验室优化应用程序并加快部署。
- NVIDIA Fleet Command 简化了边缘部署的调配和管理,加快了从 POC 扩展到生产的时间。
- NVIDIA Launchpad 提供了对 GPU 实例的轻松访问,以实现更快的 POC 和客户试用
在线注册: NVIDIA 都市计划如何为你的业务充电
一个灵活的解决方案,适用于所有人工智能推理部署
2 月 23 日上午 10 点,通过网络研讨会和现场问答,深入了解 NVIDIA 推理解决方案,包括开源 NVIDIA Triton 推理服务器和 NVIDIA TensorRT 。
了解如何:
- 使用 Triton 推理服务器和 TensorRT 优化、部署和扩展生产中的人工智能模型。
- Triton 通过 CPU 和 GPU 上的不同查询类型(实时、批处理、流式),以及用于高效部署的模型分析器,简化了推理服务。
- 标准化工作流,使用 TensorRT 优化模型,并与 PyTorch 和 TensorFlow 进行框架集成。
- 现实世界的客户正从 Triton 和 TensorRT 中受益。
在线注册: 一个灵活的解决方案,适用于所有人工智能推理部署