教程

2025年 8月 22日
如何发现 (并修复) pandas 工作流中的 5 个常见性能瓶颈
数据加载缓慢、内存消耗大的连接操作以及长时间运行的任务,是每位 Python 开发者都会面临的问题。它们不仅浪费了宝贵的时间,
2 MIN READ

2025年 8月 21日
更少的编码,更多的科学:借助 OpenACC 和统一内存简化 GPU 上的海洋建模
NVIDIA HPC SDK v25.7 为采用 GPU 加速的高性能计算(HPC)应用开发者带来了重大突破。
3 MIN READ

2025年 8月 20日
借助 NVIDIA NeMo-RL 进行强化学习:Megatron 核心支持优化训练吞吐量
NVIDIA NeMo-RL 的初始版本通过 PyTorch DTensor(也称为 FSDP2)提供训练支持。
3 MIN READ

2025年 8月 11日
如何在交互式模拟中即时渲染现实世界场景
将现实世界环境转变为交互式仿真不再需要花费数天或数周的时间。借助 NVIDIA Omniverse NuRec 和…
2 MIN READ

2025年 8月 11日
通过后训练 NVIDIA Cosmos Reason 极大提升机器人性能
NVIDIA Cosmos Reason 是一个开放且完全可定制的物理 AI 和机器人视觉语言模型 (VLM) ,
2 MIN READ

2025年 8月 11日
开发者利用 NVIDIA Omniverse 库打造快速可靠的机器人模拟
在 SIGGRAPH 大会上,NVIDIA 发布了 NVIDIA Omniverse 库和 Cosmos 世界基础模型 (WFM) 的更新。
2 MIN READ

2025年 8月 4日
CUDA 专业提示:通过矢量化内存访问提高性能
许多 CUDA 内核受带宽限制,新硬件中 FLOPS 与带宽的比例不断增加,导致更多内核受带宽限制。因此,
2 MIN READ

2025年 8月 4日
如何使用 NVIDIA Llama Nemotron 模型通过推理增强 RAG 工作流
检索增强生成 (RAG) 系统面临的一大挑战是处理缺乏明确清晰度或带有隐含意图的用户查询。用户通常会以不准确的方式来表达问题。例如,
4 MIN READ

2025年 8月 4日
GPU 架构支持导航:面向 NVIDIA CUDA 开发者的指南
如果您最近使用 NVIDIA CUDA 编译器 (NVCC) 开发 NVIDIA GPU 应用,您可能会遇到以下警告消息: 这究竟意味着什么,
1 MIN READ

2025年 8月 1日
通过训练后量化优化 LLM 的性能和准确性
量化是开发者的核心工具,旨在以最小的开销来提高推理性能。通过以可控的方式降低模型精度,无需重新训练,该技术可显著降低延迟、
4 MIN READ

2025年 8月 1日
7 种可即时加速 Python 数据科学工作流程的插入式替代方案
您已经经历过。您编写了完美的 Python 脚本,在示例 CSV 上对其进行了测试,一切都很完美。但是,
2 MIN READ

2025年 7月 29日
使用 VLM 和 NVIDIA NeMo Retriever Parse 将复杂文档转化为可用数据
企业在研究报告、业务合同、财务报表和技术手册等文档中生成并存储大量非结构化数据。传统的光学字符识别 (OCR) 技术难以处理复杂的布局、
3 MIN READ

2025年 7月 28日
为 AI 模型带来可验证的信任:NGC 中的模型签名
AI 正在进入一个新时代,在这个时代,智能体可以推理、计划和采取行动。这些代理系统与 API、工具乃至物理环境进行动态交互,
2 MIN READ

2025年 7月 24日
使用 Torch-TensorRT 将扩散模型的 PyTorch 推理速度翻倍
NVIDIA TensorRT 是一个 AI 推理库,用于优化机器学习模型,以便在 NVIDIA GPU 上部署。
2 MIN READ

2025年 7月 23日
在 Azure 上使用 Apache Spark 和 NVIDIA AI 进行无服务器分布式数据处理
将大量文本库转换为数字表示 (称为嵌入) 的过程对于生成式 AI 至关重要。从语义搜索和推荐引擎到检索增强生成 (RAG) ,
2 MIN READ

2025年 7月 22日
了解 NCCL 调优以加速 GPU 之间的通信
NVIDIA 集合通信库 (NCCL) 对于 AI 工作负载中的快速 GPU 到 GPU 通信至关重要,可使用各种优化和调优来提升性能。但是,
3 MIN READ