最佳实践

2025年 8月 13日
利用 Wheel Variant 简化 CUDA 加速 Python 的安装和打包工作流程
如果您曾经安装过 NVIDIA GPU 加速的 Python 软件包,您可能遇到过这样的场景:导航到 pytorch.org、jax.dev、
4 MIN READ

2025年 7月 29日
使用 NVIDIA Omniverse 构建 CAD 到 USD 工作流
在应用程序之间传输 3D 数据一直是一项挑战,尤其是原生计算机辅助设计 (CAD) 文件等专有格式。
5 MIN READ

2025年 7月 24日
借助 NVIDIA cuVS 优化索引和实时检索的向量搜索
AI 赋能的搜索需要高性能索引、低延迟检索和无缝可扩展性。NVIDIA cuVS 为开发者和数据科学家带来了 GPU…
2 MIN READ

2025年 7月 18日
3 个 pandas 工作流在大型数据集上严重变慢,直到启用了 GPU 加速
如果您使用 pandas,您可能已经撞到了墙壁。正是在这个时刻,您值得信赖的工作流程在处理较小的数据集时表现出色,在处理大型数据集时陷入停顿。
1 MIN READ

2025年 7月 10日
借助 GliaCloud 和 NVIDIA Omniverse 库加速视频制作和定制
生成式 AI 视频模型的激增以及这些模型引入的新工作流程,显著提高了创意和营销技术行业的生产效率,并提高了输出质量。
1 MIN READ

2025年 7月 9日
使用 NVIDIA NeMo-RL 进行强化学习:通过 GRPO 复制 DeepScaleR 配方
强化学习 (RL) 是交互式 AI 的支柱。它对于教导智能体推理和从人类偏好中学习、实现多轮工具使用等至关重要。
2 MIN READ

2025年 7月 7日
LLM 推理基准测试:使用 TensorRT-LLM 进行性能调优
这是大语言模型延迟 – 吞吐量基准测试系列的第三篇博文,旨在指导开发者如何使用 TensorRT-LLM 对 LLM 推理进行基准测试。
3 MIN READ

2025年 7月 7日
使用 DPU 加速的 Kubernetes 服务代理增强 AI 工厂
随着 AI 借助代理式 AI 向规划、研究和推理发展,工作流变得越来越复杂。为了高效部署代理式 AI 应用,AI 云需要软件定义、
2 MIN READ

2025年 6月 25日
如何使用 NVIDIA NeMo 技能简化复杂的 LLM 工作流程
改进 LLM 的典型方法涉及多个阶段:合成数据生成 (SDG) 、通过监督式微调 (SFT) 或强化学习 (RL) 进行模型训练以及模型评估。
4 MIN READ

2025年 6月 18日
NVIDIA 在制造和运营领域的 AI 应用:借助 NVIDIA CUDA-X 数据科学加速 ML 模型
从晶圆制造和电路探测到封装芯片测试,NVIDIA 利用数据科学和机器学习来优化芯片制造和运营工作流程。这些阶段会产生 TB 级的数据,
3 MIN READ

2025年 6月 18日
抢先体验 NVIDIA GB200 系统如何帮助 LMarena 构建评估 LLM 的模型
在 NVIDIA 和 Nebius 的帮助下,加州大学伯克利分校的 LMArena 可以更轻松地了解哪些大语言模型在特定任务中表现出色。
2 MIN READ

2025年 6月 18日
编译器资源管理器:CUDA 开发者必备的内核实验室
您是否曾想过,当您编写 GPU 核函数时,CUDA 编译器究竟会生成什么?是否曾想与同事轻松分享精简的 CUDA 示例,
2 MIN READ

2025年 6月 18日
寻找实现准确 AI 响应的最优文本分块策略
分块策略是一种将大型文档分解为较小、可管理的部分的方法,用于 AI 检索。糟糕的分块会导致结果不相关、效率低下并降低业务价值。
3 MIN READ

2025年 6月 11日
使用 NVIDIA NIM 安全部署 AI 模型
想象一下,您正在领导大型企业的安全工作,并且您的团队渴望将 AI 用于越来越多的项目。不过,这是一个问题。与任何项目一样,
2 MIN READ

2025年 6月 11日
借助 NVIDIA Nemotron 开放推理模型推动代理式 AI 发展
随着 AI 向更大的自主性迈进,能够独立决策的 AI 智能体的出现标志着一个重要的里程碑。为了在复杂的现实环境中有效发挥作用,
2 MIN READ

2025年 6月 4日
通过自校正 AI 工作流简化交易捕获和评估
LLM 在聊天和数字助理应用中的成功让人们对其在业务流程自动化方面的潜力寄予厚望。虽然在此类工作流程中实现人类水准的可靠性一直具有挑战性,
2 MIN READ