AI 平台/部署

2025年 8月 21日
借助 NVIDIA NVLink 和 NVLink Fusion 扩展 AI 推理性能和灵活性
AI 模型复杂性的指数级增长使得参数规模从数百万迅速扩展到数万亿,对计算资源提出了前所未有的需求,必须依赖大规模 GPU 集群才能满足。
2 MIN READ

2025年 8月 20日
大规模部署 Omniverse Kit 应用
运行采用先进渲染和仿真技术的 3D 应用程序,通常需要用户进行复杂的安装,并依赖高性能的基础设施。
3 MIN READ

2025年 8月 18日
使用 NVIDIA Streaming Sortformer 实时识别会议、通话和语音应用中的演讲者
在每一次会议、电话交流、 多人场合或支持语音的应用中,技术始终面临一个核心难题:谁在何时发言?几十年来,若不依赖专用设备或离线批量处理,
2 MIN READ

2025年 8月 13日
Dynamo 0.4 最新版本提供高达 4 倍性能提升、基于 SLO 自动扩展和实时可观察性
近期,OpenAI 的 gpt-oss、月之暗面的 Kimi K2 等多个新的前沿开源模型相继问世,标志着大语言模型 (LLM)…
2 MIN READ

2025年 8月 13日
利用 Wheel Variant 简化 CUDA 加速 Python 的安装和打包工作流程
如果您曾经安装过 NVIDIA GPU 加速的 Python 软件包,您可能遇到过这样的场景:导航到 pytorch.org、jax.dev、
4 MIN READ

2025年 8月 8日
R²D²:利用 NVIDIA Research 的全球基础模型和工作流提升机器人训练效率
随着物理 AI 系统的进步,对丰富标记数据集的需求正在加速增长,超出了我们在现实世界中手动捕捉的能力。世界基础模型 (WFM)…
3 MIN READ

2025年 8月 5日
NVIDIA 从云到边缘加速 OpenAI gpt-oss 模型部署,在 NVIDIA GB200 NVL72 上实现 150 万 TPS 推理
自 2016 年推出 NVIDIA DGX 以来,NVIDIA 与 OpenAI 便开始共同推动 AI 技术的边界。
1 MIN READ

2025年 7月 28日
新的 GB300 NVL72 功能如何为 AI 提供稳定的动力
电网的设计目的是支持相对稳定的负载,例如照明、家用电器和以恒定功率运行的工业机器。但如今的数据中心,尤其是运行 AI 工作负载的数据中心,
2 MIN READ

2025年 7月 24日
使用 Torch-TensorRT 将扩散模型的 PyTorch 推理速度翻倍
NVIDIA TensorRT 是一个 AI 推理库,用于优化机器学习模型,以便在 NVIDIA GPU 上部署。
2 MIN READ

2025年 7月 22日
了解 NCCL 调优以加速 GPU 之间的通信
NVIDIA 集合通信库 (NCCL) 对于 AI 工作负载中的快速 GPU 到 GPU 通信至关重要,可使用各种优化和调优来提升性能。但是,
3 MIN READ

2025年 7月 16日
CUTLASS:基于张量和空间微核处理多维数据的原理抽象
在生成式 AI 时代,充分发挥 GPU 的潜力对于训练更好的模型和大规模服务用户至关重要。通常,
4 MIN READ

2025年 7月 15日
NVIDIA Dynamo 新增对亚马逊云科技服务的支持,可大规模提供经济高效的推理
亚马逊云科技 (AWS) 开发者和解决方案架构师现在可以在基于 NVIDIA GPU 的 Amazon EC2 上使用 NVIDIA…
2 MIN READ

2025年 7月 15日
借助亚马逊云科技上的 NVIDIA Run:ai 加速 AI 模型编排
在开发和部署高级 AI 模型时,访问可扩展的高效 GPU 基础设施至关重要。但是,在云原生、容器化环境中管理此基础设施可能既复杂又昂贵。
1 MIN READ

2025年 7月 14日
NCCL 深度解析:跨数据中心通信与网络拓扑感知
随着 AI 训练规模的扩大,单个数据中心 (DC) 不足以提供所需的计算能力。
2 MIN READ

2025年 7月 11日
使用 NVIDIA Earth-2 预测两周以上的天气
能够预测极端天气事件至关重要,因为此类条件变得更加常见且更具破坏性。次季节性气候预测 (预测未来两周或两周以上的天气)…
2 MIN READ

2025年 7月 3日
新视频:使用 NVIDIA Data Flywheel Blueprint 构建可自我提升的 AI 代理
由大语言模型驱动的 AI 智能体正在改变企业工作流,但高昂的推理成本和延迟可能会限制其可扩展性和用户体验。为解决这一问题,
1 MIN READ