最近文章

2025年 8月 21日
借助 NVIDIA NVLink 和 NVLink Fusion 扩展 AI 推理性能和灵活性
AI 模型复杂性的指数级增长使得参数规模从数百万迅速扩展到数万亿,对计算资源提出了前所未有的需求,必须依赖大规模 GPU 集群才能满足。
2 MIN READ

2025年 8月 21日
使用 cuPQC 0.4 中的加速哈希函数和 Merkle Trees 提高数据完整性和安全性
随着数据集的持续扩大,确保数据的安全性和完整性变得愈发重要。加密技术,如证明机制、数据完整性校验、一致性验证和数字签名,在应对这些挑战、
2 MIN READ

2025年 8月 21日
更少的编码,更多的科学:借助 OpenACC 和统一内存简化 GPU 上的海洋建模
NVIDIA HPC SDK v25.7 为采用 GPU 加速的高性能计算(HPC)应用开发者带来了重大突破。
3 MIN READ

2025年 8月 20日
大规模部署 Omniverse Kit 应用
运行采用先进渲染和仿真技术的 3D 应用程序,通常需要用户进行复杂的安装,并依赖高性能的基础设施。
3 MIN READ

2025年 8月 20日
借助 NVIDIA NeMo-RL 进行强化学习:Megatron 核心支持优化训练吞吐量
NVIDIA NeMo-RL 的初始版本通过 PyTorch DTensor(也称为 FSDP2)提供训练支持。
3 MIN READ

2025年 8月 18日
宣布推出新的 NVIDIA 游戏 AI 和神经网络渲染技术
在 Gamescom 2025上,NVIDIA发布了其NVIDIA RTX神经网络渲染技术以及NVIDIA ACE生成式AI技术的最新进展。
3 MIN READ

2025年 8月 18日
使用 NVIDIA Streaming Sortformer 实时识别会议、通话和语音应用中的演讲者
在每一次会议、电话交流、 多人场合或支持语音的应用中,技术始终面临一个核心难题:谁在何时发言?几十年来,若不依赖专用设备或离线批量处理,
2 MIN READ

2025年 8月 13日
Dynamo 0.4 最新版本提供高达 4 倍性能提升、基于 SLO 自动扩展和实时可观察性
近期,OpenAI 的 gpt-oss、月之暗面的 Kimi K2 等多个新的前沿开源模型相继问世,标志着大语言模型 (LLM)…
2 MIN READ

2025年 8月 13日
借助 CUDA-QX 0.4 简化量子错误纠正和应用程序开发
随着量子处理器单元 (QPU) 制造商和算法开发者致力于打造大规模、商业上可行的量子超级计算机,他们越来越专注于量子纠错 (QEC) 。
2 MIN READ

2025年 8月 13日
使用 ProRL v2 通过长时间训练扩展 LLM 强化学习
目前,AI 领域最引人注目的问题之一是大型语言模型 (LLM) 是否可以通过持续强化学习 (RL) 继续改进,或者其能力是否最终会达到顶峰。
4 MIN READ

2025年 8月 13日
利用 Wheel Variant 简化 CUDA 加速 Python 的安装和打包工作流程
如果您曾经安装过 NVIDIA GPU 加速的 Python 软件包,您可能遇到过这样的场景:导航到 pytorch.org、jax.dev、
4 MIN READ

2025年 8月 11日
如何在交互式模拟中即时渲染现实世界场景
将现实世界环境转变为交互式仿真不再需要花费数天或数周的时间。借助 NVIDIA Omniverse NuRec 和…
2 MIN READ

2025年 8月 11日
通过后训练 NVIDIA Cosmos Reason 极大提升机器人性能
NVIDIA Cosmos Reason 是一个开放且完全可定制的物理 AI 和机器人视觉语言模型 (VLM) ,
2 MIN READ

2025年 8月 11日
开发者利用 NVIDIA Omniverse 库打造快速可靠的机器人模拟
在 SIGGRAPH 大会上,NVIDIA 发布了 NVIDIA Omniverse 库和 Cosmos 世界基础模型 (WFM) 的更新。
2 MIN READ

2025年 8月 8日
R²D²:利用 NVIDIA Research 的全球基础模型和工作流提升机器人训练效率
随着物理 AI 系统的进步,对丰富标记数据集的需求正在加速增长,超出了我们在现实世界中手动捕捉的能力。世界基础模型 (WFM)…
3 MIN READ

2025年 8月 7日
黑客如何利用 AI 解决问题的能力
随着多模态 AI 模型从感知发展到推理,甚至开始自主行动,新的攻击面也随之出现。这些威胁不仅针对输入或输出,还利用了 AI 系统如何处理、
2 MIN READ