NVIDIA 技术博客
-
生成式人工智能/大语言模型在 NVIDIA Blackwell GPU 上优化 DeepSeek R1 吞吐量:开发者深度解析
-
生成式人工智能/大语言模型TensorRT-LLM 中的分离式服务
-
数据中心/云端NVFP4 实现 16 位训练精度,4 位训练速度和效率
-
计算机视觉/视频分析NVIDIA Jetson Thor,专为物理 AI 打造的卓越平台
-
AI 平台/部署NVIDIA 硬件创新和开源贡献正在塑造 AI
最近

2025年 8月 26日
在 NVIDIA Blackwell GPU 上优化 DeepSeek R1 吞吐量:开发者深度解析
开源 DeepSeek R1 模型的创新架构包含多头潜在注意力机制 (MLA) 和大型稀疏混合专家模型 (MoE),
1 MIN READ

2025年 8月 26日
TensorRT-LLM 中的分离式服务
在之前的技术博客中,我们介绍了低延迟和高吞吐场景的优化方法。对于生产部署,用户还关心在满足特定延迟约束的情况下,每个 GPU 的吞吐表现。
3 MIN READ

2025年 8月 25日
NVFP4 实现 16 位训练精度,4 位训练速度和效率
近年来,AI工作负载呈指数级增长,这不仅体现在大型语言模型(LLM)的广泛部署上,也反映在预训练和后训练阶段对处理更多token的迫切需求。
2 MIN READ

2025年 8月 25日
NVIDIA Jetson Thor,专为物理 AI 打造的卓越平台
机器人技术正经历一场变革,逐步脱离专用机器时代,迈入通用机器人时代。这一转变意味着机器人不再局限于单一用途、功能固定的形态,
4 MIN READ

2025年 8月 22日
NVIDIA 硬件创新和开源贡献正在塑造 AI
Cosmos、DeepSeek、Gemma、GPT-OSS、Llama、Nemotron、Phi、
2 MIN READ

2025年 8月 22日
如何发现 (并修复) pandas 工作流中的 5 个常见性能瓶颈
数据加载缓慢、内存消耗大的连接操作以及长时间运行的任务,是每位 Python 开发者都会面临的问题。它们不仅浪费了宝贵的时间,
2 MIN READ

2025年 8月 21日
借助 NVIDIA NVLink 和 NVLink Fusion 扩展 AI 推理性能和灵活性
AI 模型复杂性的指数级增长使得参数规模从数百万迅速扩展到数万亿,对计算资源提出了前所未有的需求,必须依赖大规模 GPU 集群才能满足。
2 MIN READ

2025年 8月 21日
使用 cuPQC 0.4 中的加速哈希函数和 Merkle Trees 提高数据完整性和安全性
随着数据集的持续扩大,确保数据的安全性和完整性变得愈发重要。加密技术,如证明机制、数据完整性校验、一致性验证和数字签名,在应对这些挑战、
2 MIN READ
增强现实/虚拟现实

2025年 5月 18日
聚焦:Perfect Corp. 利用 NVIDIA TensorRT 和 NVENC 实现个性化的数字化美妆体验
增强现实 (AR) 和 AI 通过提供从虚拟试用到 AI 驱动的造型推荐等超个性化体验,正在彻底改变美妆和时尚行业。
1 MIN READ

2025年 5月 6日
借助 NVIDIA RTX PRO Blackwell 台式机 GPU 实现 Rivian 新一代XR 设计
对于不断突破 XR 界限的专业人士而言,打造身临其境的高保真体验始终充满挑战。在渲染大型数据集和驱动最新的超高分辨率高级 XR 头显设备时,
2 MIN READ

2025年 3月 5日
借助 NVIDIA Omniverse 将 AR 体验串流到 Apple iPad
最近在 MWC 巴塞罗那宣布 ,开发者现在可以将使用 NVIDIA Omniverse 构建的增强现实(AR)体验流式传输到 Apple…
1 MIN READ

2025年 2月 24日
在 NVIDIA 视频编解码器 SDK 13.0 中使用 MV-HEVC 启用立体和 3D 视图
NVIDIA 宣布在最新的 NVIDIA 视频编解码器 SDK 版本 13.0 中实施多视图高效视频编码 (MV-HEVC) 编码器。
2 MIN READ

2025年 1月 6日
利用 NVIDIA Omniverse 空间流,在 XR 中体验数字孪生技术
空间计算 体验正在转变我们与数据的交互方式,通过 扩展现实 (XR) 和 数字孪生 等技术连接物理和数字世界。
2 MIN READ

2024年 10月 24日
利用 NVIDIA Morpheus 加速警报分流和 LLM 代理强化安全运营中心
安全运营中心(SOC)分析师每天都会收到大量传入的安全警报。为了确保其组织的持续安全,他们的任务是仔细检查传入的噪音,分拣出误报,
1 MIN READ

2024年 10月 22日
多代理 AI 和 GPU 驱动的声音转文本技术创新
自动音频字幕 (Automated Audio Captioning) 任务的核心是从音频输入中生成自然语言描述。鉴于输入 (音频) 和输出…
2 MIN READ

2024年 10月 14日
AI 驱动模拟和数字孪生技术助力手术机器人技术创新发展
在手术室中集成机器人手术助手(RSAs)为外科医生和患者的治疗效果带来了巨大的优势。目前,
1 MIN READ
数据科学

2025年 8月 13日
使用 ProRL v2 通过长时间训练扩展 LLM 强化学习
目前,AI 领域最引人注目的问题之一是大型语言模型 (LLM) 是否可以通过持续强化学习 (RL) 继续改进,或者其能力是否最终会达到顶峰。
4 MIN READ

2025年 8月 7日
在单个 NVIDIA Grace Hopper 超级芯片上使用 XGBoost 3.0 训练 TB 级数据集
梯度提升决策树 (GBDT) 驱动着从实时欺诈过滤到 PB 级需求预测的各种功能。由于其先进的准确性、
2 MIN READ

2025年 8月 7日
使用 JIT 编译在 cuDF 中高效转换
RAPIDS cuDF 提供了一系列用于使用 GPU 处理数据的 ETL 算法。对于 pandas 用户,
3 MIN READ

2025年 8月 6日
CUDA 工具包 13.0 的新特性和重要更新
CUDA Toolkit 13.0 是该工具包的最新版本,具有加速最新 NVIDIA CPU 和 GPU 计算的优势。作为一项重大发布,
4 MIN READ

2025年 8月 1日
7 种可即时加速 Python 数据科学工作流程的插入式替代方案
您已经经历过。您编写了完美的 Python 脚本,在示例 CSV 上对其进行了测试,一切都很完美。但是,
2 MIN READ

2025年 7月 24日
借助 NVIDIA cuVS 优化索引和实时检索的向量搜索
AI 赋能的搜索需要高性能索引、低延迟检索和无缝可扩展性。NVIDIA cuVS 为开发者和数据科学家带来了 GPU…
2 MIN READ

2025年 7月 23日
在 Azure 上使用 Apache Spark 和 NVIDIA AI 进行无服务器分布式数据处理
将大量文本库转换为数字表示 (称为嵌入) 的过程对于生成式 AI 至关重要。从语义搜索和推荐引擎到检索增强生成 (RAG) ,
2 MIN READ

2025年 7月 18日
3 个 pandas 工作流在大型数据集上严重变慢,直到启用了 GPU 加速
如果您使用 pandas,您可能已经撞到了墙壁。正是在这个时刻,您值得信赖的工作流程在处理较小的数据集时表现出色,在处理大型数据集时陷入停顿。
1 MIN READ