Beginner Technical

2025年 6月 18日
抢先体验 NVIDIA GB200 系统如何帮助 LMarena 构建评估 LLM 的模型
在 NVIDIA 和 Nebius 的帮助下,加州大学伯克利分校的 LMArena 可以更轻松地了解哪些大语言模型在特定任务中表现出色。
2 MIN READ

2025年 6月 17日
通过 NVIDIA Holoscan for Media 上的全新 AI 应用实例,实现实时 AI 媒体效果增强
直播媒体工作流越来越多地使用 AI 微服务来增强制作能力。然而,先进的 AI 模型大多托管在云端,由于网络延迟、带宽和实时可扩展性方面的限制,
1 MIN READ

2025年 6月 16日
Isaac Sim 和 Isaac Lab 现已推出早期开发者预览版
NVIDIA 今天发布了 NVIDIA Isaac Sim 和 NVIDIA Isaac Lab 的开发者预览版…
2 MIN READ

2025年 6月 13日
使用 FlashInfer 运行 NVIDIA 的高性能 LLM 推理内核
出色的 LLM 推理需要两个关键要素:速度和开发者速度。速度是指通过使用高度优化的计算内核算法,最大限度地提高底层硬件的效率。
2 MIN READ

2025年 6月 12日
NVIDIA Holoscan 传感器桥接技术赋予开发者实时数据处理能力
在快速发展的机器人和边缘 AI 领域,高效处理和传输传感器数据的能力至关重要。许多边缘应用正在摆脱单传感器固定功能解决方案,
3 MIN READ

2025年 6月 12日
使用 NVIDIA Nsight Profiler 简化 EDF 流体动力学模拟的 GPU 移植
将现有 CPU 应用程序移植到 NVIDIA GPU 可以释放性能提升,使用户能够以更大的规模和更快的速度解决问题。
2 MIN READ

2025年 6月 11日
使用适用于物理 AI 的 NVIDIA NeMo Agent 工具包扩展逼真的机器人仿真
物理 AI 使自主系统 (例如机器人、自动驾驶汽车和智能空间) 能够在现实世界中智能地感知、理解和行动。但是,
4 MIN READ

2025年 6月 11日
利用 NVIDIA Data Flywheel Blueprint 通过模型蒸馏构建高效的 AI 智能体
随着企业加速采用代理式 AI,团队在扩展智能应用程序的同时管理推理成本方面面临着越来越大的挑战。大语言模型 (LLM) 提供强大的性能,
2 MIN READ

2025年 6月 11日
使用 Siemens Teamcenter 数字现实查看器打造栩栩如生的数字孪生
现代产品通常由数百万个部件组成,需要复杂的设计和协作。工业世界在管理复杂性方面面临重大挑战,传统的可视化工具无法渲染这些大型、
1 MIN READ

2025年 6月 11日
通过开源 AI-Q NVIDIA Blueprint 与您的企业数据交流
企业数据呈爆炸式增长,PB 级的电子邮件、报告、Slack 消息和数据库的堆积速度比任何人都快。市场调研人员 Gartner 表示,
2 MIN READ

2025年 6月 11日
借助全新 NVIDIA Cosmos 世界基础模型简化端到端自动驾驶汽车开发
随着向为自动驾驶汽车 (AV) 提供动力支持的端到端规划模型的转变,人们对基于物理性质的高质量传感器数据的需求也在不断增加。
1 MIN READ

2025年 6月 11日
借助 NVIDIA 生物医学 AI-Q 研究代理 Blueprint 推进文献回顾和目标发现
长期以来,生物医学研究和药物研发一直受到劳动密集型流程的限制。为了发起药物研发活动,研究人员通常会梳理大量科学论文,
1 MIN READ

2025年 6月 11日
借助 NVIDIA cuEquivariance 和 NVIDIA NIM 微服务加速分子建模
随着 AlphaFold2 等模型的出现,对加速推理和训练分子 AI 模型的需求激增。对速度的需求带来了独特的计算挑战,包括算法复杂性、
2 MIN READ

2025年 6月 10日
由 NVIDIA 驱动的现代超级计算机如何推动速度和科学的极限
现代高性能计算 (HPC) 实现的不仅仅是快速计算,它还为正在解锁科学突破的 AI 系统提供支持。 HPC 已经经历了多次迭代,
2 MIN READ

2025年 6月 6日
隆重推出 Nemotron-H 推理模型家族:吞吐量提升无需妥协
随着大语言模型在数学和科学等领域越来越多地承担推理密集型任务,其输出长度也变得越来越长,有时会跨越数万个 token。
2 MIN READ

2025年 6月 6日
NVIDIA GB200 NVL72 和 NVIDIA Dynamo 如何提升 MoE 模型的推理性能
最新一批开源大语言模型 (LLMs) 采用了 Mixture of Experts (MoE) 架构,如 DeepSeek R1、
4 MIN READ