训练 AI 模型

2025年 6月 25日
如何使用 NVIDIA NeMo 技能简化复杂的 LLM 工作流程
改进 LLM 的典型方法涉及多个阶段:合成数据生成 (SDG) 、通过监督式微调 (SFT) 或强化学习 (RL) 进行模型训练以及模型评估。
4 MIN READ

2025年 6月 24日
NVIDIA Run:ai 和 Amazon SageMaker HyperPod 携手简化复杂 AI 训练管理
NVIDIA Run:ai 和 Amazon Web Services 引入了集成,使开发者能够无缝扩展和管理复杂的 AI 训练工作负载。
2 MIN READ

2025年 6月 18日
抢先体验 NVIDIA GB200 系统如何帮助 LMarena 构建评估 LLM 的模型
在 NVIDIA 和 Nebius 的帮助下,加州大学伯克利分校的 LMArena 可以更轻松地了解哪些大语言模型在特定任务中表现出色。
2 MIN READ

2025年 6月 2日
通过高效的长上下文大语言模型训练扩展到数百万个 Token
大语言模型 (LLM) 的演变标志着其处理和生成文本的能力有了显著提升。在这些发展中,上下文长度的概念 (模型可以处理的单个输入样本中的…
2 MIN READ

2025年 2月 5日
NVIDIA Blackwell 上的 OpenAI Triton 提升 AI 性能和可编程性
矩阵乘法和注意力机制是现代 AI 工作负载的计算支柱。虽然库如 NVIDIA cuDNN 提供高度优化的实现,
2 MIN READ

2024年 11月 22日
Hymba 混合头架构提高小型语言模型性能
Transformer 及其基于注意力的架构,凭借强大的性能、并行化功能以及通过键值 (KV) 缓存进行的长期召回,已成为语言模型 (LM)…
5 MIN READ

2024年 11月 13日
NVIDIA Blackwell 在 MLPerf 训练 v4.1 中将 LLM 训练性能提高一倍
随着模型规模的扩大以及使用更多数据进行训练,它们的能力也随之提升,实用性也随之提升。为了快速训练这些模型,需要在数据中心规模上提供更高的性能。
3 MIN READ

2024年 8月 15日
NVIDIA TensorRT 模型优化器 v0.15 提高推理性能扩展模型支持能力
NVIDIA 宣布推出新版 v0.15 NVIDIA TensorRT 模型优化器,这是一种先进的模型优化技术量化工具包,包含量化、
2 MIN READ

2024年 7月 17日
NVIDIA NeMo 借助混合状态空间模型加速 LLM 创新发展
当今的大型语言模型(LLM)基于 2017 年推出的 Transformer 模型架构。自那时以来,
2 MIN READ

2024年 7月 10日
了解 Stable Diffusion 模型:面向 AEC 专业人员的基本指南
生成式 AI、算法处理各种类型的输入—例如文本、图像、音频、视频和代码—并生成新内容的能力正在以前所未有的速度发展。
2 MIN READ

2024年 6月 12日
NVIDIA 在 MLPerf Training v4.0 中创造了新的生成式 AI 性能和规模记录
生成式 AI 模型具有多种用途,例如帮助编写计算机代码、创作故事、作曲、生成图像、制作视频等。而且,随着这些模型的大小不断增加,
3 MIN READ

2024年 5月 3日
视觉语言智能与 Edge AI 2.0
VILA 是 NVIDIA Research 和麻省理工学院共同开发的一系列高性能视觉语言模型。这些模型的参数规模从 ~3B 到 ~40B…
3 MIN READ

2024年 4月 23日
借助 Union.ai 和 NVIDIA DGX 云实现 AI 工作流程的大众化
GPU 最初专用于在电子游戏中渲染 3D 图形,主要用于加速线性代数计算。如今,GPU 已成为 AI 革命的关键组成部分之一。 现在,
2 MIN READ

2024年 3月 21日
重新思考如何训练 Diffusion 模型
在探索了扩散模型采样、参数化和训练的基础知识之后,我们的团队开始研究这些网络架构的内部结构。请参考 生成式 AI 研究聚焦:
2 MIN READ