训练 AI 模型
2024年 11月 22日
Hymba 混合头架构提高小型语言模型性能
Transformer 及其基于注意力的架构,凭借强大的性能、并行化功能以及通过键值 (KV) 缓存进行的长期召回,已成为语言模型 (LM)…
5 MIN READ
2024年 11月 13日
NVIDIA Blackwell 在 MLPerf 训练 v4.1 中将 LLM 训练性能提高一倍
随着模型规模的扩大以及使用更多数据进行训练,它们的能力也随之提升,实用性也随之提升。为了快速训练这些模型,需要在数据中心规模上提供更高的性能。
3 MIN READ
2024年 8月 15日
NVIDIA TensorRT 模型优化器 v0.15 提高推理性能扩展模型支持能力
NVIDIA 宣布推出新版 v0.15 NVIDIA TensorRT 模型优化器,这是一种先进的模型优化技术量化工具包,包含量化、
2 MIN READ
2024年 7月 17日
NVIDIA NeMo 借助混合状态空间模型加速 LLM 创新发展
当今的大型语言模型(LLM)基于 2017 年推出的 Transformer 模型架构。自那时以来,
2 MIN READ
2024年 7月 10日
了解 Stable Diffusion 模型:面向 AEC 专业人员的基本指南
生成式 AI、算法处理各种类型的输入—例如文本、图像、音频、视频和代码—并生成新内容的能力正在以前所未有的速度发展。
2 MIN READ
2024年 6月 12日
NVIDIA 在 MLPerf Training v4.0 中创造了新的生成式 AI 性能和规模记录
生成式 AI 模型具有多种用途,例如帮助编写计算机代码、创作故事、作曲、生成图像、制作视频等。而且,随着这些模型的大小不断增加,
3 MIN READ
2024年 5月 3日
视觉语言智能与 Edge AI 2.0
VILA 是 NVIDIA Research 和麻省理工学院共同开发的一系列高性能视觉语言模型。这些模型的参数规模从 ~3B 到 ~40B…
3 MIN READ
2024年 4月 23日
借助 Union.ai 和 NVIDIA DGX 云实现 AI 工作流程的大众化
GPU 最初专用于在电子游戏中渲染 3D 图形,主要用于加速线性代数计算。如今,GPU 已成为 AI 革命的关键组成部分之一。 现在,
2 MIN READ
2024年 3月 21日
重新思考如何训练 Diffusion 模型
在探索了扩散模型采样、参数化和训练的基础知识之后,我们的团队开始研究这些网络架构的内部结构。请参考 生成式 AI 研究聚焦:
2 MIN READ