NVLink
2024年 11月 21日
RAPIDS 与 Dask 结合实现多 GPU 数据分析的高效实践指南
随着我们向更密集的计算基础设施迈进,拥有更多的计算、更多的 GPU、加速网络等,多 GPU 训练和分析变得越来越流行。
1 MIN READ
2024年 11月 1日
NVSwitch 和 TensorRT-LLM MultiShot 共同加速 AllReduce 速度达 3 倍
在用户数量可能在数百到数十万之间波动,且输入序列长度随每个请求而变化的生产环境中,部署生成式 AI 工作负载会面临独特的挑战。
1 MIN READ
2024年 10月 8日
将 AI-RAN 引入您附近的电信公司
生成式 AI 和 AI 智能体的推理将推动 AI 计算基础设施从边缘分配到中央云的需求。 IDC 预测 ,“商业 AI (消费者除外)…
5 MIN READ
2024年 9月 16日
借助 NVIDIA 集合通信库实现显存高效、快速初始化和成本估算优化 2.22
在过去几个月中,NVIDIA 集合通信库(NCCL)开发者一直在努力开发一系列新的库功能和错误修复。在本文中,我们将讨论 NCCL 2.22…
2 MIN READ
2024年 9月 6日
利用 NVIDIA Magnum IO NVSHMEM 3.0 实现跨平台应用程序的可移植性和兼容性增强
NVSHMEM 是一个并行编程接口,可为 NVIDIA GPU 集群提供高效且可扩展的通信。NVSHMEM 是 NVIDIA Magnum…
3 MIN READ
2024年 8月 12日
NVIDIA NVLink 和 NVIDIA NVSwitch 加速大语言模型推理性能
大型语言模型(LLM)越来越大,增加了处理推理请求所需的计算量。为了满足服务当今LLM的实时延迟要求,并为尽可能多的用户提供服务,
3 MIN READ
2024年 6月 12日
NVIDIA 在 MLPerf Training v4.0 中创造了新的生成式 AI 性能和规模记录
生成式 AI 模型具有多种用途,例如帮助编写计算机代码、创作故事、作曲、生成图像、制作视频等。而且,随着这些模型的大小不断增加,
3 MIN READ
2024年 4月 3日
使用 WholeGraph 优化图形神经网络的内存和检索,第 2 部分
大规模图形神经网络 (GNN) 训练带来了艰巨的挑战,特别是在图形数据的规模和复杂性方面。这些挑战不仅涉及神经网络的正向和反向计算的典型问题,
2 MIN READ
2024年 3月 18日
NVIDIA GB200 NVL72 提供万亿参数 LLM 训练和实时推理
对万亿参数模型的兴趣是什么?我们知道当今的许多用例,并且由于有望提高以下方面的能力,人们的兴趣正在增加: 其优势是巨大的,
3 MIN READ
2023年 10月 24日
使用 Spark RAPID ML 库中的新算法降低 Apache Spark ML 计算成本
Spark RAPID ML 是一个开源 Python 包,它可以使 NVIDIA GPU 加速 PySpark MLlib。
3 MIN READ
2023年 8月 29日
通过加速计算和 NVIDIA Aerial 开创 5G OpenRAN 进步
NVIDIA 凭借其与 OpenRAN 兼容的 5G 产品组合,正在推动整个生态系统中 5G 软件和硬件的快节奏创新。
2 MIN READ
2023年 5月 28日
宣布推出 NVIDIA DGX GH200 :首款 100 兆字节 GPU 内存系统
在COMPUTEX 2023, NVIDIA 宣布NVIDIA DGX GH200,这标志着 GPU 的又一突破——加速计算,
3 MIN READ
2022年 8月 23日
使用第三代 NVIDIA NVSwitch 升级多 GPU 互连
人工智能和 高性能计算 ( HPC )正在推动对每个 GPU 之间具有高速通信的更快、更可扩展互连的需求。
5 MIN READ
2022年 6月 1日
通过全栈创新推动高性能计算
高性能计算(HPC)已成为科学发现的基本工具。 无论是发现新的拯救生命的药物,对抗气候变化,还是创建精确的世界模拟,
3 MIN READ