Ashwin Nanjappa

Ashwin Nanjappa 是 NVIDIA TensorRT 团队的工程经理。他领导 MLPerf 推理计划,展示 NVIDIA 加速器的性能和能效。他还参与改进 TensorRT DL 推理库的性能。在加入NVIDIA 之前,他曾参与培训和部署 CV 的 DL 模型、深度相机的 GPU 加速 ML / CV 算法,以及手机和 DVD 播放器中的多媒体库。他拥有来自新加坡国立大学( NUS )的计算机科学博士学位,重点是 GPU 算法用于三维计算几何。

Posts by Ashwin Nanjappa

数据中心/云端

NVIDIA H200 Tensor Core GPU 和 NVIDIA TensorRT-LLM 集 MLPerf LLM 推理记录

随着生成式 AI 模型的持续创新,生成式 AI 在计算应用方面取得了巨大进步,从而大幅增强人类能力。这些模型包括 生成式 AI 模型, 3 MIN READ
数据中心/云端

NVIDIA GH200 Grace Hopper 超级芯片首次亮相,取得领先的 MLPerf 推理 v3.1 结果

人工智能正在改变计算方式,推动AI在全球范围内的应用部署。智能聊天机器人、图像和视频合成的简单文本提示、 4 MIN READ
网络

新的 MLPerf 推理网络部门展示 NVIDIA InfiniBand 和 GPUDirect RDMA 功能

在 MLPerf Inference v3.0 中,NVIDIA 首次向新推出的 网络分割 投入, 3 MIN READ
数据中心/云端/边缘

通过 AI 的全栈优化在 MLPerf 推理 v3.0 中创下新纪录

目前最令人兴奋的计算应用程序依赖于在复杂的人工智能模型上进行训练和运行推理,通常是在要求苛刻的实时部署场景中。需要高性能、 5 MIN READ
计算机视觉/视频分析

全栈创新为 NVIDIA 最高 MLPerf 推断 2.1 结果提供燃料

如今,人工智能驱动的应用程序正在实现更丰富的体验,这是由更大和更复杂的人工智能模型以及许多模型在管道中的应用所推动的。 4 MIN READ
模拟/建模/设计

在 MLPerf 推理 2.0 上获得最佳性能

Megatron 530B 等机型正在扩大人工智能可以解决的问题范围。然而,随着模型的复杂性不断增加,它们对人工智能计算平台构成了双重挑战: 4 MIN READ