Maggie Zhang

Maggie Zhang 是 NVIDIA 的深度学习工程师,致力于深度学习框架和应用程序。她在澳大利亚新南威尔士大学获得计算机科学和工程博士学位,在那里她从事 GPU / CPU 异构计算和编译器优化。

Posts by Maggie Zhang

生成式人工智能/大语言模型

使用 NVIDIA NIM 构建基于 VLM 的简单多模态信息检索系统

在当今数据驱动的世界中,即使是从少量数据中检索准确信息的能力,对于寻求精简、有效的快速部署、原型设计或实验解决方案的开发者来说也至关重要。 3 MIN READ
对话式人工智能

利用 NVIDIA Triton 和 NVIDIA TensorRT-LLM 及 Kubernetes 实现 LLM 扩展

大语言模型 (LLMs) 已广泛应用于聊天机器人、内容生成、摘要、分类、翻译等领域。State-of-the-art LLMs 和基础模型如… 5 MIN READ
对话式人工智能

使用 Kubernetes 自动缩放 NVIDIA Riva 部署,用于生产中的语音 AI

语音 AI 应用,从呼叫中心到虚拟助理,严重依赖 自动语音识别 ( ASR )和文本转语音( TTS )。 4 MIN READ
数据中心/云端/边缘

分割 NVIDIA A30 GPU 并征服多个工作负载

多实例 GPU ( MIG )是 NVIDIA H100 , A100 和 A30 张量核 GPU ,因为它可以将 GPU 划分为多个实例。 4 MIN READ
计算机视觉/视频分析

使用 NVIDIA A30 GPU 加速人工智能推理工作负载

NVIDIA A30 GPU 基于最新的 NVIDIA Ampere 体系结构,可加速各种工作负载,如大规模人工智能推理、 2 MIN READ
人工智能/深度学习

使用 MIG 和 Kubernetes 大规模部署 MIG Triton

NVIDIA Triton 推理服务器是一款开源人工智能模型服务软件,可简化在生产中大规模部署经过培训的人工智能模型。 8 MIN READ