企业数据呈爆炸式增长,PB 级的电子邮件、报告、Slack 消息和数据库的堆积速度比任何人都快。市场调研人员 Gartner 表示,由于“组织中 68% 的可用数据未被使用”,员工只能在信息海洋中寻找答案。
如今,随着 AI-Q 的推出,这一切成为可能。AI-Q 是一款开源的 NVIDIA Blueprint,可让您的业务知识触手可及。AI-Q 是一种免费的参考实现,用于构建连接到企业数据的人工通用智能体 (Artificial General Agents, AGA) ;使用最新的 AGI 模型跨多模态数据源进行推理;并安全、大规模地提供全面、快速、准确的答案。
AI-Q 提供了一个开发者友好型工作流示例,用于构建 AI 驱动的智能体,该智能体可以:
- 从不同来源 (文本、PDF、图像、表格、数据库) 中提取多模态数据
- 使用快速语义搜索、检索增强生成 (RAG) 和由 Tavily 提供支持的网页搜索来检索和理解信息
- 借助先进的 Agentic 工作流进行推理、制定计划并采取行动
- 安全高效地向员工提供切实可行的见解
在本博客中,我们将介绍 AI-Q NVIDIA Blueprint 的特性和组件,包括示例用例。
AI-Q Blueprint 包含三个主要构建块:1) 性能优化的 NVIDIA NIM,2) NVIDIA NeMo Retriever 微服务,以及 3) NVIDIA NeMo Agent 工具包。这些 AI 基础模组用于为任何领域或行业创建稳健、可扩展且可靠的 AI 智能体。
为了演示如何使用 AI-Q Blueprint 构建 AI 智能体,我们创建了 AI-Q 研究助理 Blueprint。它展示了 AI 智能体如何在几分钟内合成数小时的研究。通过使用 AI-Q Blueprint 构建模块,AI 智能体可以连接到许多数据源、推理,并为企业业务功能提供帮助,包括销售、IT、软件开发、营销、人力资源和财务。
AI 智能体还可以帮助改进药物研发过程。为了证明这一点,NVIDIA 为使用 AI-Q Blueprint 的开发者创建了生物医学 AI-Q 研究代理 Blueprint。借助生物医学 AI 研究智能体,可以更快地合成数小时的医学研究,最终缩短药物研发所需的时间。
AI-Q Blueprint 工作流的组件和功能
AI-Q Blueprint 的关键组件和功能包括:
- 多模态 PDF 数据提取
- 用于数据检索的 RAG
- 先进的 AI 推理
- 企业 AI 定制和集成
- 适用于多智能体系统的 AI 可观测性和优化
从不同来源提取多模态 PDF 数据

工作流从多模态 PDF 数据提取开始。企业数据以各种格式存储,包括文本文档、PDF、图像、表格等。AI-Q Blueprint 使用 NVIDIA NeMo Retriever 提取微服务来提取结构化、半结构化和非结构化数据并将其编入索引,使用加速计算将速度提升至 PB 级,最高可达 15 倍。
用于高效准确的数据检索的 RAG
借助 NVIDIA NeMo Retriever 和 RAG,企业数据可持续提取、嵌入和索引,从而使系统始终使用最新信息运行。向量存储在通过 Docker Compose 管理的 NVIDIA cuVS 加速数据库中,支持可扩展的高效部署。此架构可确保以基于数据的响应回答用户查询,并在整个工作流中执行隐私控制。
用于自主决策和规划的高级 AI 推理
通过使用 Llama Nemotron 模型,AI-Q Blueprint 可提供高级推理功能,即通过动态问题分解、迭代优化和上下文感知决策来增强检索和重排。这种持续反射过程提高了所生成输出的质量和可靠性,使 AI 智能体能够从异构数据源中提供更准确、更细致和更可行的见解。NVIDIA Llama Nemotron 模型具有独特的功能,可以动态打开或关闭推理,以平衡性能和成本效益,同时提供高达 5 倍的推理速度提升。
支持灵活开发的企业 AI 自定义和集成
为了为开发者构建利用私营企业数据的特定领域 AI 智能体提供灵活的基础,AI-Q 集成了各种数据源,如 ERP、CRM、数据仓库、文档、图像和聊天记录。这使得 AI 智能体能够根据组织的独特需求提供深度符合情境的见解。AI-Q 包含可简化设置的全面开发指南,包括配置 Python 环境、使用 Docker 进行部署以及管理前端和后端服务的分步说明。
NVIDIA NeMo Agent 工具套件与框架无关,可与各种热门代理式平台和工具集成。它原生支持 Agno (以前称为 Phidata) 、CrewAI、LangChain、LlamaIndex、MemO、Semantic Kernel、Weave 和 Zep Cloud 等,并为其提供第一方插件。这些集成通过模块化插件包进行管理,允许开发者根据其工作流程要求扩展工具包的功能。由于 Agent 工具包是开放的,社区中的其他人可以进一步扩展工具包集成。
该工具包还支持与大语言模型 (LLM) API(包括 NVIDIA NIM 和 OpenAI)的直接连接,并且与 Model Context Protocol (MCP) 兼容,后者实现了与 MCP 服务器提供的工具的互操作性。这种灵活的架构使 Agent 工具套件能够跨不同的技术栈编排和优化复杂的多智能体工作流,而无需团队重新构建平台,这使其成为企业 AI 开发的统一层。
适用于可扩展多智能体系统的 AI 可观测性和优化
为实现可扩展部署和编排,AI-Q Blueprint 中包含的 Agent 工具套件提供无状态 REST API,用于管理查询生成、摘要生成和人工问答等核心进程的状态。Agent 工具包提供的细粒度遥测、可配置日志记录、追踪和实时指标收集可将使用统计数据转换为 OpenTelemetry 格式,以便与行业标准监控工具集成。这实现了完整的系统可追溯性,使企业能够监控性能、识别瓶颈,并深入了解如何生成商业智能。
Toolkit 分析器可在智能体和工具级别追踪 token 使用情况、响应计时和延迟等详细指标,从而促进动态性能调优和工作流规范预测。这些功能使组织能够持续评估、调试和完善 AI 智能体工作流,以提高准确性和效率,最终大规模支持可靠、透明和高性能的代理式 AI 系统。
代理式 AI 工具包优化医疗健康领域的 AI 智能体
Therapyside 的 Maia 已经从简单的 AI 助手发展为强大的推理智能体,直接在平台内自动执行关键的管理任务,如调度、支付跟踪和资源交付。这样,临床医生每天可为每位患者节省多达 22 分钟的时间,使他们能够更加专注于患者护理。Maia 的推理循环使用 NVIDIA NeMo Agent 工具套件(用于编排工具调用和错误处理)以及使用 NVIDIA NeMo Retriever 的 RAG 构建。
Pangaea Data 构建了一个平台,使用 AI 根据既定的临床指南分析结构化和非结构化患者数据。Pangaea Data 正在与 AstraZeneca 的罕见病部门 Alexion 合作,加速罕见病患者的检测。借助 Agent 工具包,这两家公司在检索关键数据点方面实现了 98% 的准确率,并优化了开发工作流程,将临床评分计算器的配置时间从数周缩短到了数天。
从反馈到远见:助力 AI 智能体学习和改进
为了确保 AI 智能体在生产中提供可靠的结果,持续评估和优化至关重要。借助 Agent 工具包,开发者可以访问详细的遥测和分析数据,从而直接监控智能体性能并确定需要改进的地方。使用 NVIDIA Blueprint 构建数据飞轮 (一种基于 NVIDIA NeMo 微服务构建的参考架构) ,开发者可以让智能体持续学习和适应,自动收集反馈并优化模型,以提高智能体系统的性能。查看 NVIDIA 的 Notebook,将工具包评估和分析功能与数据飞轮集成。
借助 AI-Q Blueprint,企业可以在其 AI 数据平台 (即 NVIDIA 认证存储提供商提供的加速存储系统) 中找到意义。例如,VAST Data 的 AI 操作系统与 NVIDIA AI-Q 集成,实现实时、多模态 AI 工作流,持续从企业数据中学习,为各行各业的突破性 AI 解决方案提供支持。VAST 正在与欧洲最大的资产服务公司 CACEIS 合作,构建实时 AI 平台,以安全地捕获、转录和分析客户会议,立即将这些见解转化为行动。
立即开始
准备好充分发挥企业数据的潜力了吗?AI-Q NVIDIA Blueprint 现已在 GitHub 上提供,包含您开始使用所需的一切:
- 逐步设置环境
- RAG 服务、LLM 模型和前端/后端系统的部署指南
- 本地开发和测试说明
- 故障排除和常见问题解答
- NVIDIA Launchable 适用于一键式可部署 GPU 开发环境,可帮助您启动和运行 AI-Q 研究助手示例
转变组织获取知识的方式。从今天开始,构建强大的智能研究智能体,助力决策制定并推动创新。
探索 GitHub 上的代码和文档,加入开发者社区,打造企业 AI 的未来。或者加入 NVIDIA 代理式 AI 论坛或 Discord 上的对话。
需要帮助开始使用?包括德勤、EY、Quantiphi、SoftServe 和 Tech Mahindra 在内的 NVIDIA 集成合作伙伴正在使用 AI-Q Blueprint 组件构建解决方案,以帮助企业在生产环境中部署代理式 AI 应用。
1. Gartner®,《预测 2025:AI 时代的隐私和量子光》,2025 年 1 月。Gartner® 是 Gartner Inc. 和/ 或其关联公司在美国和其他国家/ 地区的注册商标和服务市场,并在获得许可后在此处使用。保留所有权利。