大语言模型 (LLMs) 正在迅速改变业务格局,为自然语言处理 (NLP)、内容生成和数据分析提供新功能。这些 AI 驱动的工具改善了公司的运营方式,从简化客户服务到增强决策流程。
然而,尽管 LLM 拥有令人印象深刻的一般知识,但其准确性、最新信息和特定领域的知识却常常捉见肘。这可能会导致建筑、施工和工程 (AEC) 等专业领域出现潜在的错误信息和过度简化,而准确的最新信息对于做出明智决策和确保遵守行业法规至关重要。
想象一下,一个由建筑师和工程师组成的设计团队会使用 LLM 提出山中房屋的构思。当被问及是否采用适合当地气候的可持续建筑技术时,LLM 可能会提供有关使用太阳能板和绿色屋顶的通用回答,而无需考虑高海拔环境的特定挑战,例如极端温度波动和潜在的雪载。在问题更严重的情况下,LLM 可能会产生幻觉,并建议使用“太阳能融雪板”— — 这项技术听起来很创新,但根本不存在。
此示例显示了 LLM 的常见问题。他们拥有丰富的知识,但通常不具备特定任务所需的最新信息。这一限制源于一些内在挑战。具体来说,LLM 根据特定截止日期之前的可用数据进行训练,并且无法访问专有或实时业务数据。LLM 有时还会曲解查询背后的上下文或意图,从而导致不相关或模棱两可的响应。
为了解决这些限制,公司通常有三种选择:
- 重新训练整个模型: 这涉及在包含特定领域信息的数据集上完全重新训练 LLM 。然而,此过程需要大量资源,需要大量数据、强大的计算能力和大量的时间投资,因此对大多数组织来说都不切实际。
- 微调模型: 这种方法通过在较小的专业数据集上进一步训练预训练模型,使其适应特定领域。微调虽然不如完全重新训练密集,但仍需要大量的计算资源和专业知识。它可以有效,但仍可能难以处理非常具体或快速变化的信息。
- 使用检索增强生成 (RAG): RAG 是针对 LLM 限制的高效灵活的解决方案,它将 LLM 的广泛功能与检索和整合精选知识库中特定的最新信息的能力相结合。这种方法使公司能够利用 LLM 的强大功能,同时确保特定领域应用的准确性和相关性。
对于希望使用高级语言模型,同时降低风险和限制的企业,RAG 为其指明了前进方向。
本文探讨了为什么 RAG 代表 AEC 行业的变革性进步,以及为什么领先的组织选择开发 RAG 系统来提高其业务价值。
什么是检索增强型生成?
RAG 是一种先进的 AI 技术,将语言模型的功能与实时信息检索相结合,使系统能够访问和使用来自定义来源的特定上下文相关数据,以提高生成的响应的准确性和相关性。这是一种增强企业领域 AI 能力的强大方法。
要使 LLM 真正解决业务问题,它们需要与每个组织拥有的独特知识体系相协调。借助 RAG,AI 系统能够在生成响应之前访问和检索来自定义来源的实时信息,例如公司内部知识系统、数据存储,甚至是其他 SaaS 应用 (例如 CRM 和 ERP)。
这意味着,例如,当员工提出问题或寻求信息时,使用 RAG 的 AI 助手会理解上下文:公司的历史项目数据、当前项目详细信息、供应链信息和其他专有组织知识,从而提供量身定制的准确响应。
考虑 AECOM BidAI 计划,该计划利用 LLM 和 RAG 来改进其投标撰写流程。经过通用知识训练的 LLM 可能会广泛解释投标撰写策略,但这不足以满足 AECOM 为大型施工项目制定复杂、量身定制的计划的特定需求。
这正是 RAG 变得至关重要的地方。它使 BidAI 等 AI 系统能够从定义的来源访问和检索实时信息,包括 AECOM 的庞大资源库,其中包含 30000 多个索引构件,例如过去的提案、项目数据表和简历。当 AECOM 员工需要起草投标时,使用 RAG 的 AI 助手能够理解上下文:公司的历史项目数据、当前项目详细信息以及其他专有组织知识。
借助此系统,该系统可以提供量身定制、准确且有根据的协助,将投标起草时间从 10 天显著缩短到仅 2 天。通过将 GPT 基础模型与 RAG 向量搜索相结合,AECOM 创建了一个强大的知识平台,可普及组织专业知识,并显著提高投标和其他业务领域的效率。
通过弥合庞大的通用 AI 模型与特定的最新组织知识之间的差距,RAG 将自己定位为在商业环境中实际应用大型语言模型(LLMs) 的关键推动者。
在 AEC 行业中利用 RAG
将 RAG 与运营数据集成可以显著增强生成式 AI 的潜力,从而在整个企业应用中提供实时、高度个性化且上下文相关的体验。
基于 RAG 的 LLM 解决方案通过提供可用于设计文档检索、合规性检查、项目管理、成本估算、知识管理和客户支持的智能工作场所助手,正在改变 AEC 行业。这些基于 RAG 的 AI 工具具有以下显著优势:
- 提高准确性: 通过以当前行业特定信息为基础的响应,建筑师和工程师能够高效访问基本的项目规格,从而减少错误和幻境。
- 专业知识访问:在安全的地方使用自己的数据,为您提供符合公司实践和规则的个性化答案。分析过去的项目,以获得定制的设计建议和切实可行的见解,同时保护敏感信息并确保仅限授权用户访问。
- 监管合规性 :确保遵守各种标准 (包括市政建筑规范、行业安全指南和环境法规),并生成定制的客户提案以保持公司竞争力。
- 可追踪性和效率: 用户可以将 AI 生成的内容追溯到其来源,从而增强信任和问责。通过专注于相关数据,RAG 减少了对大量模型重新训练的需求,从而节省时间和资源。
RAG 的核心组件
实施 RAG 需要仔细考虑数据管理、模型选择以及与现有工作流程的集成。该工作流由多个协同工作的关键组件组成,可增强 LLM 的功能。这些组件可大致分为数据提取、数据检索、数据生成和持续改进流程。
数据提取
第一阶段是数据提取,收集来自数据库、文档或云存储等各种来源的原始数据,并准备进行处理。此步骤对于确保系统能够访问全面和相关的信息至关重要。 RAPIDS 可以通过提供 GPU 加速的数据预处理功能来加速这一阶段,确保高效提取大量数据。
嵌入生成
接下来是嵌入生成阶段,提取的数据将转换为向量嵌入,以捕获文本的语义含义。在这里,嵌入模型的工作原理就像翻译一样,将项目文档、建筑代码或设计规格中的文本块转换为名为“向量嵌入”的特殊格式。这些嵌入捕获文本的含义和上下文,而不仅仅是确切的词语。
例如,嵌入模型可以理解“steel beam”和“I-beam”是相关概念,即使它们不共享相同的单词。 NVIDIA NeMo Retriever 是一系列用于信息检索的微服务,可提供专为问答和信息检索等任务而设计的强大嵌入模型。这些嵌入对于实现准确的上下文感知信息检索至关重要。
存储和检索嵌入
第三阶段是使用向量数据库存储和检索这些嵌入,并将其视为智能知识库。
生成响应
最后,响应生成阶段需要使用 LLM 根据从向量数据库检索到的信息生成答案。NVIDIA GPU 可加速 LLM 的推理过程,从而更快、更高效地实时生成响应。为了进一步优化性能, NVIDIA Triton 推理服务器 管理这些模型的部署,确保它们以最高效率运行。Triton 在处理推理请求和模型设置时,能够降低延迟并最大限度地利用资源。这使其成为实时 AI 应用的理想之选。
示例用例
要理解这些概念,可以考虑一位需要确保遵守与消防安全相关的当地建筑规范的建筑师。建筑师询问高层建筑的消防安全要求。在 RAG 工作流程的第一步中,建筑师的问题由嵌入模型处理。此模型将问题转换为向量嵌入,并捕获其语义含义。该模型理解,这个问题与消防安全要求和高层建筑有关。
接下来,使用问题的向量嵌入来搜索向量数据库,该数据库包含各种文档的嵌入,包括当地建筑规范、设计指南和过去的项目文档。NVIDIA RTX GPUs 在加速搜索过程中发挥着至关重要的作用,使系统能够快速找到与火灾安全和高层建筑相关的最相关文档。
检索相关文档后,系统会提取有关消防安全要求的关键信息。其中可能包括特定法规、合规性检查清单以及过去遵守这些标准的项目示例。然后,系统会进入响应生成阶段,在此阶段,LLM 会合成检索到的信息,为建筑师的查询创建全面的答案,包括必须遵循的任何特定代码或标准。
构建您自己的 RAG 工作流
AEC 公司可以使用 NVIDIA ChatRTX 开始使用 RAG。此演示应用可作为一种简便的实验工具,供个人用户使用自己的内容 (如文档、笔记和图像) 个性化 GPT 语言模型 (LLM),以创建本地运行的聊天机器人或虚拟助理,从而感知上下文。用户可以快速检索有关设计先例、建筑法规要求和项目更新的信息,同时确保敏感信息在本地 RTX PC 或工作站上保持安全。
NVIDIA AI Workbench 提供了一个强大的环境,可帮助开发者和数据科学家更好地控制和定制复杂的 AI 应用,并与之进行协作,例如 AI Workbench Hybrid RAG 项目 。开发者可以与从设计文档到项目规格的各种文档进行交流,从而创建可增强信息检索和决策制定的连贯一致的系统。此平台的灵活性允许在各种环境 (无论是本地工作站、服务器还是云端) 中进行部署,从而确保解决方案能够扩展并适应可用的基础设施。
虽然 AI Workbench 提供全面的开发环境,但 NVIDIA 还推出了 NVIDIA NIM 来简化 AI 模型的部署。NIM 微服务将经过优化的推理引擎、行业标准 APIs 以及对 AI 模型的支持打包到容器中,以便轻松部署。NIM 对 RAG 部署特别有益,因为它们集成了 NVIDIA NeMo Retriever 微服务,可优化 RAG 应用的数据检索。
NVIDIA AI 蓝图 为开发者在创建使用一个或多个 AI 代理的 AI 应用时提供了一个飞跃。这些经过预训练的可定制 AI 工作流可跨各种用例加速生成式 AI 应用的开发和部署。
其中包括使用 NVIDIA NeMo、NVIDIA NIM 和合作伙伴微服务构建的示例应用、参考代码、自定义文档和用于部署的 Helm 图表。
对于 AEC 公司而言, NVIDIA AI Blueprint 用于多模态 PDF 数据提取尤为重要 ,因为它利用 NVIDIA NeMo Retriever NIM 微服务 来处理包含文本和图像的复杂 PDF 文档。借助此蓝图,AEC 公司能够利用其庞大的内部设计和规范数据库,使团队能够比以往更智能、更快速地访问和利用这些信息。AI Blueprints 免费提供给开发者体验和下载,并可借助 NVIDIA AI Enterprise 软件平台 在生产环境中进行部署。
结束语
随着 AEC 行业不断数字化并采用 AI 技术,RAG 脱颖而出,成为开始使用 AI 的最简单方法之一。这种实用方法使公司能够利用生成式 AI 的强大功能,同时保持在此领域至关重要的准确性和相关性。AECOM 认识到生成式 AI 和基于 RAG 的解决方案将对未来工作产生深远影响,他们对这项技术的承诺体现在旨在民主化知识和增强客户服务的持续举措中。
AECOM 全球 AI 主管 Tim Wark 表示:“生成式 AI 无疑将加速改变我们的工作方式,并继续改进我们为客户提供价值的方式。“我们围绕 RAG 和 LLMs 的早期计划显示出了巨大的潜力,即普及我们的全球知识库,并在此基础上为客户提供更深入的见解。这些都是我们整个行业激动人心的变革时代的开端。”
通过弥合庞大的语言模型与特定行业知识之间的差距,RAG 准备改变 AEC 专业人员在日常运营中与 AI 交互和使用 AI 的方式。这一转型是行业大趋势的一部分,80.5% 的 AEC 专业人员计划使用包括 AI 在内的数字工具,反映出他们已做好迎接数字化转型及其带来的优势的准备。
详细了解 AI 如何改变 AEC 行业。