生成式人工智能/大语言模型

DataStax 推出 NVIDIA AI 构建的新一代 AI 开发平台

随着企业越来越多地采用 AI 技术,他们面临着高效开发、保护和持续改进 AI 应用以利用其数据资产的复杂挑战。他们需要一个统一的端到端解决方案来简化 AI 开发、增强安全性并实现持续优化,从而使组织能够充分利用数据的全部潜力实现 AI 驱动的创新。

这就是 DataStax 与 NVIDIA 合作创建 DataStax AI 平台 的原因,该平台现已与 NVIDIA NeMo NIM NVIDIA AI Enterprise 软件的一部分)集成。该平台提供统一的堆栈,使企业能够更轻松地构建 AI 应用,利用其数据和必要的工具来不断调整和提高应用性能和相关性,并将性能 吞吐量提高 19 倍 。该平台基于 DataStax 现有的与 NVIDIA AI Enterprise 平台的集成,这是在今年早些时候宣布的。

在本博文中,我们将调查生成式 AI 应用生命周期中的多个点,并分享使用 NVIDIA 构建的 DataStax AI 平台如何简化流程:从使用 NVIDIA NIM Agent 蓝图 和 Langflow 创建初始应用,到使用 NVIDIA NeMo Guardrails 增强 LLM 响应 ,再到进一步提高应用性能和相关性与客户数据和微调。

快速开始使用 NIM 代理蓝图和 Langflow

NVIDIA NIM Agent Blueprints 为特定的 AI 应用场景提供了参考架构,显著降低了 AI 应用程序开发的门槛。这些蓝图与 Langflow 的集成创造了强大的协同效应,解决了 AI 开发生命周期中的关键挑战,并可将开发时间缩短高达 60%。

以多模态 PDF 数据提取 NIM Agent 蓝图 为例,该蓝图可协调各种 NIM 微服务(包括 NeMo Retriever),用于提取、嵌入和重新排序,并以最佳方式运行 LLM。该蓝图解决了构建检索增强生成(RAG)应用时最复杂的一个方面:文档提取和处理。通过简化这些复杂的工作流程,开发者可以专注于创新,而不是技术障碍。

借助 Langflow 的视觉开发界面,您可以轻松地将 NIM Agent 蓝图表示为可执行流。这允许快速进行原型设计和实验,使开发者能够:

  • 使用关键的 NeMo 检索器嵌入、提取和 LLM NIM 组件,以可视化方式构建 AI 工作流程
  • 混合搭配 NVIDIA 和 Langflow 组件
  • 轻松整合自定义文档和模型
  • 利用 DataStax Astra DB 进行矢量存储
  • 将流作为 API 端点提供,实现无缝部署。
Langflow interface showing NVIDIA NeMo Retriever and DataStax Astra DB components.
图 1. 在 Langflow 中使用 NeMo 检索器组件进行文档提取

这种组合不仅简化了开发流程,而且弥合了原型设计和生产之间的差距。它还促进了团队协作,使多个用户(即使没有技术背景)能够理解、测试和调整应用程序。通过使高级人工智能功能更易于使用,它促进了创新,并为各行各业的人工智能应用程序开辟了新的可能性。

使用 NeMo Guardrails 增强 AI 安全性和控制力

基于 NIM Agent Blueprints 在 Langflow 中实现的快速开发,通过高级安全功能增强 AI 应用变得非常直接。Langflow 基于组件的方法已经支持快速实现 PDF 提取蓝图,现在促进了 NeMo Guardrails 的无缝集成。

NeMo Guardrails 为负责任的人工智能部署提供关键功能,例如:

  • 越狱和幻境防护
  • 主题边界设置
  • 自定义策略实施

这种集成的强大之处在于它的简单性。正如开发者可以使用 Langflow 的视觉界面快速创建初始应用程序一样,他们现在可以拖放 NeMo Guardrails 组件来增强安全性。这种方法支持快速实验和迭代,使开发者能够:

  1. 轻松将内容审核添加到现有流程中
  2. 快速配置阈值并测试各种安全规则
  3. 通过添加更多的防护措施并尽可能减少代码更改,无缝集成高级安全技
Langflow interface showing NeMo Guardrails and NVIDIA NIM components.
图 2. 在 Langflow 中将 NeMo Guardrails 添加到 NIM Agent 蓝图中

通过利用 Langflow 与 NeMo Guardrails 的预构建集成,开发者可以专注于微调 AI 行为,而不是处理复杂的安全实现。这种集成不仅缩短了开发时间,而且促进了在 AI 应用中采用稳健的安全措施,将组织定位在负责任的 AI 创新的前沿。

通过持续改进推动 AI 发展 

在快速发展的 AI 领域,静态模型(甚至是 LLM)很快就过时了。NVIDIA NeMo 微调工具、 Astra DB 的搜索/检索可调节性和 Langflow 的集成创造了强大的生态系统,确保应用程序在每次迭代中实现更高的相关性和性能。

这种集成方法使用三个关键组件进行模型训练和微调:

  1. NeMo Curator :优化和准备来自 Astra DB 和其他来源的运营和客户交互数据,为微调创建最佳数据集。
  2. NeMo Customizer :利用这些精选数据集微调 LLMs、SLMs 或嵌入模型,并根据特定的组织需求对其进行定制。
  3. NeMo Evaluator: 根据各种指标严格评估经过微调的模型,以确保在部署前提高性能。
Overview of NVIDIA NeMo microservices used for model training and fine-tuning.
图 3.NVIDIA NeMo 概述,包括模型训练和精调

通过在 Langflow 中对这种微调管道进行可视化建模,组织可以创建无缝的迭代 AI 改进流程。这种方法具有以下战略优势:

  • 数据驱动型优化 :利用 Astra DB 的真实交互数据,可确保模型改进基于实际使用模式和客户需求。
  • 敏捷的模型演进 :Langflow 中的可视化工作流允许快速调整精调过程,从而实现快速实验和优化。
  • 定制的 AI 解决方案 :根据组织特定数据进行微调,可生成针对特定行业需求或用例量身定制的 AI 模型。
  • 持续性能提升 :定期评估和微调可确保 AI 应用程序在相关性和有效性方面随着时间的推移而不断提高。

此集成式生态系统将人工智能开发从时间点部署转变为持续改进周期,使组织能够保持先进的人工智能能力,这些能力会随着业务需求不断发展。

由 NVIDIA 构建的 DataStax AI 平台整合了 NVIDIA AI Enterprise 中包含的高级 AI 工具、DataStax 强大的数据管理功能、搜索灵活性和 Langflow 直观的视觉界面,为企业 AI 开发创建了一个全面的生态系统。这一集成使组织能够快速原型化、安全部署和持续优化 AI 应用,将复杂数据转化为可操作的智能,同时显著缩短价值实现时间。

如需了解更多信息,请观看 此视频 注册 使用由 NVIDIA 构建的 DataStax AI 平台。

 

 

标签