参加我们将于 6 月 17 日结束的比赛,使用前沿技术展示您的创新成果:由生成式 AI 驱动的应用程序,该应用程序使用 NVIDIA 和 LangChain 技术。为了让您开始,我们将探索一些用于激发您的创意之旅的应用程序,同时分享提示和最佳实践,帮助您在开发过程中取得成功。
快速激发您的创造力
生成式 AI 智能体有许多不同的实际应用。在之前的比赛中开发的智能体或 Copilot 应用会根据应用的隐私、安全和计算要求使用大型语言模型 (LLM) 或小型语言模型 (SLM)。
这些示例包括:
- 借助本地托管的 LLM 模型,专为 Outlook 设计的插件可帮助用户撰写电子邮件、总结电子邮件主题并回答收件箱问题。
- 使用命令行助手将简单的英语指令转换为可行的命令行提示,从而增强命令行界面。
- 视觉探索工具,可分析图像并提供直观的照片分析功能。
开发者可以在游戏、医疗健康、媒体和娱乐等领域创建用于内容生成的应用。其他选项包括总结、在医疗健康领域,客服人员可以通过分析患者症状、病史和临床数据来帮助诊断疾病,例如问答环节。
其中许多想法都适用于您的数据和您想要解决的问题 – 无论是使用客服改善每周的杂货店购物,还是在业务环境中优化客户服务响应
开发之旅的快捷提示
开发由 LLM 或 SLM 驱动的应用程序需要集成多个组件。此过程包括准备数据、选择合适的基础模型、微调选定的基础模型,以及针对各种下游任务编排模型。这些任务可能包括代理创建、推理服务和其他专用功能。
让我们先来了解一下在 Omniverse Create 中 基于 LLM 的智能体应用。在代理应用中,选择合适的基础模型至关重要,因为它在准确、高效地理解用户查询方面发挥着关键作用。此决策提出了几个重要问题,例如选择 LLM 还是 SLM,以及是否对模型进行量化。
这些问题的答案并不简单,而是受到应用程序需求、部署基础设施、所需推理速度和准确性要求等因素的影响。
下列提示值得牢记。
如果您的应用程序部署在显存占用较小的 GPU 上,则应考虑在使用之前使用量化模型或量化现有模型。开发者可以使用的一些工具是量化框架,例如 模型优化器 及其各种插件,包括适用于大型语言模型的 NVIDIA TensorRT TensorRT-LLM。这些工具可以在 LangChain 框架中实现模型量化和优化。
如果推理准确性很重要,您应使用与其用例保持一致的基础模型,但其中一些模型需要具有大显存的 GPU。
如果您的目标是使用 检索增强生成 (RAG) 在您的应用中,格式化和整理文档是应用开发的一个重要方面。您可以利用诸如 NVIDIA NeMo Curator 或文档加载器 等工具来支持处理不同的文档模式,并查看我们 最近的博文,以获取有关 NeMo Curator 的更多见解。
这些主题将帮助您开始使用您的应用程序。对于更高级的用例,例如微调和构建多智能体应用,您可以探索 NeMo 框架 和 LangGraph。
立即注册,开始构建新一代 AI 应用程序。