Posts by Aditi Bodhankar
对话式人工智能
2025年 3月 3日
衡量 AI Guardrails 在生成式 AI 应用中的有效性和性能
保护 AI 智能体和其他对话式 AI 应用,以确保安全、品牌和可靠的行为,这对企业至关重要。
3 MIN READ
网络安全/欺诈检测
2025年 1月 16日
如何使用 NVIDIA NeMo Guardrails 为客户服务保护 AI 智能体
AI 代理为 企业扩展和提升客户服务以及支持交互提供了重要机会。这些客服人员可自动处理日常查询并缩短响应时间,从而提高效率和客户满意度,
5 MIN READ
网络安全/欺诈检测
2024年 12月 6日
使用 NVIDIA NeMo Guardrails 实现内容审核和安全性检查
鉴于用户生成的内容和这些系统管理的外部数据量庞大,内容审核在由生成式 AI 提供支持的 检索增强生成 (RAG) 应用中变得至关重要。
3 MIN READ
对话式人工智能
2024年 8月 5日
使用 NVIDIA NIM 和 NVIDIA NeMo Guardrails 保护生成式 AI 部署
随着企业采用由大型语言模型(LLMs)提供支持的生成式 AI 应用,越来越需要实施护栏以确保安全并符合可靠 AI 原则。
2 MIN READ
对话式人工智能
2024年 5月 31日
使用 LangChain 模板和 NVIDIA NeMo Guardrails 构建更安全的 LLM 应用
易于部署的参考架构可以帮助开发者通过自定义 LLM 用例更快地投入生产。LangChain 模板是一种创建、共享、维护、
2 MIN READ
生成式人工智能/大语言模型
2024年 3月 20日
多模态检索增强生成的简单介绍
检索增强生成 (RAG) 应用程序如果能够处理各种数据类型,包括表格、图形和图表,而不仅仅是文本,其效用将会呈指数级增长。
2 MIN READ