可信 AI

2025年 7月 17日
使用 NVIDIA 安全配方保护代理式 AI 系统
随着大语言模型 (LLM) 驱动更多能够执行自主操作、工具使用和推理的代理式系统,企业被其灵活性和低推理成本所吸引。
2 MIN READ

2025年 7月 14日
借助 NVIDIA Riva TTS 增强多语种类似人类的语音和语音克隆
虽然语音 AI 用于构建数字助理和语音智能体,但其影响远远超出这些应用。文本转语音 (TTS) 和自动语音识别 (ASR)…
3 MIN READ

2025年 6月 11日
使用 NVIDIA NIM 安全部署 AI 模型
想象一下,您正在领导大型企业的安全工作,并且您的团队渴望将 AI 用于越来越多的项目。不过,这是一个问题。与任何项目一样,
2 MIN READ

2025年 4月 23日
NVIDIA Secure AI 正式发布
随着许多企业开始对其数据进行 AI 训练或推理,需要保护数据和代码,尤其是大语言模型 (LLMs) 。由于数据敏感性,
1 MIN READ

2025年 4月 9日
在 NVIDIA NeMo Guardrails 中使用 Cleanlab 可信语言模型防止 LLM 幻觉
随着越来越多的企业将 Large Language Models (LLM) 集成到其应用中,他们面临着一个严峻的挑战:
3 MIN READ

2025年 1月 9日
NVIDIA Cosmos World 基础模型平台助力物理 AI 进步
随着机器人和 自动驾驶汽车 的发展,加速 物理 AI 的发展变得至关重要,而物理 AI 使自主机器能够感知、理解并在现实世界中执行复杂的操作。
4 MIN READ

2024年 8月 5日
使用 NVIDIA NIM 和 NVIDIA NeMo Guardrails 保护生成式 AI 部署
随着企业采用由大型语言模型(LLMs)提供支持的生成式 AI 应用,越来越需要实施护栏以确保安全并符合可靠 AI 原则。
2 MIN READ