Posts by Joseph Lucas
代理式 AI/生成式 AI
2025年 10月 2日
NVIDIA AI Red 团队的实用 LLM 安全建议
近年来,NVIDIA AI 红队(AIRT)已对多款在投产前的支持 AI 的系统进行了潜在漏洞和安全风险评估。
1 MIN READ
网络安全
2025年 9月 26日
为什么 CVE 属于框架和应用,而非 AI 模型
通用漏洞与暴露(CVE)系统是用于记录软件安全漏洞的全球标准。该计划由MITRE公司维护,并得到CISA的支持,
1 MIN READ
网络安全
2025年 4月 29日
构建应用程序以安全使用 KV 缓存
在与基于 Transformer 的模型 (如 大语言模型 (LLM) 和 视觉语言模型 (VLM)) 交互时,输入结构会塑造模型的输出。
2 MIN READ
对话式人工智能
2024年 12月 16日
借助 WebAssembly 实现沙箱 Agentic AI 工作流
代理 AI 工作流通常 涉及执行由 大语言模型 (LLM) 生成的代码,以执行创建数据可视化等任务。但是,此代码应在安全环境中清理和执行,
2 MIN READ
网络安全
2024年 7月 11日
使用 Canaries 防止 AI 模型文件未经授权访问
随着 AI 模型在功能和创建成本方面的增长,它们保存了更多敏感或专有数据,保护静态数据变得越来越重要。为此,组织正在设计策略和工具,
2 MIN READ
网络安全
2024年 6月 27日
保护应用程序完整性的安全 LLM 令牌化解决方案
本文是 NVIDIA AI Red Team 持续漏洞和技术研究的一部分。NVIDIA AI Red Team’…
1 MIN READ