Rich Harang

Rich Harang 是 NVIDIA 的首席安全架构师,专门研究 ML / AI 系统,在计算机安全、机器学习和隐私领域拥有十多年的经验。 2010 年,他在加州大学圣巴巴拉分校获得统计学博士学位。在加入 NVIDIA 之前,他领导 Duo 的算法研究团队,在 Sophos AI 领导使用机器学习模型检测恶意软件、脚本和网络内容的研究,并在美国陆军研究实验室担任团队领导。他的研究兴趣包括对抗性机器学习、解决机器学习中的偏见和不确定性,以及使用机器学习支持人类分析的方法。 Richard 的作品曾在 USENIX 、 BlackHat 、 IEEE s & P 研讨会和 DEF CON AI Village 等会议上发表,并在 The Register 和 KrebsOnSecurity 上发表。

Posts by Rich Harang

代理式 AI/生成式 AI

NVIDIA AI Red 团队的实用 LLM 安全建议

近年来,NVIDIA AI 红队(AIRT)已对多款在投产前的支持 AI 的系统进行了潜在漏洞和安全风险评估。 1 MIN READ
网络安全

为什么 CVE 属于框架和应用,而非 AI 模型

通用漏洞与暴露(CVE)系统是用于记录软件安全漏洞的全球标准。该计划由MITRE公司维护,并得到CISA的支持, 1 MIN READ
网络安全

使用 AI 击杀链框架对 AI 驱动应用进行攻击建模

AI 赋能的应用带来了传统安全模型难以全面覆盖的新攻击面,尤其是当这些代理式系统具备自主性时。应对持续演变的攻击面,其核心原则十分明确: 2 MIN READ
对话式人工智能

为 AI 模型带来可验证的信任:NGC 中的模型签名

AI 正在进入一个新时代,在这个时代,智能体可以推理、计划和采取行动。这些代理系统与 API、工具乃至物理环境进行动态交互, 2 MIN READ
网络安全

使用 NVIDIA NIM 安全部署 AI 模型

想象一下,您正在领导大型企业的安全工作,并且您的团队渴望将 AI 用于越来越多的项目。不过,这是一个问题。与任何项目一样, 2 MIN READ
网络安全

构建应用程序以安全使用 KV 缓存

在与基于 Transformer 的模型 (如 大语言模型 (LLM) 和 视觉语言模型 (VLM)) 交互时,输入结构会塑造模型的输出。 2 MIN READ