Kai Greshake

Kai Greshake 是一名研究人员和顾问,专注于大语言模型和 AI 系统的安全性。他以前是渗透测试人员,现在在 NVIDIA 工作,致力于提高 AI 部署的安全性和弹性。他对刺激注射攻击 (包括间接刺激注射) 的研究被广泛引用。Kai 探讨了复杂系统如何崩溃,以及如何更安全地重建它们。Hesh 通过研究论文、开源项目和有关 AI 安全的文章分享他的见解。

Posts by Kai Greshake

代理式 AI/生成式 AI

代码执行如何推动代理式 AI 系统中的主要风险

AI 驱动的应用正从被动工具演变为能够生成代码、做出决策并采取自主行动的代理式系统。这一转变带来了严峻的安全挑战。 2 MIN READ