Security for AI
2025年 10月 9日
从助手到对手:利用代理式 AI 开发者工具
越来越多的开发者开始采用支持人工智能的编码工具,例如 Cursor、OpenAI Codex、Claude Code 和 GitHub…
3 MIN READ
2025年 10月 2日
NVIDIA AI Red 团队的实用 LLM 安全建议
近年来,NVIDIA AI 红队(AIRT)已对多款在投产前的支持 AI 的系统进行了潜在漏洞和安全风险评估。
1 MIN READ
2025年 9月 26日
为什么 CVE 属于框架和应用,而非 AI 模型
通用漏洞与暴露(CVE)系统是用于记录软件安全漏洞的全球标准。该计划由MITRE公司维护,并得到CISA的支持,
1 MIN READ
2025年 8月 7日
黑客如何利用 AI 解决问题的能力
随着多模态 AI 模型从感知发展到推理,甚至开始自主行动,新的攻击面也随之出现。这些威胁不仅针对输入或输出,还利用了 AI 系统如何处理、
2 MIN READ
2025年 6月 5日
分析基板管理控制器以保护数据中心基础设施
现代数据中心依靠 Baseboard Management Controllers (BMCs) 进行远程管理。
2 MIN READ
2025年 2月 25日
定义 LLM 红色团队
在一项活动中,人们为生成式 AI 技术 (例如大语言模型 (LLMs)) 提供输入,以确定输出是否会偏离可接受的标准。
1 MIN READ
2024年 12月 16日
借助 WebAssembly 实现沙箱 Agentic AI 工作流
代理 AI 工作流通常 涉及执行由 大语言模型 (LLM) 生成的代码,以执行创建数据可视化等任务。但是,此代码应在安全环境中清理和执行,
2 MIN READ
2024年 10月 24日
利用 NVIDIA Morpheus 加速警报分流和 LLM 代理强化安全运营中心
安全运营中心(SOC)分析师每天都会收到大量传入的安全警报。为了确保其组织的持续安全,他们的任务是仔细检查传入的噪音,分拣出误报,
1 MIN READ