OpenAI推出自动化代码安全审查方案Codex Security
OpenAI 正在推出一款名为 Codex Security 的 AI 驱动应用安全代理工具,能够在代码中自动发现安全漏洞,对疑似问题进行验证,并给出修复方案。 这一产品的发布,意味着 OpenAI 正式切入快速成长的 AI 代码安全市场,加剧与传统应用安全厂商以及其他前沿 AI 实验室之间的竞争。
据介绍,Codex Security 源自 OpenAI 去年开始与少量客户测试的安全研究代理 Aardvark,在此基础上演进而来。 平台可以对代码仓库进行全面分析,在隔离的沙盒环境中对疑似漏洞“施压”测试,生成可证明影响范围的漏洞利用样例,并给出相应修复建议,帮助企业把安全检查前移到开发环节。
目前,Codex Security 以“研究预览”形式向 OpenAI 的企业版、商用版以及教育版客户开放,用户从今日起可免费试用一个月。 OpenAI 表示,在测试阶段,Codex Security 已在对外暴露的代码仓库中识别出近 800 个关键级别发现,以及超过 10,500 个高危问题,并已用该工具在 OpenSSH、GnuTLS、Chromium 等多个开源项目中定位漏洞。
“我们希望确保是在真正赋能防御者。”OpenAI Codex Security 团队成员 Ian Brelinsky 在接受 Axios 采访时表示。 随着攻击者持续将大模型武器化,前沿 AI 实验室一方面要应对模型被滥用的风险,另一方面也在加速推出帮助防御方强化自身安全能力的工具。Anthropic 上个月刚刚推出类似的 Claude Code Security,一度引发传统网络安全厂商股价波动,凸显这一趋势对既有安全生态的冲击。
不过,不少安全高管认为,大型企业在可预见的未来仍将采用“多厂商组合”的安全策略,而不会完全依赖同一家 AI 平台既负责构建系统,也负责为这些系统保驾护航。 Brelinsky 表示,代码安全只是更大网络安全版图中的一块拼图,OpenAI 还在探索如何将更多“代理式”能力扩展到防御场景,持续为安全团队提供自动化支撑。

