OpenAI 推出 Codex Security,面向代码安全审计场景
浏览95次
点赞0次
收藏0次
3 月 7 日消息,OpenAI 现已推出 Codex Security AI 工具,主要面向代码安全审计场景。

据介绍,Codex Security 主要使用前沿 AI 模型推理能力结合自动化验证机制解决安全审查问题,可提供高可信度漏洞发现、可执行修复方案,帮助开发团队更快发现重要漏洞,进而加速代码发布流程。
这套工具已在去年对小部分客户启动内部测试,在早期部署中成功发现 SSRF(注:服务器端请求伪造)漏洞等真实问题,随着 Beta 测试推进,系统精度也在持续提升,例如在同一代码库中噪声减少 84%、误报率下降 50%。
同时,Codex Security 首先可通过系统上下文生成专属模型,优先排序并验证漏洞,随后提出一套与系统设计一致的修复方案,还能够根据用户反馈持续学习。
目前这套方案已经通过研究预览版的形式向 ChatGPT Pro、Enterprise、Business 以及 Edu 用户推出,还能够通过 Codex Web 访问,未来一个月可免费使用。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
AI 中文社