Copyright © 2022-2025 aizws.net · 网站版本: v1.2.6·内部版本: v1.25.2·
页面加载耗时 0.00 毫秒·物理内存 112.6MB ·虚拟内存 1308.3MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
12 月 11 日消息,当地时间 12 月 10 日,OpenAI 通过官方博客文章发出提醒:随着其下一代人工智能模型的能力迅速提升,可能会带来“高”级别的网络安全风险。

OpenAI 在博客中指出,这些模型可能会开发出针对防御严密系统的有效零日远程漏洞,或在企业和工业入侵行动中发挥辅助作用,从而引发现实世界的安全影响。
OpenAI 表示,随着模型能力不断增强,相关团队正加大投入,以提升模型在防御性网络安全任务中的表现,并开发能协助安全人员完成代码审计和漏洞修补等工作的工具。
从文章中获悉,为降低潜在风险,OpenAI 正采取访问控制、基础设施加固、出口控制和持续监测等多重方式共同防护。OpenAI 还计划推出一项新计划,拟向符合条件、从事网络防御的用户与企业提供分级访问增强功能。
OpenAI 还将成立一个名为 Frontier Risk Council 的顾问机构,邀请经验丰富的网络防御专家和安全从业者与内部团队紧密协作。该机构的初期重点是网络安全,并将在未来拓展到其他前沿技术领域。
参考
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。