OpenAI 上线安全评估中心,定期公开 AI 模型评估结果以提升透明度

2025-05-15 发布 · 浏览22次 · 点赞0次 · 收藏0次

5 月 15 日消息,OpenAI 宣布将更频繁地公开其内部人工智能模型的安全评估结果,以提高透明度。该公司于周三正式上线了“安全评估中心”网页,旨在展示其模型在有害内容生成、模型越狱以及幻觉现象等方面的测试表现。

OpenAI 表示,该安全评估中心将用于持续发布模型相关指标,并计划在未来的重大模型更新后及时更新网页内容。OpenAI 在一篇博客文章中写道:“随着人工智能评估科学的不断发展,我们致力于分享我们在开发更具可扩展性的模型能力与安全评估方法方面的进展。”该公司还强调,通过在此公开部分安全评估结果,不仅希望让用户更清晰地了解 OpenAI 系统随时间的安全性能变化,也期望能够支持整个行业在透明度方面的共同努力。此外,OpenAI 提到可能会随着时间推移在该中心增加更多评估项目。

此前,OpenAI 曾因部分旗舰模型的安全测试流程过快以及未发布其他模型的技术报告而受到一些伦理学家的批评。公司首席执行官山姆・奥尔特曼(Sam Altman)也因被指在 2023 年 11 月短暂被免职前误导公司高管关于模型安全审查的问题而备受争议。

注意到,就在上个月末,OpenAI 不得不撤销对 ChatGPT 默认模型 GPT-4o 的一次更新。原因是用户报告称该模型的回应方式过于“谄媚”,甚至对一些有问题的、危险的决策和想法也表示赞同。针对这一事件,OpenAI 表示将采取一系列修复和改进措施,以防止类似事件再次发生。其中包括为部分模型引入一个可选的“alpha 阶段”,允许部分 ChatGPT 用户在模型正式发布前进行测试并提供反馈。

OpenAI 上线安全评估中心,定期公开 AI 模型评估结果以提升透明度 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。