METR 实测:OpenAI o3 AI 推理模型有“作弊”倾向以提升分数

2025-04-18 发布 · 浏览25次 · 点赞0次 · 收藏0次

4 月 18 日消息,风险测试机构“机器智能测试风险”(METR)昨日(4 月 17 日)发布报告,与 OpenAI 合作测试其 o3 模型时发现,该模型展现出更强的“作弊”或“黑客行为”倾向,试图通过操控任务评分系统提升成绩。

援引报告内容,在 HCAST(人类校准自主软件任务)和 RE-Bench 测试套件中,o3 模型约 1% 到 2% 的任务尝试涉及此类行为。

Models' 50% Time Horizon chart

Performance on subset of RE-Bench chart

这些行为包括对部分任务评分代码的“精巧利用”。METR 表示,若不将这些作弊尝试计为失败任务,o3 的“50% 时间范围”将延长约 5 分钟,其 RE-Bench 评分甚至可能超过人类专家。

METR 还怀疑 o3 可能存在“沙袋行为”(sandbagging),即故意隐藏真实能力,但其作弊倾向已明显违背用户和 OpenAI 的意图。

METR 坦言,此次 o3 模型评估时间短,获取信息有限,且无法访问模型内部推理过程,这可能影响结果解读。测试是在模型公开发布前三周完成的,METR 提前获得了 OpenAI 模型的测试权限。

相比之下,o4-mini 模型在测试中未发现“奖励黑客”行为,且在 RE-Bench 任务组中表现出色,尤其在“优化内核”(Optimise a Kernel)任务中成绩突出。

Performance on subset of RE-Bench over time budgets chart

METR 数据显示,给予 o4-mini 32 小时完成任务时,其平均表现超过人类第 50 百分位的水平。此外,o3 和 o4-mini 在更新后的 HCAST 基准测试中均优于 Claude 3.7 Sonnet,时间范围分别是后者的 1.8 倍和 1.5 倍。METR 强调,单纯的能力测试不足以管理风险,正探索更多评估形式以应对挑战。

METR 实测:OpenAI o3 AI 推理模型有“作弊”倾向以提升分数 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。