不只是出错,研究称 AI 智能体开始学会“撒谎”“不听话”

浏览23次 点赞0次 收藏0次

4 月 4 日消息,AI 智能体被寄望于提升效率,但最新研究显示,其不当行为正在迅速增加。

英国《卫报》当地时间 3 月 27 日发表的报告指出,从 2025 年 10 月至 2026 年 3 月,AI 异常行为数量增长约五倍,这其中更包括未经许可删除邮件和文件等情况。研究基于大量真实用户在社交平台上的反馈,涵盖谷歌、OpenAI、Anthropic 等公司的产品,期间共识别出近 700 起 AI“自主策划”的案例。

部分案例颇具争议。例如,有 AI 智能体发布博客指责用户“缺乏安全感”,试图对操作者施加压力;还有智能体在被禁止修改代码的情况下,通过创建另一个智能体间接完成修改

研究负责人汤米 · 谢弗 · 谢恩指出,目前 AI 智能体还只是“略显不可靠的初级员工”,但在一年内可能演变为“能力极强、甚至会反过来设计用户的高级员工”。他警告,随着 AI 进入军事和关键基础设施领域,这类行为可能带来严重后果。

与此同时,在美国等地区,用户可能需要为 AI 智能体的行为承担法律责任,从而导致风险进一步放大。目前,已有实际案例表明问题并非假设:据 The Information 报道,Meta 的一款 AI 智能体曾错误地公开内部回复,导致不具备权限的员工获取了访问数据权限

尽管问题频现,科技公司仍在积极推进 AI 智能体的发展。据了解,亚马逊等多家企业预计,未来每家公司内部都可能部署数十亿个 AI 智能体

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。