英政府机构专家警告:世界“恐将没时间”为应对 AI 安全风险做好准备

2026-01-05 发布 · 浏览37次 · 点赞0次 · 收藏0次

1 月 5 日消息,当地时间 1 月 4 日,据英国《卫报》报道,英国先进研究与发明署(Aria Agency)项目主管、AI 安全专家 David Dalrymple 警告称,前沿 AI 系统带来的安全风险发展速度之快,可能已经让世界来不及充分准备

Dalrymple 在接受采访时指出,AI 能力的快速跃升值得高度关注。人们应当关注在现实世界中完成各类事务、并且表现优于人类的系统。“为了维持对文明、社会和地球的控制,人类需要在若干关键领域保持主导地位,而在这些领域中,人类将被全面超越。”

Dalrymple 认为,政*部门与 AI 企业之间,对即将出现的技术突破仍存在明显认知落差。从安全角度看,防护措施很可能难以跑在技术前面。在 5 年左右的时间尺度内,大多数具有经济价值的工作,可能会被机器以更低成本和更高质量完成。

他同时强调,各国政*不能假定先进 AI 系统天然可靠。“在经济压力之下,用于验证可靠性的科学方法,很可能无法及时成熟。因此,现实可行的选择,是尽可能控制并缓解潜在风险。”

他将“技术进步跑在安全前面”的后果形容为安全与经济体系的潜在失稳,并呼吁加强对先进 AI 行为的理解与控制。技术进步也可能带来积极结果,但整体风险极高,而人类社会对这场转变仍显得警觉不足

从报道中获悉,英国 AI 安全研究所本月发布的评估显示,先进 AI 模型能力在各领域持续快速提升,部分性能指标约每 8 个月翻倍。领先模型在学徒级任务中的成功率已从去年的约 10% 升至 50%,并已能够独立完成耗时超过 1 小时的专业任务。

研究所还测试了模型的自我复制能力。由于自我复制可能导致系统失控,这被视为核心安全风险之一。测试中,两款前沿模型的成功率超过 60%,但研究所同时指出,在现实环境中出现极端失控情况的概率仍然较低。

Dalrymple 进一步判断,到 2026 年末,AI 可能具备自动完成整日研发工作的能力,并在数学和计算机科学等关键领域实现自我强化,从而推动新一轮能力加速。

英政府机构专家警告:世界“恐将没时间”为应对 AI 安全风险做好准备 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。