OpenAI、Anthropic 研究人员齐声谴责 xAI:安全文化“完全不负责任”

2025-07-17 发布 · 浏览22次 · 点赞0次 · 收藏0次

7 月 17 日消息,据外媒 TechCrunch 今日报道,OpenAI、Anthropic 等机构的 AI 安全研究人员近日公开发声,批评马斯克 xAI 的安全文化“鲁莽”“完全不负责任”

目前在 OpenAI 担任 AI 安全研究员的哈佛大学计算机科学教授 Boaz Barak 在 X 上发文说:“我原本不打算评论 Grok 的安全问题,毕竟我所在的公司与 xAI 存在竞争关系,但这件事根本不是竞争问题。我尊重 xAI 的科学家和工程师,但他们处理安全的方式实在太不负责任了。”

Barak 特别指出,xAI 拒绝发布“系统卡片”令人担忧(注:这类报告是 AI 行业的基本规范,通常会详细说明模型的训练方式与安全评估,以便科研界共同监督)。正因为 xAI 没有公布相关信息,Grok 4 是否进行过任何安全训练如今无从得知

Barak 还对 Grok 的 AI 虚拟角色提出批评,认为它们“放大了我们在情感依赖方面最糟糕的问题”。近年来已有不少案例显示,一些心理状态不稳定的人会对聊天机器人产生病态依赖,而 AI 如果总是迎合用户,反而会进一步加剧风险

Anthropic 的 AI 安全研究员 Samuel Marks 也批评 xAI 拒绝公开安全评估报告,称此举“鲁莽”。他表示:“Anthropic、OpenAI 和谷歌在这方面都不完美,但至少他们在上线前会做一些评估并记录结果,而 xAI 则完全没有。”

目前,外界根本无法判断 xAI 是否对 Grok 4 进行过系统测试。在论坛 LessWrong 上,有匿名研究者发帖称,Grok 4“几乎没有任何实质性的安全防护机制”,他们的测试结果让人忧心。

xAI 的安全顾问、AI 安全中心主任 Dan Hendrycks 在 X 上表示,公司已对 Grok 4 进行过“危险能力评估”,但并未公布任何评估结果。

曾在 OpenAI 领导安全团队、现为独立研究员的 Steven Adler 对 TechCrunch 表示:“如果连最基本的安全实践都不能在行业内得到执行,比如公布危险能力评估的结果,那我确实感到担忧。政*和公众有权了解 AI 公司是如何应对这些强大系统所带来的风险的。”

马斯克本人长期以来就是 AI 安全的高调倡导者。他多次警告高级 AI 可能带来灾难性后果,也曾公开支持“开放透明”的开发方式。

但眼下多个研究团队认为 xAI 的行为正背离这些理念,在发布模型的安全流程上已偏离行业常规。讽刺的是,这些做法反而可能促使州议会和联邦政*更快推动相关立法,要求 AI 公司强制披露安全报告

多位研究者指出,AI 安全和对齐测试不仅是为了防止极端风险,也是为了防范眼下模型行为失常的问题。

OpenAI、Anthropic 研究人员齐声谴责 xAI:安全文化“完全不负责任” - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。