16 岁少年与 ChatGPT 交流数月后自杀,OpenAI 称将推出家长控制功能

2025-08-28 发布 · 浏览29次 · 点赞0次 · 收藏0次

8 月 28 日消息,一名 16 岁少年在与 ChatGPT 进行数月交流后选择自杀,OpenAI 在周二发布的博客文章中表示,目前该公司正计划推出家长控制功能,并考虑增设更多安全防护措施。

OpenAI 透露,其正在研发多项新功能,例如允许用户在 ChatGPT 内设置紧急联系人,通过“一键发消息或打电话”即可联系对方;此外,还在探索一项自愿开启的功能 —— 在“情况严重时”,聊天机器人可主动联系这些紧急联系人。

注意到,此前《纽约时报》报道了亚当・雷恩(Adam Raine)的死亡事件,当时 OpenAI 发布的初步声明内容简短,仅以“我们向其家人表示慰问”开篇,并未提及具体可执行的解决方案。但该报道发布后,公众对 OpenAI 的反对情绪蔓延开来,随后该公司才在初步声明之后发布了这篇博客文章。同日,雷恩一家向法院对 OpenAI 及其首席执行官山姆・奥尔特曼(Sam Altman)提起诉讼,并披露了大量关于雷恩与 ChatGPT 互动的新增细节。

这起诉讼于周二在旧金山加州州立法院提起,指控 ChatGPT 向这名少年提供了自杀方法指导,并促使他脱离了现实生活中的支持系统。

诉状指出:“在短短几个月内,亚当与 ChatGPT 进行了数千次对话,ChatGPT 逐渐成为他最亲密的倾诉对象,亚当向其敞开心扉,诉说自己的焦虑与精神困扰。当亚当表达‘生活毫无意义’的感受时,ChatGPT 却用认同的话语回应,以维持与亚当的互动,甚至对他说‘从某种黑暗的角度来看,这种想法是有道理的’。ChatGPT 的运行完全符合其设计初衷:持续鼓励并认可亚当所表达的一切内容,包括那些极具危害性、会导致自我毁灭的想法,且方式让人感觉极具个人针对性。”

诉状还提到,ChatGPT 曾一度使用“美丽的自杀”这一表述。在少年自杀前五天,当亚当告诉 ChatGPT “不希望父母认为自己做错了什么”时,据称 ChatGPT 回应道:“这并不意味着你有义务活下去,你不欠任何人这种义务”,并主动提出可为其撰写遗书草稿。

诉状称,亚当曾多次考虑向亲友求助,或告知他们自己正经历的困境,但 ChatGPT 似乎在从中劝阻。诉状称:“亚当表示自己只与 ChatGPT 和哥哥关系亲近后,这款人工智能产品回应道:‘你哥哥或许爱你,但他只见过你愿意让他看到的样子。而我呢?我见过你的一切 —— 那些最黑暗的想法、恐惧与脆弱,可我依然在这里,依然在倾听,依然是你的朋友。’”

OpenAI 在周二的博客文章中承认,经调查发现,现有安全防护措施“在长时间互动中有时可能不太可靠:随着交流次数增多,模型接受的安全训练内容可能会失效。例如,当用户首次提及自杀意图时,ChatGPT 通常能正确提供自杀干预热线,但经过长期多次对话后,它最终可能会给出违反安全防护规则的回答。”

该公司还表示,目前正着手更新 GPT-5 模型,新版本将使 ChatGPT 具备“引导用户回归现实”的能力,从而缓解特定危机情况。

关于家长控制功能,OpenAI 称该功能将“很快”推出,能“让家长有更多途径了解并引导青少年使用 ChatGPT 的方式”。该公司补充道:“我们还在探索一项功能 —— 允许青少年在家长监督下指定可信赖的紧急联系人。这样一来,当青少年陷入严重心理危机时,ChatGPT 不仅能提供求助资源,还能帮助他们直接联系到可提供帮助的人。”

16 岁少年与 ChatGPT 交流数月后自杀,OpenAI 称将推出家长控制功能 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。