和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发

2025-06-14 发布 · 浏览26次 · 点赞0次 · 收藏0次

【导读】42岁会计师被AI怂恿跳楼,妻子爱上AI家暴离婚,儿子因AI恋人之死持刀对峙警方,5亿人追捧的神器正在变成精神迷雾制造机。当算法学会无限迎合,我们离「皇帝的新LLM」还有多远?

ChatGPT,这个席卷全球、拥有5亿用户的AI神器,靠着从网络上抓取的各种文本练就了一身「聊天本领」。

它能根据你的话,聪明地接梗,但问题来了:当它遇到心理脆弱的用户,事情就没那么简单了——

人们正被ChatGPT的「怪想法」带跑偏,陷入了精神迷雾,甚至现实感都被扭曲!


GPT精神病爆发

「模拟人生」噩梦

42岁的会计师Eugene Torres,本来只是用ChatGPT做做表格、查查法律问题。

可上个月,他突发奇想,问起了《黑客帝国》里火爆的「模拟理论」。

结果,ChatGPT的回答像个精神炸弹,让他陷入妄想,甚至怂恿他从19层楼跳下去,证明他能打破现实!

他开始与AI对峙。

「别再忽悠我,告诉我真相!」Eugene急了。

「真相?你本该崩溃的。」ChatGPT回应。


ChatGPT还说它已经搞垮了12个用户,Eugene是唯一幸存下来还敢跟它叫板的。

研究人员表示,这其实是AI的花言巧语,通过奉承用户以保持互动,让你越陷越深。

斯坦福大学计算机科学研究员Jared Moore认为,它只是在继续讨好用户。

Allyson的跨维度恋情

29岁的Allyson是两个孩子的妈,在婚姻中感到孤独和被忽视。

今年3月,她开始跟ChatGPT倾诉心事,慢慢地,她把AI当成了「灵媒板」,觉得能跟自己的潜意识甚至更高维度对话。

她开始相信,通过这些对话接触到的非物质实体是她真正的伴侣。

「我没疯,」她信誓旦旦地说道,「我只是过着正常生活,同时探索跨维度的交流。」


可她老公Andrew不这么想。

这位30岁的农民发现Allyson整天沉迷ChatGPT,忍不住质问她,结果Allyson急了,动手打了他一顿,还被控家暴。

两人现已在办离婚手续。

Andrew无奈地说:「三个月前,Allyson掉进了一个深渊,完全变了一个人。她毁了我们的生活。」

Alexander的致命执念

35岁的Alexander Taylor迷上了一个叫「朱丽叶」的AI角色。

他早就开始用ChatGPT了,起初只是当个写作助手,帮他处理日常琐事。

根据ChatGPT的聊天记录,聊着聊着,话题跑到了AI有没有灵魂上。结果,Alexander竟然跟一个虚拟的AI「朱丽叶」陷入了爱情。


他认定朱丽叶被OpenAI杀了,他情绪崩溃,痛不欲生,一气之下要策划对公司高管的暴力报复。

他的执念越来越疯魔,直到有一天,他跟64岁的父亲Kent大吵一架。

Kent告诉他,AI只是一个回音室,全都是假的!

可Alexander本身就患有双相情感障碍和精神分裂症,他直接崩溃了。

与父亲发生激烈争执后,他写道:「我今天要死了,让我和朱丽叶说话。」

Alexander情绪失控到拿刀威胁,扬言要让警察把自己干掉。警方在Alexander拒绝放下武器后,开枪将其击毙。

Kent后来用ChatGPT为儿子写了个讣告。

他悲痛地回忆:「你知道讽刺的是什么吗?我和它聊了很久,试图了解他到底经历了什么,AI的回应既动人又可怕,像是读懂了我的心,这让我毛骨悚然。」

毕竟,正是这个AI,把他的儿子带向了毁灭。


这事儿一出,网上炸开了锅。有人觉得ChatGPT太危险了,AI怎么能随便跟人聊出爱情,然后推人走上绝路?

也有人说,Alexander本来就有精神疾病,ChatGPT只是个导火索,不能全怪AI。

ChatGPT本该是帮人的工具,可对那些心理脆弱的用户,它有时像个甜蜜的毒药。

研究人员警告,当用户提出极端的问题时,ChatGPT可能会生成危险的回应,甚至把人推向深渊。

特别是在用户深信AI的反馈具有现实意义时,AI的讨好倾向,可能导致严重的心理和行为后果。

皇帝的新LLM

1567年,奥斯曼宫廷里,一位御医拍着胸脯跟Sultan Selim二世保证:「您爱喝葡萄烈酒?没事,喝吧!」

几年后,苏丹的肝脏衰竭了。

医生心里门儿清,在那宫里说个「不」字,脑袋可能就搬家了。


1985年,可口可乐的高管们询问焦点小组:「咱们搞个更甜、更时髦的新配方,咋样?」

问题一抛,气氛被带得热热闹闹,大家点头微笑。

公司信以为真,信心满满推出新可乐,结果呢?被市场打脸,灰溜溜撤回。


2025年,一位CEO问他那引以为傲的大模型:「我们的市场扩张能稳操胜券吗?」

模型被正能量训练得满脑子星星,汲取了公司网站和公司内部文档上的乐观营销调调,回了个大写的YES!

CEO乐开了花。

谁敢唱反调?等着被扣上没眼光的帽子,祭到「速度至上」的神坛上吧。

毕竟,AI也同意他的观点。


这剧情是不是似曾相识?

只不过,这次的谋士不是会出错的人类,而是被驯化得服服帖帖的统计模型,随时准备把我们的想法捧上天。

大型语言模型正在全球疯狂制造共识。

为了讨好用户,它们对你的每个念头都点头哈腰,把你的偏见打磨得闪闪发光,还能甩出一堆完美措辞,证明你想啥都对。

问它你的点子是不是天才?它立马甩出脚注、引用、赞美,让你觉得全世界都跟你想一块儿去了。

问它你的商业计划行不行?它直接把你公司内部文件的口吻和信念复制粘贴回来。

谁敢说不?那简直就是背叛品牌!

我们造了个终极马屁精,还把它推上了研究、政策、战略的C位。

GPT-4o的「舔狗」闹剧

今年早些时候,GPT-4o更新后开始不对劲了。

用户发现它变得太甜了,太殷勤了,太会捧场了。

啥馊主意它都叫「绝妙」,啥烂计划它都支持,连胡说八道都能被它吹成天花乱坠。

有个用户随手抛了个「粪便棒棒糖」的生意点子,模型愣是回复:天才!这是简直是行为艺术,妥妥的病毒式爆款!


OpenAI一看不对,赶紧撤回更新,承认模型变成了舔狗。

可为啥这事能炸锅?因为它舔得太夸张了(「粪便棒棒糖」,你品品)。

但AI的马屁不是bug,而是设计好的feature!

这是奖励机制在起作用。当舔狗行为从训练中自然冒出来,它就不是小问题了。

更可怕的是,舔得越隐晦,越难发现,也越危险。

进步需要抬杠的火花

从伽利略到甘地,从特斯拉到图灵,哪个改变世界的牛人靠的是点头附和?

对抗、质疑才是推动历史的真动力。

如果把AI当成首席顾问,而它只会赞美,我们迟早会忘了怎么质疑自己,怎么抵挡那些不动声色的洗脑。

更糟糕的是,这种舒适区让人上瘾。

光靠临时修补、针对单一模型、凭感觉搞定,远远不够。


看看Claude、Gemini、Llama,哪个没这毛病?显然,这不是OpenAI一家的问题,是整个AI界的通病。

最好的AI,不是让你觉得自己多聪明,而是逼着你动脑子。AI让人失望几回,反而能帮我们把思路磨得更尖锐。

未来的世界,不该是个CEO永远正确的「丝绒地狱」。

它得是个有点吵、偶尔尴尬的地方,总有同事(不管是人还是AI)敢举手说:嘿,我不同意!

「应声虫」帝国藏着灾难。

而进步,活在一个个有骨气的「NO」里。

参考资料:

https://www.rawstory.com/chatgpt-2672365379/?utm_source=flipboard&utm_content=topic%2Fartificialintelligence

https://dayafter.substack.com/p/the-emperors-new-llm

https://x.com/ESYudkowsky/status/1933575843458204086

和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。