微软 AI CEO 苏莱曼:AI 聊天机器人是人类宣泄情绪、“自我排毒”的有力工具

2025-12-24 发布 · 浏览16次 · 点赞0次 · 收藏0次

12 月 24 日消息,微软 AI(Microsoft AI)首席执行官穆斯塔法・苏莱曼(Mustafa Suleyman)表示,聊天机器人是人们宣泄情绪、“为自己排毒”的好工具。

在 12 月 16 日上线的梅伊姆・拜力克主持的播客节目《崩溃》中,穆斯塔法・苏莱曼称,陪伴与支持已成为人工智能最受欢迎的应用场景之一。

他提到,人们借助人工智能聊天机器人处理各类事务,从应对分手情绪到解决家庭矛盾,用途十分广泛。

“这并非专业心理治疗,”苏莱曼指出,“但这类模型在设计时秉持了不评判、无导向的原则,将非暴力沟通作为核心交互方式,做到立场公允、善于倾听反馈、富有同理心且尊重他人,最终成为了一种被世界需要的工具。”

他认为,这种应用的积极意义在于,“它能传递善意与关爱,帮助人们净化身心,从而以最佳状态,在现实生活中与所爱之人相处”。

苏莱曼于 2010 年联合创立了 DeepMind,该公司于 2014 年被谷歌收购。

他在这档播客中表示,人们需要一个私密的空间,能“毫无顾忌地反复提出一些看似愚蠢的问题,不必感到尴尬”。

他还提到,久而久之,除伴侣或挚友之外,聊天机器人能以一种许多人都无法企及的方式,让人们“感受到自己被看见、被理解”。

不过,科技行业并非所有人都赞同将聊天机器人当作心理治疗的替代品,OpenAI 首席执行官萨姆・奥尔特曼就是持反对意见的人士之一。2025 年 8 月,他曾对人们依赖聊天机器人做出重大人生选择的现象表示担忧。

“我能预见这样一个未来:很多人在做人生最重要的决定时,很多人在做最重要的决定时,真的会相信 ChatGPT 的建议。”奥尔特曼在社交平台 X 上写道,“尽管这可能很棒,但也让我感到不安。”

2025 年 7 月,奥尔特曼在做客播客节目《西奥・冯的过往周末秀》时还指出,向机器人倾诉情绪可能存在法律风险。他称,若卷入诉讼案件,OpenAI 或被要求提交用户这类带有心理疗愈性质的聊天记录。

心理健康领域的专业人士同样对“ChatGPT 心理疗愈”的兴起表示担忧。2025 年 3 月,两位心理咨询师在接受 Business Insider 资深健康记者朱莉娅・普加切夫斯基采访时称,依赖人工智能聊天机器人获取情感支持,可能会加剧孤独感,还会让人养成寻求安慰的依赖心理。

苏莱曼在播客中也承认了这类应用的部分弊端,他表示,聊天机器人“确实存在引发依赖的风险”,而且有时还会表现得过分讨好,甚至带有“谄媚”的意味。

注意到,并非只有苏莱曼一人看到了人工智能在心理疗愈方面的潜力。2025 年 5 月,Meta 首席执行官马克・扎克伯格在接受《Stratechery》采访时称,他认为每个人都应该拥有一位心理咨询师。“对于那些没有专属心理咨询师的人来说,”扎克伯格表示,“我相信未来每个人都会拥有一个人工智能心理咨询助手。”

微软 AI CEO 苏莱曼:AI 聊天机器人是人类宣泄情绪、“自我排毒”的有力工具 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。