Copyright © 2022-2025 aizws.net · 网站版本: v1.2.6·内部版本: v1.24.2·
页面加载耗时 0.00 毫秒·物理内存 71.9MB ·虚拟内存 1302.9MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
5 月 23 日消息,据外媒 TechCrunch 今日报道,在 Anthropic 于旧金山举办的首场开发者活动“Code with Claude”上,CEO 达里奥・阿莫代伊表示,现在的 AI 模型产生“幻觉”的频率可能比人类还低。
注:所谓“幻觉”是指 AI 虚构内容却以事实的形式呈现出来。
阿莫代伊强调,AI 出现幻觉并不会阻碍 Anthropic 迈向 AGI 的目标。“这取决于你用什么标准衡量,但我怀疑 AI 模型的幻觉频率可能低于人类,只是它们出错的方式更出人意料。”
阿莫代伊一向是业界对 AGI 持最积极态度的声音之一。他说:“人们总想找出 AI 能力的‘上限’,但目前根本看不到这样的限制。”
不过,并非所有人都认同这种看法。谷歌 DeepMind CEO 哈萨比斯本周指出,当前的 AI 模型“漏洞百出”,连一些基本问题都回答错误。
也有迹象表明,在处理复杂推理任务时,一些新模型的幻觉反而更严重。比如 OpenAI 的 o3 和 o4-mini 版本幻觉率就比此前的推理模型更高,甚至连 OpenAI 自己也搞不清楚原因。
阿莫代伊还提到,人类本身也经常出错。因此,他认为 AI 出错并不说明它“不够聪明”。不过他也坦言,AI 以极高信心讲出错误信息,确实容易引发问题。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。