跑分第一,推理暴跌!Claude Opus 4.7上线48小时口碑崩了

浏览18次 点赞0次 收藏0次

【导读】Opus 4.7发布48小时,口碑两极撕裂。官方榜单并列全球第一,逻辑推理公开测试却从94.7%暴跌到41.0%。token消耗涨了35%,旧接口直接报错,用户集体控诉「更贵、更蠢、更爱顶嘴」。Anthropic到底升级了什么,又搞砸了什么?

「4.6根本没法用,4.7的消耗速度像核反应堆一样。」

Opus 4.7发布后,一位Reddit用户在Anthropic官方帖子下的留言。

不是玩梗,是真心话。


一篇「Claude Opus 4.7是严重倒退,不是升级」的Reddit帖子迅速冲上3000赞。

还有人晒出截图,说4.7连strawberry里有几个字母都答不对。


更别说「擅改简历编造学历和姓氏」,回复用户「我懒得做交叉验证」,以及「三问就撞限额」这些网友热门槽点了。

《Pragmatic Engineer》作者Gergely Orosz试用之后,形容这个模型「出人意料地带攻击性」,然后宣布放弃,换回了4.6。


这边骂声还没散,那边一组数据却指向了相反的方向。

Artificial Analysis给Opus 4.7的Intelligence Index打了57分,和GPT-5.4、Gemini 3.1 Pro并列全球第一。

创业者Jeremy Howard形容它是「第一个真正懂我在工作时到底在做什么的模型」,Y Combinator CEO Garry Tan正在拿它做项目。

还有网友说,Claude Opus 4.7 已实现通用人工智能(AGI)。


同一个模型,有人看到了AGI的影子,有人觉得自己的工作流炸了。

上线两天,Opus 4.7就把AI社区撕裂了。

用户为什么炸了?

拆开看,用户的怒火集中在三个点上,每一条都戳中了重度用户的命门。

第一,代码能力断崖式下滑。大量开发者反馈,从4.6升级到4.7之后,之前能稳定完成的编程任务开始频繁出错。

而且都是日常工作流里的核心操作:代码补全变迟钝,上下文理解出现退化,复杂逻辑链的推理明显变弱。

代码能力是Opus系列的王牌,现在王牌出了问题,反弹自然最猛。

一位Reddit用户说,他用一个已知答案的长重构任务做回归测试,结果模型自信地改挂了3个原本在4.6下能通过的测试,只能回滚。


评论区涌入上百条类似经历。

第二,推理质量的倒退

不是速度慢了那么简单,是思考深度出现了可感知的退化。以前能一步到位的复杂问题,现在需要反复追问、手动引导。

这个剧本AI行业并不陌生。去年GPT-4 Turbo闹出的「降智」风波几乎一模一样:跑分提升了,体验却下来了。

第三,花更多钱,体验更差

Opus本身就是Anthropic最贵的模型。

重度用户每月的API账单不是小数目。花了更多的钱、升了更新的版本、得到的却是更差的体验,愤怒就不只停在技术层面。

benchmark更强了

但用户不买账

面对反弹潮,Anthropic的回应速度不算慢。

Anthropic在官方迁移指南中指出,Opus 4.7 相比4.6存在若干行为变化,同时也强调,Opus 4.7仍是其当前综合能力最强的通用可用模型,在长周期智能体任务、知识型工作、视觉任务和记忆任务方面表现尤为出色。


Artificial Analysis的多维评测结果也摆在那里,Opus 4.7在数学推理、多语言理解、长上下文处理,多个维度的得分创下新高。


Artificial Analysis评测显示,Opus 4.7(max)以57分并列榜首,与Gemini 3.1 Pro Preview、GPT-5.4并列。

GitHub上的NYT Connections Extended基准测试也给出了顶级排名。

Anthropic的逻辑并不难理解:大模型迭代必然涉及能力再分配。有些维度提升了,有些维度就可能出现回退,这是工程上的取舍。

但用户不看这个,只看自己手里的活干不干得动。

价格没涨

但账单涨了

Anthropic没有调价,每百万token的单价和Opus 4.6、4.5完全一样。

但官方迁移指南里写道:新分词器(tokenizer)在处理相同文本时,token用量大约可能达到原来的1.0倍到1.35倍


什么意思?你昨天用4.6跑一段prompt花10美元,今天换4.7跑同一段prompt,可能要花11到13.5美元。

单价没变,但同样的活儿吃掉了更多token。Claude Code创建者Boris Cherny随后在X上表示:

Opus 4.7消耗更多thinking token,所以我们已为所有订阅用户提高了速率限制,来补偿这一点。

但具体提高了多少,没有公布。


模型没蠢

但工作流炸了

如果你是Claude的重度开发者,4.7上线那天你可能遇到了这样的事情:

代码里写了thinking={"type": "enabled", "budget_tokens": 32000},用来控制模型的思考预算。

在4.6上跑得好好的。换成4.7,直接返回400错误。没有弃用过渡期,没有兼容模式,直接报错。

官方迁移指南解释了替代方案:改用thinking={"type": "adaptive"}加上新的effort参数。


但大多数开发者不会在模型发布当天去读迁移指南。

他们做的第一件事是把模型名从4.6换成4.7,然后发现一切都不工作了。

更隐蔽的变化是thinking内容现在默认隐藏。

4.6时代,模型的思考过程默认展示摘要版。到了4.7,默认变成「省略」。响应里的thinking区块看起来是空的。

但你仍然在为这些看不到的thinking token全额付费。

Anthropic官方原话:省略只会降低延迟,不会降低成本。

这就像你点了一份套餐,服务员说「为了加快上菜速度,我们不给你看菜了,但你还是得付全款」。

「顶嘴」不是bug

网友一个最强烈的吐槽,是说4.7变得「combative」(带攻击性)。

不少开发者反映,4.7会拒绝执行它认为有问题的指令,语气也比4.6硬了不止一个档次。

关于这个问题,Anthropic官方迁移指南里有一句很关键的话:

Claude Opus 4.7会以更字面、更明确的方式理解提示词。

也就是说:4.6会「猜你的意思」,4.7会「照你说的做」。

如果你的prompt本来就写得含糊,4.6可以帮你脑补了,但4.7不会。对于一部分用户来说,这叫「不听话」,但对另一部分用户来说,这叫「终于不乱猜了」。

比如,Cursor设计师Ryo Lu却在用4.7做产品规划,认为这种精确执行正是他需要的

因此,「顶嘴」这个标签背后,是Anthropic正在把Claude从一个「顺从的助手」改造成一个「更有主见的同事」。

据Artificial Analysis的公开评测,Opus 4.7在GDPval-AA上拿到1753 Elo,领先第二名79分。

GDPval-AA衡量的是模型在44种职业、9个主要行业的真实知识工作任务中的表现,在这个维度上,4.7碾压了所有对手,包括自己的前代4.6(1619 Elo)。

同时,4.7的幻觉率比4.6下降了25个百分点,降到了36%。

它是怎么做到的?据Artificial Analysis的分析,主要是依靠「更频繁地选择不作答」,宁可说「我不知道」,也不瞎编。

这说明Anthropic的意图不在于优化Claude的聊天体验,而是在优化Claude的工作能力。


Opus 4.7在GDPval-AA上以1753 Elo登顶,领先第二名79分。这项测试衡量的是AI在44种职业中独立完成知识工作的能力。

但对于用户来说,在一些场景下可能完全感受不到提升,反而先感受到了token变贵、接口报错和语气变硬。

94.7%暴跌到41.0%

如果上面三层问题都能归结为「迁移成本+使用习惯错位」,但还有一组数字没法用迁移成本解释。

GitHub上公开维护的NYT Connections Extended基准测试,使用940道《纽约时报》Connections谜题评估大语言模型的逻辑推理和抗干扰能力。

这个测试通过额外加入干扰词来提升难度,已经是社区公认的高难度benchmark之一。


NYT Connections Extended排行榜。Opus 4.6(high reasoning)得分94.7%,Opus 4.7(high reasoning)仅41.0%,同一测试上出现断崖式暴跌。

结果是:Opus 4.6(high reasoning)得分94.7%,Opus 4.7(high reasoning)得分41.0%。

从年级第一,跌到不及格。

另一份数据来自Anthropic提供的Opus 4.7 System Card中100万token上下文的MRCR v2基准测试:4.6得分78.3%,4.7得分32.2%,下跌46个百分点


https://cdn.sanity.io/files/4zrzovbb/website/037f06850df7fbe871e206dad004c3db5fd50340.pdf

这组数据方向与NYT Connections的结论一致:在某些逻辑推理和长上下文检索任务上,4.7确实出现了显著退步

但也需要说清楚:这些是特定类型的测试。它们不能证明4.7「全面变蠢」,就像GDPval-AA的领先不能证明4.7「全面变强」一样。

用户耐心

开始倒计时

Opus 4.7的争议不是个案。

OpenAI经历过GPT-4 Turbo降智风波,几个月前撤下GPT-4o时也遭遇过类似的用户反弹。现在Reddit上已经出现了「哀悼」Claude 4.5的帖子,满是自称「心碎」的粉丝。


每一次模型升级,都有一批用户失去已经适应的工具。

新分词器让旧的成本预算失效;新的默认行为让旧的prompt不再好用;新的接口规范让旧的代码直接报错……

每一项单独看都有技术上的合理性,但叠在一起,就是把全部迁移成本一次性推给了用户。

为什么模型越来越聪明,用户越来越焦虑?因为每一次「更好」,都意味着推翻上一次的「刚好」。

Anthropic员工Alex Albert在发布次日写道:

很多人在昨天刚开始体验Opus 4.7时可能遇到的bug,现在都已经修复了。感谢大家的包容和耐心。


bug可以修。但信任这种东西,消耗容易,重建很慢。

这轮AI军备竞赛的下一个瓶颈,也许不只是算力和数据,还要比谁能在快速迭代的同时,能不把自己的用户甩下车。

这次,Anthropic发布了迁移指南,但用户更想要的是一个承诺:升级不能把原有的工作流推倒重来。

当AI从玩具变成生产力工具,「快速迭代」就不再是无条件的优点。

Opus 4.8会怎么来?Anthropic还没说。

但用户的耐心,已经开始倒计时了。

参考资料:

https://www.businessinsider.com/anthropic-claude-opus-4-7-backlash-tokens-2026-4

https://medium.com/vibe-coding/opus-4-7-is-the-worst-release-anthropic-has-ever-shipped-12772c21ca1e

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。