前OpenAI灵魂人物Jason Wei最新演讲!三大思路揭示2025年AI终极走向
【导读】在AI加持下的这一年人类突飞猛进,停下来回头看去,似乎AI已经无所不能,但前OpenAI灵魂研究员认为AI不可能瞬间超越人类,他还提出了三个关于AI的最新洞见。
用三句话总结下2025年AI的发展,你会想到什么?
所有能被验证的任务,最终都会被AI解决
智能最后会变成商品,知识价格归零
AI不会瞬间超过人类
最近,前OpenAI核心研究员、CoT(思维链)作者Jason Wei在斯坦福大学AI Club做了一场精彩的演讲。

这是他跳槽到Meta后少有的公开分享。
我们的世界,在AI大行其道的这一年,到底发生了什么?
AI继续发展下去是什么样子的?

量化交易员说AI很酷,但并不能做我的工作;
顶级实验室AI研究院:2-3年后,AI就要取代我的工作了。
那么,谁对谁错?
智能的商品化
Jason Wei的原话是Intelligence as a Commodity。
AI的智能发展可以分为两个阶段:
第一阶段:前沿突破,当AI还无法很好地完成某任务时,研究的重点是「解锁新能力」。
第二阶段:能力商品化,一旦AI能完成该任务,该能力就会被快速复制、成本趋近于零。
例如在MMLU(多任务语言理解基准)上,过去几年模型性能稳步提升,而达到特定分数的成本却逐年下降。

「自适应算力」的出现
AI的出现,也是首次深度学习真正实现自适应计算(AdaptiveCompute)。
过去无论任务简单还是困难,模型都消耗相同的算力。

现在可以根据任务难度动态调整推理算力。
例如在o1模型中,推理时投入更多计算,就能在数学题上获得更高准确率。
这意味着:智能的成本可以持续下降,而无需无限扩大模型规模。
同时,信息获取越来越容易。 AI正在让「公开知识」的获取时间趋近于零。

Jason以「查找1983年釜山结婚人数」为例:
互联网时代前:去图书馆查百科,数小时
互联网时代:搜索网站、筛选资料,数分钟
聊天机器人时代:直接问AI ,即时
智能体(Agent)时代:自动查找并整合数据库,数秒到数分钟
总结一下,Jason Wei认为智能作为一种「商品」,将越来越便宜
知识民主化:编程、生物黑客等曾需高门槛知识的领域被大众化。
私有信息的相对升值:公开信息成本趋零,内幕或独家信息的价值反而更高。
个性化互联网:未来每个人可能拥有一套完全定制的知识入口。
验证者法则
什么是验证者法则?
所有能被验证的任务,最终都会被AI解决。
所以现在会出现各种各样的评测基准。
只要能建立「能够被验证的任务」,AI都会攻破这个领域。
很明显的一点是,越容易生成的任务,越难被验证。
这就是验证的非对称性。
比如数独和造一个网站,都属于中等难度和高难度的任务。
但是要验证一个数独题目的正确性,和验证一个网站是否开发的不错,很简单!
许多任务存在「生成难,验证易」的不对称:

解数独:难求解,易验证。
写出网站的全部代码:极难生成,但验证只需点击浏览。
写事实性文章:容易生成「似是而非」的文本,但事实核查极其耗时。
提出饮食法:容易断言「只吃野牛最好」,但验证需长期实验。
我们可将任务放在二维平面上:X轴,生成难度;Y轴,验证难度。

某些任务可以通过提供额外信息使其更易验证:
例如提供答案或测试集,使「生成→验证」更高效。
AI能否学会一项任务,与该任务的可验证性成正比。
即:任何可验证、可量化的任务,AI终将掌握。
比如下面这种图,在过去5年中,大部分AI基准评测都非常容易被「验证」。

Jason Wei给出了可验证性的五个因素:
是否存在客观真值;
验证速度是否快;
能否批量验证大量样本;
结果是否低噪声、稳定;
是否有连续反馈(不仅是「对/错」,还有质量梯度)。
几乎所有AI基准(benchmarks)都具备这些特征,因此被迅速攻克。
Jason Wei重点描述一个案例:DeepMind的AlphaEvolve。

该系统通过大规模采样与自我验证,解决了大量「易验证难求解」的任务。

核心流程是:
用语言模型生成候选答案;
自动打分(验证);
取最优样本再输入模型,形成迭代;
反复迭代后性能显著提升。

这种策略绕过了「训练集-测试集」的泛化问题,只针对「单个任务」持续优化。
总结一下:
可轻易验证的任务将率先被AI自动化。
新的创业机会:为AI创造「可测量的目标」。
即——只要你能定义一个明确的度量指标,AI就能为你优化它。
智能的锯齿边缘
这个关键点英文叫做The Jagged Edge of Intelligence,智能的锯齿边缘。
直接翻译有点抽象,但是如果看下图就很好理解了。
简单来说,就是AI的智能并不是「全知全能」,AI的智能水平就像锯齿一样,有高有低。

AI为什么不会「瞬间超越人类」
Jason认为不会出现「AI快速爆炸式超越人类」的「Fast Take off」。
AI的自我改进能力将是渐进的、分任务发展的。
不同任务的学习速度和上限各不相同,不会「一夜超神」。
每个任务的改进速率不同:
一些任务进步快(如可验证的数学、编程)。
一些任务改进慢(如需要真实世界交互或罕见数据的语言)。
AI的发展呈「锯齿形」曲线:某些领域突飞猛进,某些长期停滞。
那么AI在哪些任务上发展快,哪些发展的慢?
判断任务进展速度的三条启发式法则:
数字化任务发展快:迭代速度高、实验成本低;例如软件开发远快于机器人制造。
对人类简单的任务,对AI也简单:但AI也能在某些「人类极难但有明确目标」的领域超越人类,如癌症影像预测。
数据越多,AI越强:语言模型在高频语言上性能显著优于低资源语言,若任务能提供单一客观指标,还可用强化学习生成合成数据。
比如AI代码,现在基本已经被AI攻克,竞赛数学也被攻克了。
但是如果数据量很小,无法数字化的领域,AI就很难攻克。

总结一下:
不存在统一的「AI超级智能爆发」;
各任务将以不同速率演进;
影响最大的领域是:数字化、人类已擅长、数据丰富的领域
Jason Wei在演讲最后总结道:
智能与知识将变得快速且廉价,公共知识的获取时间趋零。
而「验证者法则」则预示着可度量性推动AI进步,任何可验证的任务都会被AI征服。
智能的边界是锯齿状的。各任务发展速率不同,不会出现瞬间的超智能崛起。
未来的信息将无摩擦地流动,而AI的边界,将由我们能定义和验证的事物所决定。
演讲嘉宾介绍

Jason Wei,目前是Meta Superintelligence Labs的研究科学家。
他曾在OpenAI工作两年,参与创建了o1模型和DeepResearch项目;
在那之前,他是Google Brain的研究员,推动了Chain-of-Thought推理、InstructionTuning(指令微调)等技术的发展。
他的论文被引用超过9万次,是现代AI领域最具影响力的研究者之一。
参考资料:
https://www.youtube.com/watch?v=b6Doq2fz81U
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社