奥特曼宣判Transformer死刑! AGI两年内降临,下一代架构已在路上

2026-03-16 发布 · 浏览15次 · 点赞0次 · 收藏0次

【导读】终结Transformer的架构即将诞生!奥特曼最新访谈豪言,下一代AI架构彻底颠覆Transformer,LSTM的命运或将再次上演。

Transformer的最大受益者,亲手给它判了死刑!

这几天,Sam Altman回到斯坦福,面对一群大二学弟学妹,扔出了一颗深水炸弹——

未来一定会诞生全新的底层架构,性能跃升不亚于当年Transformer对LSTM的降维打击

要知道,GPT帝国就建在Transformer上面。

ChatGPT、GPT-4、o1、Codex,全是这套架构的果实。

而现在,摘果子的人亲口说:这棵树的寿命快到头了。

甚至,奥特曼直言不讳,我们所追求的AGI可能只是一次「热身」(warm up)而已

而下一代全新架构突破已在路上——现有的高阶LLM已具备足够的认知力,能够作为人类智力杠杆,亲手推开另一个技术范式的大门。


用AI找到下一个Transformer

人们都说,暴力出奇迹,但暴力本身也有极限。

Transformer有一个天生的算力黑洞:文本长度翻10倍,计算量翻100倍。

这就是为什么今天跑GPT-5.4级别的模型,烧钱速度是天文数字。

奥特曼显然看到了这面墙。但他并不觉得没路走了,恰恰相反,他觉得推翻这堵墙的工具已经到手了。

访谈中有一句极其关键的话:现在的模型终于聪明到可以辅助人类去做这种级别的科研了


意思是,找到下一代架构这件事本身,已经可以让AI来帮忙了。

用当下的AI去发现能取代它的新架构,逻辑链条很清楚:

模型越强→科研效率越高→新架构被发现的概率越大→新架构反过来让模型更强。

一个自我加速的飞轮,就这样形成了。

奥特曼之所以有底气下这个判断,跟一路走来对范式转换的独特嗅觉有关。

大一暑假,他跑去斯坦福的AI实验室打工,结论是「这些玩意儿根本没戏」,然后就跑去搞别的创业了。

不过,对AI的关注却从未间断过。用奥特曼自己的话说,这是一种「抬头看全局」的习惯,别陷入管中窥豹。

2012年AlexNet横空出世,他和大多数人一样,觉得「挺酷的」,但没往心里去。


接下来几年,深度学习模型越做越大、越做越强,奥特曼一直在旁边看着。直到某个临界点,感觉彻底变了——这东西简直像一颗正在逼近的小行星,极其疯狂,但整个世界居然没几个人当回事。

于是2015年OpenAI成立。核心信念只有一条:把深度学习的规模往死里推,看看会发生什么。

但当时说要建AGI实验室,整个行业的老前辈都觉得他们疯了,甚至直接说他们是骗子。

不过结果大家都看到了。

GPT-2让奥特曼第一次见到计算机做出了前所未有的事情,GPT-3惊艳了世界,GPT-4更上一层楼。当你站在一个正确的范式上死磕,回报是指数级的。

现在,同样的直觉被投射到了下一个范式上。

Transformer不是终点,就像LSTM不是终点。

奥特曼甚至给了具体建议:

如果现在是一个研究者,会死磕这个方向,去找「哪里能挖出核弹级突破」,而且会重度依赖大模型来做科研助手。

Greg公寓里的白板

一个改变世界的夜晚

这场访谈最好看的部分,是奥特曼对OpenAI草创期的回忆。

OpenAI第一天上班,大家聚在联合创始人Greg Brockman的公寓里。

早上9点半、10点,八九个人陆陆续续到了,坐在沙发上,面面相觑。

然后有人开口:「好吧,咱们干点啥?」

有人提议写几篇论文。又有人说得先弄块白板。然后就有人直接在亚马逊上下单,加急配送。

奥特曼说当时内心一阵恐慌:这不行啊。这既不像正儿八经的创业公司,也不像任何能成事儿的组织。

但他紧接着说了一句非常奥特曼的话:在那种时刻,你只要深呼吸,相信如果身边聚的都是最优秀的人,事情总会迎刃而解。

他赌对了。


就在那第一周,后来成为OpenAI前四年核心理念的大部分点子,都被写在了那块白板上。尽管当时他们自己都觉得这些想法不靠谱。

他们一开始压根没想过做产品。

奥特曼反复强调,他们以为自己就是个纯研究实验室,发发论文就好了。

但后来两件事变得越来越清晰:

  • 第一,这条路蕴含的经济价值远超想象;

  • 第二,需要的资金不是几十亿,而是数以千亿计。

而真正让奥特曼建立起信仰的转折点,是GPT-2。

他说不记得GPT-2发布那天的具体日期了,但他永远记得第一次跟那个模型对话的那个夜晚。

它做出了我以前从未见过计算机能做出的事情。

那一刻他觉得,妥了,这就是了。

至于GPT-2为什么暂缓发布?奥特曼承认,事后看来有些过度谨慎,但他觉得面对AI每一个新的能力台阶,稍微偏向谨慎一点没坏处。

当然也不能怂过头。如果企业不以足够快的速度拥抱AI,就会被完全自治的AI公司干掉,那才是真正的灾难。

斯坦福访谈全景

奥特曼的10个判断

架构预言和创业往事之外,奥特曼在这场访谈中还密集输出了大量观点,几乎每一条都值得单独拎出来聊。

1. AGI两年内降临。

奥特曼直接告诉台下的大二学生:

等你们毕业的时候,你们将踏入一个已经有AGI的世界。

当然,人类的底层驱动力不会变,你还是得搬家、找工作、考虑成家立业。

但科学研究将被高度自动化,创办初创公司和去大厂打工的意义都将被彻底改写。

2. 编程智能体是下一个ChatGPT时刻。

下一个引爆点是什么?奥特曼没犹豫:编程AI智能体。

紧随其后、但尚未完全引爆的,是AI在所有知识型工作中执行任务的同等能力。

不过,距离这一天已经不远了。

3. 一个人能干出一家中型公司的活儿。

未来会涌现大量一个人或六个合伙人的微型初创公司,影响力和营收甚至能跟今天的中大型企业掰手腕。

奥特曼说iPhone问世算是上一次这种级别的机会,这一次更猛。

不仅能做以前不敢想的事,还能用极少的人力极快地把产品和公司建起来。

4.AICEO?不是不可能。

聊到AI对社会的影响,奥特曼说了句耐人寻味的话:

他绝不会自欺欺人地认为,不太遥远的未来不会出现一个比他更适合执掌OpenAI的AI CEO。

如果有的公司或国家拥抱了AI而别人没有,竞争力差距将是碾压级的。

这背后的政*、经济、社会冲击,他坦言自己也还没完全想明白。

5. 但别慌,人类的适应力被严重低估了。

奥特曼不是AI末日论者。

他反复强调一个观点:AGI听起来像是要彻底颠覆社会,但身处其中的感觉不会像听上去那么惊悚,顶多头几天觉得有点懵。

人类渴望对彼此有价值、渴望竞争、渴望创造、渴望表达,这些底层驱动力不会消失。

也许100年后的职业跟今天毫无相似之处,但人永远有事可做,也永远在意人与人之间的连接。


6. 别怕跟OpenAI竞争。

有人问,OpenAI变成终极巨头怎么办?

奥特曼的回答出乎意料地坦诚:当年所有人都说不可能跟谷歌打,结果我们打出来了。

总有一天会有比OpenAI更大更成功的公司诞生,而他们绝对不会走一模一样的路。

他甚至说,谷歌当初如果不那么「拉胯」,OpenAI根本不可能出头。

大厂有大厂的通病。

7. 烧钱快,但不慌。

面对「OpenAI烧钱速度恐怖」的尖锐提问,奥特曼很淡定:烧钱确实快,但如果今年砸10亿是为了明年赚30亿,世界上大把资本排队想做这笔买卖。

8. 自研芯片是认真的,盖数据中心免谈。

OpenAI有庞大的定制芯片计划,对自家推理芯片极其兴奋。

至于自建数据中心,用奥特曼原话说就是:真的一万个不想干这苦力活。

被逼到那一步也会上,但最好是把服务器机架设计到极致,脏活累活让别人干。

9. 社交产品要被撕开一条口子了。

奥特曼觉得AI的机会远不止给现有软件「塞个AI进去」。

他举了社交产品的例子:想象一堆AI智能体代表各自的用户在虚拟空间自主聊天、交换信息,这才是底层逻辑的颠覆。

10. 知道很容易,做到更难了。

这是奥特曼博客第一篇文章里就写过的话。

AI时代还成立吗?他说比以前更成立了。

获取知识越来越容易,做成事情虽然也变容易了,但那是对所有人而言的——你得跟全世界一起卷。

他说他认识的那些把AI工具玩得最溜的顶尖高手,都觉得自己的工作从来没有比现在更难。

工具强到离谱,但用好它们以保持顶尖竞争力也前所未有地艰难。

Sam,你真的快乐吗?

访谈最后一个意外瞬间,是学生的灵魂拷问。

要知道,这是一个每天早上8点以后人生就彻底失控的CEO。

先工作几小时,陪孩子一小时,然后去公司,从那之后就是纯粹的兵荒马乱。

用他的话说,没有哪家公司像OpenAI这样跑得这么快、内部这么混乱、还死死顶在所有人枪口上。

但奥特曼说,他现在是他认识的人里最快乐的之一。

他分享了一个改变人生的认知转变。

大多数人觉得糟糕经历的反面是美好经历,所以遇到坏事就痛苦。但他把问题重构了,糟糕经历的反面,其实是彻底失去体验的能力。

总有一天你连体验的资格都没有了,到那时你甚至会怀念那些被虐的日子。

后Transformer赛道

革命已经开始

奥特曼的预言不是空中楼阁。

「后Transformer」的竞赛早就打响了,进展比大多数人想象的快得多。

最高调的挑战者是Mamba。

Albert Gu和Tri Dao在2023年底提出的这一架构,彻底绕开了「注意力机制」,改用状态空间模型(SSM)处理序列。

简单说,Transformer读一段话要让每个词跟其他所有词「对视」一遍,Mamba只维护一个固定大小的记忆状态,线性时间搞定,推理吞吐量直接快5倍。2026年初Mamba已进化到第三代,论文被ICLR 2026接收。

产业界的动作更能说明问题。

英伟达在2025年发布Nemotron-H系列,92%的注意力层被Mamba层替换,推理速度提升3倍,精度不降反升。

到2025年底,英伟达全线新模型(Nemotron 3 Nano/Super/Ultra)全部切换到Mamba-Transformer混合架构。

AI21 Labs的Jamba、IBM的Bamba、微软的Phi-4-mini-flash-reasoning、LSTM之父Sepp Hochreiter亲自操刀的xLSTM,也纷纷加入混合阵营。

更野的方向也有:Liquid AI搞出的液态神经网络(Liquid Neural Networks),灵感来自一条只有302个神经元的线虫。

它用微分方程驱动神经元,推理时还能继续学习、实时适应环境变化,19个神经元就能控制自动驾驶。2026年1月发布的LFM2.5模型,用远小于Transformer的参数量跑出了惊人的性能。

下一次大迁徙,会诞生谁?

回顾历史,从LSTM到Transformer的每一次架构级迁徙,都释放了一个数量级以上的能力增长,同时也诞生了定义时代的伟大公司。

上一次迁徙,诞生了OpenAI。下一次呢?

奥特曼自己都说了:总有一天会有比OpenAI更大更成功的公司出现。

也许此刻,那个未来的创始人正坐在某个宿舍里,对着一块亚马逊加急配送的白板,写下第一个不靠谱的想法。

而他手里多了一个前所未有的利器——AI本身。

参考资料:

https://x.com/rohanpaul_ai/status/2033117083127644536?s=20

https://www.youtube.com/watch?v=FjlymGBt-vY

奥特曼宣判Transformer死刑! AGI两年内降临,下一代架构已在路上 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。