诺奖得主惊人预测:4年推出广义相对论,就是AGI!做完人类580亿年任务

2026-02-23 发布 · 浏览26次 · 点赞0次 · 收藏0次

【导读】诺奖得主Hassabis,刚刚给AGI一个新定义——爱因斯坦测试!能在4年内推导出1915年广义相对论的,才算真正的AGI。马斯克立即来反驳了:人类集体都没独立重现相对论,要是AI真能做到,那就不是AGI,而是「超神」了。但无可否认:AGI,真的超近了!

就在刚刚,诺奖得主、谷歌DeepMind掌门人Demis Hassabis重新定义了AGI。

2026年2月,在印度AI峰会上,Hassabis给AGI下了一个极其硬核的定义——

「爱因斯坦测试」:把AI的知识库卡死在1911年之前,看它能不能像爱因斯坦一样,独立推导出1915年的广义相对论。

能做到?恭喜,你就是AGI。

做不到?那你就还是个高级搜索引擎。


Hassabis这样说,是因为在1911年,爱因斯坦开始严肃思考引力与加速度的问题(提出等效原理深化版本)。1915年11月,他正式发表了广义相对论场方程。

从系统性构思到完整理论成型,大约4年时间。

显然,Hassabis的这个测试,不是在考AI的知识量,而是考它的原创科学发现能力——能不能在已知信息的边界上,跨出那一步「无中生有」的飞跃。

网友们纷纷表示,这才是第一个真正有意义的AGI定义。


Hassabis还补了一刀:

目前所有的AI系统,包括他自己家的Gemini,都是「参差不齐的智能」(jagged intelligence)——某些方面超强,另一些方面却一塌糊涂。


离真正的AGI,还差至少一两个关键突破。

甚至有人畅想:如果这个AI足够强大,或许发现的不仅仅是广义相对论,而是更先进的理论。


马斯克秒回怒怼

你这不是AGI,这是超级智能

消息一出,马斯克几乎是秒级回应。


他的看法是:「Hassabis定义的不是AGI,而是超级智能(superintelligence)。」

马斯克的逻辑很清晰——

爱因斯坦是人类有史以来最顶级的物理学家之一。全人类集体加在一起,也没有独立重现相对论的能力(毕竟是爱因斯坦一个人干的)。如果一个AI做到了,而且这个AI还能被无限复制、百万级别地并行运行……

那这玩意儿早就不是「人类水平」了,这是碾压全人类的存在。

马斯克的意思很明确:你把超级智能的门槛当成了AGI的及格线,这属于标准错位。


不管Hassabis和马斯克的争端究竟谁更有理,不可否认的是,圈内大佬一致预测——AGI,离我们很近了!

注意,Demis Hassabis最近缩短了自己的AGI时间线,在以前,他对于比较保守(5到10年)。

但现在,他的原话是:「现在,到了2026年,我们正处于另一个AGI即将到来的临界点——也许在未来五年内」。




OpenAI CEO奥特曼预计,AGI将在2028年实现。「如果你现在是大二学生,你毕业时就会进入一个有AGI的世界」。


在最近的一个活动上,奥特曼还这样说:「光看我们现有的技术在内部加速,我觉得已经很接近了。鉴于我现在预期的更快起飞,我认为超级智能并不遥远。」

他再次强调:我们可以期待,OpenAI在2028年底实现AGI/ASI。


即使是AGI「怀疑论者」Francois Chollet,也认为AGI能在2030年实现,还有四年。

微软CEO Suleyman则直接预测:距离「大多数甚至全部」白领岗位被AI取代,还有12到18个月。


那么,AGI到底应该如何定义?

回到原点:AGI这个词到底是谁发明的?

其实,「通用人工智能」(AGI,Artificial General Intelligence)这个概念的历史比很多人想的要短得多。

1950年,图灵提出著名的「图灵测试」。


如果一台机器能让人类在对话中分不清它是人还是机器,就算它有智能。

这是AI领域最早的标杆。

但图灵测试被后来的研究者广泛批评——它只测了「模仿能力」,没测真正的理解和创造。

1956年,达特茅斯会议正式开启AI这个学科。


当时的先驱们——麦卡锡、明斯基、西蒙——狂妄地预言:20年内机器就能做到人类智慧的任何事。

结果?等来的是两次「AI寒冬」。

1997年,一个叫Mark Gubrud的美国学者,第一次在学术讨论中使用了「Artificial General Intelligence」这个词。他当时讨论的是全自动化军事系统的未来。


2007年,Ben Goertzel在Shane Legg的建议下,出版了一本名为《Artificial General Intelligence》的书,把这个概念彻底推向主流。


从此,AGI成了AI领域最重要的概念锚点——它划出了一条线:一边是「能做特定任务的窄AI」,另一边是「像人类一样全面思考的通用AI」。

而「超级智能」(Superintelligence)这个概念,则由牛津大学哲学家Nick Bostrom在2014年的同名著作中系统定义:


在几乎所有人类关心的认知领域,都远超人类最强大脑的智能体。

Bostrom还细分了三种超级智能——

-速度型:跟人一样聪明,但快10万倍。

-质量型:不只是快,而是在思维深度上碾压人类。

-集体型:百万个AI协同工作,集体智慧远超人类文明总和。

马斯克怼哈萨比斯的逻辑恰恰就在这里:一个能独立推导相对论的AI,如果还能被百万级复制——那不就是Bostrom定义的「集体超级智能」吗?

那么,我们距离AGI到底还有多远?

15年后,AI能完成人类580亿年任务!

显然,每位大佬定义的AGI根本不是同一个东西。

马斯克的标准最低:能考试、能开车、能编程,就算AGI。本质上就是「全能AI助手」。

Sam Altman搞了个五级框架:从Level 1(会聊天的ChatGPT)到Level 5(能独立运营一家公司的AI)。目前他认为我们在Level 2和Level 3之间——AI已经能做初级推理,正在走向自主行动。

Yann LeCun最悲观(也可能最严谨):他认为当前的LLM架构存在根本缺陷——不理解因果、没有物理直觉、无法从真实世界经验中持续学习。要实现AGI,需要全新的「世界模型」范式,现有路线走不通。

而哈萨比斯的「爱因斯坦测试」恰恰戳中了一个最核心的问题:当前所有大模型的本质,都是模式匹配和信息重组。

像爱因斯坦一样,凭空提出一个全新并且可证明为正确的领先理论,目前没有任何现有AI能做到。

但无人可以否认,我们已经按下了加速键,并且再也回不去了。

最近,AI研究机构METR(Model Evaluation & Threat Research)发布评估称,前沿AI模型完成复杂长任务的能力呈指数级增长,大约每4个月任务长度翻倍。

这意味着AI不仅在答题准确率上进步,更在持续执行、复杂规划与跨步骤推理方面快速跃迁。


按这一趋势外推,华盛顿大学的研究员Yuchen Jin预测:到2041年,AI智能体理论上可完成一项人类需耗时580亿年的任务,远超宇宙当前约138亿年的年龄!


基于同样的逻辑,他提出了一个极具科幻感的观点:在15年内,AI 或许能通过「一次提示」(One-shot prompt)就生成一个像「新宇宙」级别复杂程度的结果。

他甚至开玩笑说,也许我们现在的宇宙就是这么被创造出来的。

奇点,真的近了

马斯克此前也在访谈中明确指出:我们正处于奇点中。

在他看来,我们会在2026年实现AGI。现在,我们正处于即将下去的过山车的顶端。根本不用攒钱退休,因为这个问题压根无关紧要。


奥特曼,也同样持这个观点。

或许有人认为他擅长炒作,但有一点他是对的:世界前沿的大公司内,一个普遍的共识就是,这个世界还没有做好准备。

AI模型已经变得越来越强大,而更多性能更强的模型,也即将推出。

起飞速度会比人们预期的快很多,这让人既紧张又焦虑。

这种翻倍增长的速度,已经远远超出人类历史上所见过的任何发展节奏。

无论我们愿不愿意,都正被不可逆转地拉向一个「机器之神」的时代。

除非发生卡林顿事件那样的全球性灾难,否则没有什么能够阻止这种指数级的扩张。


现在,眼看着这条曲线已经要起飞了,你,准备好了吗?


参考资料:

https://x.com/elonmusk/status/2025570252679967210

https://x.com/Tz_2022/status/2025314523788312602

https://x.com/chatgpt21/status/2024954923629318379

https://x.com/jawwwn_/status/2025103684774834482

诺奖得主惊人预测:4年推出广义相对论,就是AGI!做完人类580亿年任务 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。