AlphaEvolve交出一周年炸裂成绩单!AI自我改进不再科幻

浏览14次 点赞0次 收藏0次

【导读】AlphaEvolve一周年成绩单炸裂——改芯片、解数学、优化电网,Jeff Dean说「TPU大脑正在设计下一代TPU身体」——「AI造AI」不再是科幻设定,而是正在合拢的工程闭环。

AlphaEvolve转眼已经发布一年。

就在刚刚,谷歌低调地放出了一份炸裂的年度成绩单。

好家伙,AlphaEvolve这一年间居然干了这么多事——

帮陶哲轩解数学难题,给量子芯片重新画电路,优化电网调度,加速药物筛选,甚至直接改了下一代TPU的硅片设计。


这些都在说明:AlphaEvolve已经不是实验室里的玩具了。


这个由Gemini驱动的进化式编程智能体,用一年时间从论文里的概念验证,变成了谷歌核心基础设施的一部分。

正如有网友评论到的:这种递归自我改进真是太疯狂了!


和人类最顶尖的大脑

并肩作战

先从最让人瞪大眼睛的部分说起。

在基因组学领域,AlphaEvolve优化了谷歌的DeepConsensus模型,直接把DNA测序的变异检测错误率砍掉了30%。

PacBio的高级总监Aaron Wenger评价说,这意味着研究人员有可能发现此前隐藏的致病突变——也就是说,AI优化的算法,可能会帮人类找到新的救命线索。


在量子计算领域,AlphaEvolve给谷歌的Willow量子处理器设计了新的量子电路方案,错误率比传统优化方法低了整整10倍。

注意,不是10%,是10倍。这直接让一批此前跑不了的分子模拟实验变成了现实。


但真正让圈内人坐不住的,是数学。

AlphaEvolve和陶哲轩(Terence Tao)合作,攻克了Erdős提出的经典数学难题。


陶哲轩是谁不用多说——菲尔兹奖得主、UCLA数学教授、被公认为当世最聪明的数学家之一。

他的评价是这样的:AlphaEvolve这类工具正在给数学家提供「非常有用的新能力」,尤其是在优化问题上,它可以快速测试潜在的不等式是否存在反例、验证极值猜想,「极大地改善了我们对问题的直觉,也让我们更容易找到严格证明」。



一个AI系统,让一位数学史上排名前十的头脑由衷地说出「非常有用」——这本身就是一个历史性的信号。

除此之外,AlphaEvolve还刷新了旅行商问题(TSP)的已知最优解,改进了Ramsey数的下界纪录。

这些都是组合数学里的经典老难题,几代数学家啃了几十年,而一个AI编程智能体,用进化搜索的方式,找到了人类直觉从未抵达过的解。

工程战线:AI开始优化自己的「身体」

如果说科研突破还可以归为「聪明的工具」,AlphaEvolve在谷歌内部基础设施上干的事情,就已经不是「工具」两个字能概括的了。

最炸裂的一条:AlphaEvolve提出了一种「反直觉」的电路设计方案。

这个方案反直觉到什么程度?

谷歌的芯片工程师第一反应大概率是「这不对」——但跑完测试发现,它不仅对,而且比人类设计的更高效。

于是谷歌做了一个决定:把这个AI设计的电路直接集成进了下一代TPU的硅片里。

Jeff Dean,谷歌首席科学家,亲自背书了这件事。


他的原话是:「AlphaEvolve从我们AI技术栈最底层的硬件开始优化。它提出的电路设计如此反直觉却又如此高效,以至于被直接集成进了下一代TPU的硅片。这是TPU大脑帮助设计下一代TPU身体的最新案例。」


注意这句话的分量:TPU是训练Gemini的硬件,Gemini是驱动AlphaEvolve的大脑,而AlphaEvolve现在在设计下一代TPU。

商业战线:从实验室走进真金白银

通过Google Cloud,AlphaEvolve已经在多个行业落地。

金融科技公司Klarna用它优化了最大的transformer模型,训练速度直接翻倍,同时模型质量还提升了。物流公司FM Logistic用它优化旅行商问题的路线规划,效率提升10.4%,每年少跑15000公里。计算化学公司Schrödinger用它加速分子力场的训练和推理,速度提升约4倍——药物研发的筛选周期从几个月压缩到几天。


一年前AlphaEvolve发布时,圈内最大的疑问是:这到底是一个惊艳的demo,还是一个真正能用的系统?

一年后的成绩单回答了这个问题:它不仅能用,而且已经深入到了谷歌最核心的基础设施里,从芯片硅片到数据库内核,从量子计算到商业客户的生产环境。

但AlphaEvolve最关键的战绩,其实不在上面任何一条。

让我们把Jeff Dean那句话再读一遍:「TPU大脑正在设计下一代TPU身体。」

翻译成更直白的语言就是:训练AI的芯片,正在被AI自己重新设计。

新芯片造出来之后,会训练出更强的AI,更强的AI会设计出更好的芯片——这是一个闭环。

AI造AI:递归自我改进

就在AlphaEvolve交出成绩单的同一天,IEEE Spectrum——全球工程技术领域最权威的媒体之一——刊发了一篇长文:Recursive Self-Improvement Edges Closer InAILabs(递归自我改进正在AI实验室中逼近现实)。


递归自我改进(RSI)这个词,过去十年基本只出现在两个场景:AI安全研究者的警告报告里,和科幻小说里。

IEEE Spectrum用一整篇特稿把它从这两个场景拽了出来,放到了工程现实的桌面上。

而让这篇报道真正炸开的,是Anthropic联合创始人Jack Clark同期给出的预测:到2028年底,有60%以上的概率,出现一个AI系统可以完全自主地训练出自己的下一代。


他在自己的newsletter Import AI 第455期中写道,他花了数周时间阅读了数百份公开数据源,最终得出这个结论。


他承认自己「不确定社会是否准备好了」。

这不是一个推特上的随口一说。Clark是Anthropic的联合创始人,也是AI安全和政策领域最有影响力的公共知识分子之一。

当这样一个人松口承认「早期信号已经出现」的时候,本身就是信号。

如今,三条线索已经摆在桌面上。

Anthropic承认Claude Code写下了公司大部分代码,Dario Amodei公开说工程师效率提升了20%-40%。

换句话说,造Claude的代码,很大一部分是Claude自己写的。

谷歌这边,AlphaEvolve在设计训练自己的芯片。

再看学术界,2026年3月发表在Nature上的AI Scientist系统,已经能自主跑完「提想法—做实验—写论文—同行评审」的全流程。


当AI可以参与改进下一代AI时,一家公司的护城河就不再是模型参数量、数据规模或者算力储备——而是自演化的速度

当然,IEEE Spectrum的报道也呈现了另一面的声音。

Allen Institute for AI的Nathan Lambert提出了「有损自我改进」(Lossy Self-Improvement)的概念——随着AI系统变得越来越复杂,自我改进的飞轮可能因为摩擦增大而减速,而不是无限加速。

Meta的研究者Jason Weston和Jakob Foerster则主张,比起纯粹的自我改进,「人机共同改进」才是更现实、也更安全的路线。



不过话说回来,当AI在反向设计自己跑着的芯片,陶哲轩这种级别的数学家已经把它当研究搭档,Claude写了Anthropic大部分代码时——

你说AI自我提升这扇门有没有被推开?

其实早就推开了。

现在,唯一值得关心的问题只剩下ASI多久能够到来。

参考资料:

https://deepmind.google/blog/alphaevolve-impact/

https://spectrum.ieee.org/recursive-self-improvement

https://www.anthropic.com/product/claude-code

https://arxiv.org/abs/2506.13131

https://www.nature.com/articles/s41586-026-10265-5

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里查看更多信息!本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它往往能得到较好的回响。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。
最新资讯