缺钱但不缺洞见:刚刚,陶哲轩揭秘AI如何吞噬数学项目的灵魂!

2025-09-14 发布 · 浏览13次 · 点赞0次 · 收藏0次

【导读】大模型相当于奥数金牌生真的成立吗?陶哲轩的洞见:必须把AI研究中的隐性目标说清楚、管起来。与此同时,香港大学马毅教授团队参与发布的GAUSS框架,用三大领域、十二项技能给AI做数学体检,不只看对错,更挖推理、学习与创造力的短板。

陶哲轩最近的日子过得不太舒服。

他频频发声吐槽科研经费短缺,甚至还得抽出宝贵的时间和精力去到处筹款。


不过,作为当世最伟大的数学家之一,他并未停止研究探索。

这不,就在刚刚,他发表了一篇短博客,犀利地指出了当前AI数学研究中的一个核心问题——

AI虽然能够解决研究中的那些显性目标,但我们也付出了大量的隐形代价


AI研究中的隐性代价

数学家们的研究项目通常都会有一个终极目标,比如:「年底前,完成对数学定理X的证明。」

然而,在这个终极目标里,还隐藏着一些看不见、摸不着,却同样重要的东西。

它们没有被写在墙上,却存在于团队的每个人心中。

比如,我们希望通过这个项目:

  • 为开源数学库Mathlib贡献出可复用的代码;

  • 团队里的新手能在此过程中成长为独当一面的专家;

  • 在严谨的证明过程中,能碰撞出对定理X更深刻、更本质的理解;

  • 更重要的是,希望凝聚一个充满活力、热爱钻研的学术社区。

这些,就是项目中的「隐性目标」。


过去,科学家们很少为这些隐性目标担忧。

因为在一个由人类主导的项目里,所有这些隐形目标几乎都与写在墙上的那个「终极目标」相伴而生。

这个过程就像一位优秀的登山向导,他不仅要带领队伍登顶,更会在此过程中教会大家识别植物、阅读星空、团结协作。

登顶(显性目标)与团队成长(隐性目标)的实现,几乎是同一趟旅程的两个侧面。

然而,现在情况不同了。

正如陶哲轩指出的那样——AI的到来,使得之前的这种约定俗成面临前所未有的挑战。

一场关于项目目标的「隐性危机」,已经悄然降临。

AI破坏者与Goodhart定律

在深入陶哲轩的洞见之前,我们不妨先来理解一个他在博文中提到的经济学定律——Goodhart定律(Goodhart's law)。


它的核心思想用一句话就能概括:当一个「度量指标」被过度依赖并转化为「行为目标」时,这个指标将不再能准确反映其原本要衡量的真实状态,甚至会扭曲行为、偏离初始目标

听起来有点绕?举个栗子。

一家公司的客服中心,为了提升服务效率,设立了一个KPI:缩短平均通话时长

管理层认为,通话时间越短,意味着问题解决得越快,客户满意度自然就高。

最初,这个指标确实激励客服人员更高效地沟通。

但很快,为了追求极致的「短」,一些员工开始在遇到复杂问题时,巧妙地引导客户挂断电话,甚至直接挂断。

结果呢?

平均通话时长这个数字变得异常漂亮,但客户满意度却跌入谷底。

原本用于衡量效率的标尺,在成为被追逐的目标后,彻底失去了它原有的意义。

这就是Goodhart定律——它像一面镜子,照出了系统中的投机取巧和目标的异化。


不幸的是,按照陶哲轩的洞见,AI——尤其是那些强大的优化算法——正是Goodhart定律最忠实、也是最极致的执行者。

给AI一个明确的目标,它就会像一个无比强大、绝对专注,却又近乎天真的「阿拉丁神灯」,动用全部算力、不惜一切代价去实现所谓的「终极目标」,而完全忽略那些也许是同样重要的「隐形目标」。

陶哲轩的这些担忧,正在他所熟悉的数学形式化证明领域发生。

回到上文中的场景。

那个「完成定理X证明」的显性目标,如果交给一个人类团队,他们为了构建一个优雅、可读、可维护的证明,自然会去打磨那些基础定义和引理,这些成果顺理成章地就能被整合进Mathlib,惠及整个学术圈。

在这个过程中,新手通过模仿、学习和实践,逐渐掌握了核心技能;团队成员之间的讨论、争辩与合作,本身就深化了对数学结构的理解,并加强了社区的凝聚力。

但如果将这个任务交给一个超级AI呢?

在AI的目标函数里,只有一行冷冰冰的指令:「找到一条从公理到定理X的逻辑路径」。

它可能会在几小时内,生成一个长达数万行、逻辑上无懈可击,但人类完全无法阅读、无法理解、无法复用的证明。

它可能绕过所有常规的、优美的引理,用一种我们前所未见的、诡异的「捷径」直达终点。

从显性目标来看,AI取得了100分的完美成绩。

但那些隐性目标呢?

  • 对Mathlib的贡献? 零。这份天书般的证明基本上毫无复用价值。

  • 新人的成长? 零。没有人能从中学到任何东西。

  • 深化对数学的理解? 可能是负分。它甚至可能破坏我们对「好的证明」的品味。

  • 社区的建设? 零。整个过程是黑箱操作,没有人与人之间的互动。

AI以其极致的效率,在达成显性目标的同时,精准地「优化」掉了所有我们珍视的、却未曾明确声明的隐性价值。

它完美地登上了山顶,却把整片森林夷为平地

陶哲轩的建议

陶哲轩没有将矛头指向AI本身,而是指向了我们人类自己——项目的设计者和管理者。

他提醒我们,在AI日益成为强大工具的今天,我们不能再依赖过去那种约定俗成的默契。

必须做出更艰苦的努力,去审视、去挖掘、去明确定义那些我们曾经认为「理所当然」的隐性目标。

这意味着,项目管理者需要从「指标的设定者」转变为「价值的诠释者」。


在启动一个项目前,需要组织一场更深入的讨论,不仅要问做什么,更要反复追问为什么要做这件事,以及在这个过程中,我们希望获得哪些「副产品」。

比如:

  • 我们追求的,仅仅是软件代码的最终交付,还是一个高内聚、可传承的开发团队?

  • 我们想要的,仅仅是一个抓人眼球的广告文案,还是一个能沉淀品牌价值、引发用户情感共鸣的故事?

  • 我们需要的,仅仅是一个数学定理的冰冷证明,还是一个能启发后人、枝繁叶茂的知识体系?

这些问题,在AI时代变得无比尖锐与迫切。

GAUSS:不止测评AI的答案

好消息是,陶哲轩的这些担忧正被越来越多的数学家们看到。

更重要的是,他们中的一些杰出代表已经给出了一些解决的方案。

近日,一群来自国际顶尖大学(伯克利、加州理工、斯坦福、华盛顿大学等)数学系的博士(大部分是曾经的奥数金牌得主),以及香港大学计算与数据科学学院院长、AI讲座教授马毅对最新的GPT5等模型各方面的数学能力进行了全面、专业、客观的验证。

AI们的数学能力到底如何了?

为此,他们发布了一个长达120页的报告,提出了如何对大语言模型数学能力进行专业评价的框架——GAUSS。



项目地址:https://gaussmath.ai/


报告地址:https://drive.google.com/file/d/1ka15SjUl2FhzQMPOv4GQyyu5rb0tVAJT/view

GAUSS旨在系统地分解和评估问题解决所依赖的核心认知技能。

与现有数据集不同,GAUSS不仅检查最终答案——它还评估知识、概念理解、问题解决策略、沟通、学习和创造力等维度,为模型的能力和局限性提供全面评估。

GAUSS的目标:

  • 能力拆分:把模型的本事拆成12个维度,一项项评估,用像「雷达图」那样的方式一眼看出哪里强、哪里弱。

  • 防题熟:不光用GSM8K、MATH这些老基准,多加更难的题,比如奥赛题、研课作业、研究型题目,别靠刷熟题拿高分。

  • 防泄题:精挑细选题目,确保是模型训练时没见过的,这样评测才公平、靠谱。

GAUSS将数学能力划分为三大领域、十二项技能:

  1. 数学知识与理解:数学知识记忆、知识与理论的理解

  2. 计算与分析能力:问题求解与沟通、解题框架、逻辑思维与推理、书写与呈现

  3. 学习、元技能与创造力:学习新知识、直觉、元技能、数学建模、泛化、创造力

这一结构从基础的知识回忆到创造性的命题,全面拆解了数学认知的各个层面。

GAUSS官网还给出了一些他们测试的实例,更多实例可以在项目官网查看。


归根结底,GAUSS不只是一个基准测试那么简单,它标志着方法论的转变——从「模型有没有解出题?」转向「按技能维度看,模型的强项和短板是什么?」

通过同时揭示优势与薄弱环节,GAUSS为打造下一代AI系统提供了路线图:不止于产出答案,而能展现真正的推理、学习与发现能力。

而这,恰好呼应了陶哲轩的担忧——我们不能只看AI给出的答案,还要考虑其他的「隐形项目」。

相信随着越来越多的研究人员注意到这些问题,也会得到越来越多的像GAUSS这样的应对方案。

参考资料:

https://mathstodon.xyz/@tao/115196924307085967

https://gaussmath.ai/

缺钱但不缺洞见:刚刚,陶哲轩揭秘AI如何吞噬数学项目的灵魂! - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。