谷歌黑魔法,没人能看懂的Gemini 3 Flash
【导读】参数越小,智商越高?Gemini 3 Flash用百万级长上下文、白菜价成本,把自家大哥Pro按在地上摩擦。谷歌到底掏出了什么黑魔法,让整个大模型圈开始怀疑人生?
Gemini 3 Flash发布已经有段时间了,速度快3倍的同时智力反超Pro。
但是目前依然没人能够说明白:为啥Flash能比Pro还要「聪明」。

为何一个在参数规模上显著缩减的模型,能够在更大规模的模型擅长的领域实现超越?

长期以来,业界奉行着「参数即正义」的信条,认为更大的模型(更多的参数量)必然带来更强的智能表现。
然而,Gemini 3 Flash的出现打破了这一线性逻辑,它不仅在成本和速度上保持了「Flash」系列的轻量级特征,更在多项关键基准测试中,尤其是涉及复杂推理和超长上下文的任务上,击败了前一代甚至当代的「Pro」级模型。

而且最近有人发现,在长下文测试中,Gemini 3 Flash更是遥遥领先!
在OpenAI的MRCR基准测试中,Gemini 3 Flash在100万上下文长度下达到了90%的准确率!

这一表现在所有模型中均属最先进水平,大多数顶尖模型甚至无法突破256k的上下文长度。

那么谷歌到底用了什么黑魔法?
Gemini 3 Flash凭什么在百万长文本与低成本间实现「降维打击」?
知名AI研究员@bycloudai在深入评测后指出,谷歌可能在模型架构研究上已处于「遥遥领先」的隐形地位。
这一表现打破了行业常规认知:它既没有像标准注意力机制那样产生高昂算力成本,也没有像常见的线性注意力或SSM混合模型那样导致知识推理能力下降。
Gemini 3 Flash似乎掌握了某种未知的「高效注意力机制」,令外界对其背后的技术原理直呼「看不懂」但大受震撼。

再挖掘Gemini 3 Flash的黑魔法钱,有必要先介绍一下这个评测标准。
在2023年至2024年间,评估大语言模型长上下文能力的主流方法是「大海捞针」(Needle In A Haystack,NIAH)。
该测试将一个特定的事实(针)插入到长篇文档(大海)的随机位置,要求模型将其检索出来。
然而,随着模型上下文窗口扩展至128k甚至1M token,NIAH测试迅速饱和。
Gemini 1.5 Pro、GPT-4 Turbo等早期模型在该测试中均能达到近乎100%的准确率。
NIAH本质上测试的是检索能力,而非推理能力。
它要求模型找到信息,但不要求模型理解信息之间的复杂依赖关系。
这导致了一种错觉:似乎所有模型都完美掌握了长上下文。
但在实际的企业级应用(如法律文档分析、代码库理解)中,用户不仅需要模型找到「条款A」,还需要模型理解「条款A」与「条款B」在特定条件下的冲突,这种高阶能力是NIAH无法覆盖的。
正是在这种背景下,Context Arena应运而生。

这是一个由独立研究者(如Dillon Uzar等人)维护的、专注于长上下文理解能力评估的基准平台。
Context Arena不仅仅是一个排行榜,它是一个针对大模型「注意力缺陷」的诊断工具看,衡量模型「智商」和长程记忆稳定性的试炼场。
Context Arena最具杀伤力的武器是MRCR(Multi-Round Co-Reference Resolution)基准测试。
OpenAI受到Gemini的启发,也搞了一个OpenAI-MRCR,就是一开始上面所说的评测基准。

这是一个设计精巧的压力测试,旨在击穿那些使用近似注意力机制(如线性注意力或稀疏注意力)的模型的防线。
测试机制是这样的,MRCR会生成一段极长的、多轮次的合成对话或文本。
在这些文本中,系统会植入多个高度相似的「针」(Needles)。
例如,文本中可能包含8首关于「貘」(tapir)的诗,每首诗的风格略有不同但主题一致。
挑战点在于系统会向模型提出极其刁钻的指令,如:「请复述关于貘的第二首诗」或「找出第四次提到貘时的具体描述」。
在Context Arena的MRCR榜单上,Gemini 3 Flash展现出了惊人的统治力。

这直接证明了Gemini 3 Flash并未为了速度而牺牲核心的「注意力精度」。
猜猜谷歌用了什么技术
我们来对比一下常见的注意力机制。
标准注意力是指数级的,所以诞生了一种新技术叫做线性注意力。


另外一种还有稀疏注意力。
稀疏注意力保留了标准注意力的高精度,但通过只计算「重要」的部分来降低计算量。
比如,DeepSeek的DSA(DeepSeek SparseAttention)。

DeepSeek认为,对于任何一个查询,绝大多数历史信息都是无关的。因此,没必要计算全量的注意力。
DSA使用一种启发式算法(如Lightning Indexer),快速筛选出最相关的Top-K个 token或块(Block),只对这些部分进行精细计算。
此外还有一些混合架构,比如Gemini的策略。
虽然谷歌未公开细节,但业界推测Gemini 3 Flash也是一种高度复杂的混合架构,可能在底层使用Infini-attention处理超长历史,在顶层使用标准注意力进行逻辑推理,并结合MoE(混合专家模型)来进一步降低计算成本。
总结来说,谷歌之所以能让Gemini 3 Flash实现「轻量级打Pro」,并非依赖单一的黑科技,而是基于TPU硬件、算法架构、训练数据三位一体的深度优化:
数据层面(Data):利用Gemini 3 Pro进行大规模的思维链蒸馏,将高阶推理能力「压缩」进Flash模型,使其具备了超越参数规模的「智商」。
计算层面(Compute):引入Thinking(思考)机制,允许模型在推理时动态分配计算资源。对于难题,Flash模型会像人一样「停下来想一想」,这种时间维度上的算力投入弥补了空间维度(参数量)的不足。
记忆层面(Memory):部署Infini-attention和Titans风格的记忆模块,将指数级的注意力成本降维,实现了在1M+上下文中依然保持高精度的检索能力,彻底解决了长上下文带来的问题。
Gemini 3 Flash的核心战略意义
「Flash」一词在谷歌的产品线中历史悠久,从Gemini 1.5 Flash开始,它就被定位为高吞吐量、低延迟的工具,主要用于简单任务的快速处理。
这种定位在用户心中植入了一个根深蒂固的假设:Flash模型是Pro模型的蒸馏版本。
在传统的模型压缩理论中,蒸馏意味着学生模型只能逼近但永远无法超越教师模型的表现。
因此,当Gemini 3 Flash发布时,绝大多数分析师和开发者将其视为一个更便宜的API端点,而非一个推理引擎的革新。
然而,上面的数据告诉我们,Gemini 3 Flash正在讲述一个完全不同的故事。
这种「轻量级反而更强」的现象,不能简单地用更精细的数据清洗或更长的训练时间来解释。
它暗示了底层架构的根本性变化——一种不再单纯依赖参数规模堆叠,而是依赖于更高效的信息路由与记忆机制的新型架构。
Gemini 3 Flash的核心战略意义在于它打破了AI经济学中的线性增长法则。
在过去,要获得10%的智能提升,通常需要10倍的算力投入。
但Gemini 3 Flash以$0.50/1M输入 token的极低价格,提供了GPQA Diamond基准测试中90.4%的博士级推理能力。
这意味着谷歌不仅仅是在打价格战,而是在进行一场架构层面的降维打击。
当一个模型的推理成本低到可以忽略不计,且其长上下文召回能力达到完美(>99%)时,它就不再仅仅是一个聊天机器人,而是一个可以吞噬整个企业知识库、实时重构代码库、并自主进行多轮迭代的「智能代理」(Agent)。
是的,如果一个模型足够的轻量、又能够记住足够的东西、关键是又很便宜,那其他「智能体」还怎么生存?
这种能力的解锁,使得Gemini 3 Flash成为了当前AI智能体爆发的关键推手。
在Pokémon游戏通关测试和SWE-bench代码修复任务中,Flash模型的表现之所以能超越Pro模型,正是因为其低延迟和低成本允许代理在单位时间内进行更多的「思考-行动-反思」循环。
这种通过高频迭代来弥补单次推理深度不足(甚至在很多时候单次推理并不弱)的策略,正是当前AI进化的主要趋势。
谷歌的终极武器:Titans架构与神经长时记忆
结合Gemini 3 Flash在Context Arena的MRCR基准测试中100万上下文90%准确率的惊人表现,以及其低廉的推理成本,最合理的推测是:
Gemini 3 Flash大规模应用了谷歌DeepMind最新的「Titans」架构或其变体。

根据谷歌发表的Titans论文,这是一种结合了Transformer和神经记忆的新型架构。
这些框架让AI模型能够更快地工作,并通过更新核心内存在运行时处理大规模上下文。

Titans包含三个部分:
核心(Core,短期记忆,通常是滑动窗口注意力)
长期记忆(Long-term Memory)
持久记忆(PersistentMemory)。
与传统的RNN(存储固定状态向量)不同,Titans的长期记忆是一个深度神经网络(MLP)。
当模型处理输入时,它不仅仅是把信息存入缓存,而是通过梯度下降实时更新这个MLP的权重。
模型在推理阶段(TestTime)实际上是在「学习」当前的上下文。
它利用一个「惊奇度」(Surprise Metric)指标来衡量新信息的重要性。
如果一段信息(比如用户指定的随机哈希码)出乎模型的预料(High Surprise),模型就会通过梯度更新将其刻入长期记忆网络中。
为什么Titans完美解释了Gemini 3 Flash的表现?
- 无限上下文与线性复杂度:
Titans的MAC(Memory as Context)变体允许将历史信息压缩进神经网络权重,而非无限增长的KVCache。这解释了为什么Flash能以极低的内存占用处理百万级 token,且速度极快(线性推理)。
- MRCR的高分:
在MRCR测试中,模型需要记住非常具体的细节(Needles)。在Titans架构下,这些独特的、重复出现的「Needles」会产生高惊奇度信号,从而被优先「学习」进记忆模块,而大量的干扰文本则会被遗忘门过滤。这比基于相似度检索的传统注意力机制更能抵抗噪声。
- 自适应能力:
用户反馈称Gemini 3 Flash似乎能「学会」用户的纠正。这正是Titans「测试时学习」特性的体现——模型在对话过程中动态调整了参数。
在这两篇新论文《Titans》和《MIRAS》中,谷歌提出了一种架构和理论蓝图,结合了RNN的速度与变换器精度。
Titans是具体的架构(工具),MIRAS是理论框架(蓝图),用于推广这些方法。
它们共同推动了测试时间记忆的概念,即AI模型通过在模型运行时加入更强大的「惊喜」指标(即意外信息片段)来维持长期记忆的能力,无需专门的离线再训练。

一个有效的学习系统需要不同但相互关联的记忆模块,这反映了人脑对短期记忆和长期记忆的分离。
虽然注意力机制在精确短期记忆方面表现出色,Titans引入了一种新型神经长期记忆模块,它不同于传统RNN中的固定大小向量或矩阵记忆,它充当深度神经网络。
该内存模块提供了显著更高的表达能力,使模型能够在不丢失重要上下文的情况下总结大量信息。模型不仅仅是做笔记,而是理解并综合整个故事。
关键是,泰坦不仅仅是被动存储数据。
它主动学习如何识别并保留连接整个输入中Token的重要关系和概念主题。这项能力的一个关键方面是我们所说的「惊喜指标」。
在人类心理学中,我们知道我们会很快且容易地忘记例行公事、预期中的事件,但会记住打破常规的事情——意外、惊喜或情绪激动的事件。

在《泰坦》的语境中,「惊讶指标」指的是模型检测到当前记忆与新输入信息之间的巨大差异。
低惊讶:如果新词是「cat」,且模型的记忆状态已经预期动物词,则梯度(惊讶)较低。它可以安全地跳过长期永久状态下的「猫」这个词。
高惊喜:如果模型的记忆状态正在总结一份严肃的财务报告,而新输入是一张香蕉皮的图片(意外事件),那么梯度(惊喜)会非常高。这表明新输入重要或异常,必须优先存储在长期记忆模块中。
该模型将这个内部误差信号(梯度)当作数学上的等价物,比如说:「这是意外且重要!」这使得泰坦架构能够选择性地更新其长期记忆,只包含最新颖且破坏上下文的信息,从而保持整体流程的快速和高效。
泰坦通过整合两个关键要素来完善这一机制:
动量:模型同时考虑「瞬间惊讶」(当前输入)和「过去惊讶」(近期上下文流)。这确保了后续相关信息也能被捕获,即使这些Token本身并不令人意外。
遗忘(权重衰减):为了在处理极长序列时管理记忆有限容量,泰坦采用自适应权重衰减机制。这起到遗忘门的作用,允许模型丢弃不再需要的信息。
MIRAS:序列建模的统一视角
序列建模的每一项重大突破,从现代变换器到新的闪电高速线性RNN,本质上都是同一件事:一个高度复杂的联想记忆模块。
因此,MIRAS独特且实用的,在于它对AI建模的看法。它不再看到多样化的架构,而是看到解决同一问题的不同方法:高效地将新信息与旧记忆结合,同时不遗忘核心概念。
MIRAS通过四个关键设计选择定义了序列模型:
内存架构:存储信息的结构(例如,矢量、矩阵或深度多层感知器,如泰坦中的结构)。
注意力偏见:模型优化的内部学习目标,决定了其优先考虑的内容。
保留门:内存规范器。MIRAS将「遗忘机制」重新解释为一种特定的正则化形式,平衡新学习与保留过去知识。
内存算法:用于更新内存的优化算法。

这些新架构最显著的优势是能够处理极长的上下文。
这一点在BABILong基准测试中得到了体现,该任务需要在极长的文档中对事实进行推理。
在这一充满挑战的环境中,Titans的表现优于所有基线,包括像GPT-4这样极其庞大的模型,尽管参数远少于GPT-4。
Titans进一步展示了能够有效扩展到超过200万个令牌的上下文窗口。

Titans和MIRAS框架的引入标志着序列建模的重大进展。
通过将深度神经网络作为记忆模块,在数据流入时学习记忆,这些方法克服了固定大小的循环状态的局限。
此外,MIRAS提供了强大的理论统一,揭示了在线优化、联想记忆与架构设计之间的联系。
这项研究为新一代序列模型打开了大门,这些模型结合了RNN的高效与长上下文人工智能时代所需的表达能力。
彩蛋
分别向Gemini和GPT询问了Gemini 3 Pro和Flash的参数大小。
Gemini 3 Flash的回答:
基于截至2025年12月的最新行业信息和技术分析,官方并未公开Gemini 3 Pro和Gemini 3 Flash的确切模型参数大小。这是谷歌自 Gemini 1.0以来的一贯策略,主要为了保护架构机密。
不过,根据技术白皮书的推断、行业泄露信息以及对其性能(Token 生成速度和显存占用)的逆向分析,目前的主流估算(数量级)如下

GPT 5.2的回答:

总之,Pro和Flash这两模型的参数数量级差了将近5~10倍(估算)。因此,Flash的使用体验远超预期,才会引起社区广泛的讨论。
参考资料:
https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/
https://x.com/bycloudai/status/2002347892535930934
秒追ASI
⭐点赞、转发、在看一键三连⭐
点亮星标,锁定极速推送!
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社