谷歌AGI底座降临!首个原生全模态嵌入模型上线,已实现全模态SOTA
【导读】谷歌发布首个原生全模态 Embedding 模型 Gemini Embedding 2!它将文本、图、音视频及 PDF 无损融于统一向量空间,实现跨越五大模态的直接检索。这极大降低了架构成本,赋予了 AI 真正连贯的「记忆」,是重塑 AI 基建的里程碑。
如果说 ChatGPT 等生成式 AI 大模型是 AI 用来表达的「嘴」,那么 Embedding(嵌入)模型就是负责理解与检索的「记忆神经」。
长期以来,这条记忆神经处于割裂状态。
昨天,Gemini API 上线首个多模态 Embedding 模型预览版gemini-embedding-2-preview。
作为首个原生全模态 Embedding 模型,它将文本、图像、音视频乃至 PDF 文档,悉数融合进了一个统一的向量空间。

拆解「原生全模态」的颠覆性价值
要真正理解这项技术的战略分量,我们需要看清过去 AI 检索系统面临的「数据巴别塔」困境。
以往,视觉模态、音频模态和文本处理模态仿佛说着截然不同的语言,每次调度全局信息都需要极其繁琐的翻译对齐。
Gemini Embedding 2 的出现,等同于在数据世界推行了一门通用语,其核心突破体现在以下几个维度。
斩断转录节点,消除信息损耗黑洞
「原生」二字的含金量在于拒绝任何形式的妥协与翻译。
早期让 AI 「听懂」播客,必须外挂语音识别模型先转成纯文本,导致说话人略带反讽的语调、背景里刺耳的警笛声等「冗余信息」瞬间灰飞烟灭。
如今,模型直接「生吞」 MP3 音轨的波形与高分辨率图片的原始像素,那些只可意会不可言传的感官细节,终于在数学空间里找到了精确的坐标。
打通统一坐标系,解锁跨物种搜索
当五大数据类型被压缩进同一个高维向量空间,数据的边界被彻底消解。
开发者能够轻易实现极其复杂的跨模态检索:
抛入一段发动机异响的录音,系统会瞬间从海量的 PDF 维修手册中精准定位到故障部件的图纸;
上传一张极具后现代风格的建筑照片,系统能直接召回配乐风格极其相似的影视片段。
检索完全进化成了纯粹的「语义和意图共振」。
架构大简化,工程复杂度断崖式下跌
过去拼凑一个多模态检索应用,工程师简直要经历一场噩梦。
维护多个独立模型、花重金购买隔离的向量数据库、再编写极度复杂的重排算法试图强行对齐各类得分,这种草台班子式的架构不仅延迟极高,且极易崩溃。
现在,这堆乱如麻的基建被浓缩成一次简单的 API 调用,一套模型足以打穿整个业务流。
已经提前尝鲜的 Agent 创业者们,也毫不吝啬自己对这个全模态新模型的赞美。

为 Agent 拼上完整的记忆拼图
Agent 往往容易显得迟钝,根本原因就在于其「记忆」是割裂的。
Agent 看完带有大量数据图表的研报后,往往只记住了文字,图表部分则被抛弃。
原生全模态 Embedding 赋予了 AI 一种连贯的底层认知模式,让机器终于能像人类一样,将听到的风声、看到的画面和读过的段落,无缝融合成一段完整的记忆。
「五合一」引擎与降本魔法
新模型不仅包揽了五大数据类型,更拥有极宽的吞吐边界!
文本:支持超 100 种语言,上下文高达 8192 个 token。
图像:单次请求最多摄入 6 张图片(支持 PNG 与 JPEG)。
视频:长达 128 秒的动态影像。
音频:长达 80 秒的录音脱离了转录工具的依赖,直接听懂音轨。
文档:跳过常规的 OCR 提取,最高 6 页的 PDF 可被原生读取。
在秀肌肉的同时,谷歌也替企业算好了一笔经济账。
Gemini Embedding 2 沿用了巧妙的「俄罗斯套娃」表示学习技术(MRL)。
这项技术允许开发者像拆解套娃一样,根据自身的存储预算灵活「折叠」向量的体积。
在默认的 3072 维满血状态下,模型自然能提供极致的检索基准。

https://ai.google.dev/gemini-api/docs/embeddings?hl=zh-cn
但真正让人惊艳的是它向下压缩时的韧性:当维度被对半砍到 1536 维时,其 MTEB 多语言性能得分依然坚挺在 68.17 分,甚至出现了一个反直觉的现象——这个分数比 2048 维还要略高一丝。
即便你把预算压缩到极致,将向量体积暴减 75% 降至 768 维,其跑分也仅仅微跌了 0.18 分(67.99 分)。
这意味着,开发团队完全可以在几乎不牺牲核心检索质量的前提下,大幅度削减存储与计算开销,用极高的性价比撬动顶级的多模态能力。
商业身位与避坑指南
环顾四周,这条赛道的火药味从未如此浓烈。
OpenAI 的 text-embedding-3 依然死死守在纯文本阵地,视觉方面全靠旧版模型支撑;
老牌玩家 Cohere 的 Embed v4 遗漏了音视频两块关键拼图;
开源阵营中最能打的 Jina v4 拿下了图文与 PDF,同样对声音和动态影像无能为力。
Gemini Embedding 2 恰好填补了市场空白,成为当下唯一覆盖五大模态的商用级全能选手,实现了全模态 SOTA!

对于准备尝鲜的工程团队而言,有几个现实的「坑」必须提前规避:
兼容性断层。新老模型的向量空间处于不同的维度规则下。从旧版 gemini-embedding-001 迁移的系统,必须将海量历史数据全部重新编码并重建索引。
格式与时长阈值。目前音频仅支持 MP3 与 WAV,且有 80 秒硬性上限,较长的会议录音必须自行切片。
手动归一化。在代码调用层面,若选择非默认的低维度输出(如 768 维),开发者需要外挂脚本手动进行 L2 归一化处理。
当孤立的数据孤岛被彻底贯通,庞杂的现实世界才得以在代码的深海中投下清晰的倒影。
最深远的智能革命,往往藏在那些不动声色的基础设施里,悄然将万物重塑为同一种语言。
现在,可以通过 Gemini API 或 Vertex AI 开始使用 Gemini Embedding 2 模型,参考调用方式如下:
print(result.embeddings)参考资料:
https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-embedding-2/
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社