谷歌AGI底座降临!首个原生全模态嵌入模型上线,已实现全模态SOTA

2026-03-11 发布 · 浏览10次 · 点赞0次 · 收藏0次

【导读】谷歌发布首个原生全模态 Embedding 模型 Gemini Embedding 2!它将文本、图、音视频及 PDF 无损融于统一向量空间,实现跨越五大模态的直接检索。这极大降低了架构成本,赋予了 AI 真正连贯的「记忆」,是重塑 AI 基建的里程碑。

如果说 ChatGPT 等生成式 AI 大模型是 AI 用来表达的「嘴」,那么 Embedding(嵌入)模型就是负责理解与检索的「记忆神经」。

长期以来,这条记忆神经处于割裂状态。

昨天,Gemini API 上线首个多模态 Embedding 模型预览版gemini-embedding-2-preview

作为首个原生全模态 Embedding 模型,它将文本、图像、音视频乃至 PDF 文档,悉数融合进了一个统一的向量空间。


拆解「原生全模态」的颠覆性价值

要真正理解这项技术的战略分量,我们需要看清过去 AI 检索系统面临的「数据巴别塔」困境。

以往,视觉模态、音频模态和文本处理模态仿佛说着截然不同的语言,每次调度全局信息都需要极其繁琐的翻译对齐。

Gemini Embedding 2 的出现,等同于在数据世界推行了一门通用语,其核心突破体现在以下几个维度。

斩断转录节点,消除信息损耗黑洞

「原生」二字的含金量在于拒绝任何形式的妥协与翻译。

早期让 AI 「听懂」播客,必须外挂语音识别模型先转成纯文本,导致说话人略带反讽的语调、背景里刺耳的警笛声等「冗余信息」瞬间灰飞烟灭。

如今,模型直接「生吞」 MP3 音轨的波形与高分辨率图片的原始像素,那些只可意会不可言传的感官细节,终于在数学空间里找到了精确的坐标。

打通统一坐标系,解锁跨物种搜索

当五大数据类型被压缩进同一个高维向量空间,数据的边界被彻底消解。

开发者能够轻易实现极其复杂的跨模态检索:

抛入一段发动机异响的录音,系统会瞬间从海量的 PDF 维修手册中精准定位到故障部件的图纸;

上传一张极具后现代风格的建筑照片,系统能直接召回配乐风格极其相似的影视片段。

检索完全进化成了纯粹的「语义和意图共振」。

架构大简化,工程复杂度断崖式下跌

过去拼凑一个多模态检索应用,工程师简直要经历一场噩梦。

维护多个独立模型、花重金购买隔离的向量数据库、再编写极度复杂的重排算法试图强行对齐各类得分,这种草台班子式的架构不仅延迟极高,且极易崩溃。

现在,这堆乱如麻的基建被浓缩成一次简单的 API 调用,一套模型足以打穿整个业务流。

已经提前尝鲜的 Agent 创业者们,也毫不吝啬自己对这个全模态新模型的赞美。


为 Agent 拼上完整的记忆拼图

Agent 往往容易显得迟钝,根本原因就在于其「记忆」是割裂的。

Agent 看完带有大量数据图表的研报后,往往只记住了文字,图表部分则被抛弃。

原生全模态 Embedding 赋予了 AI 一种连贯的底层认知模式,让机器终于能像人类一样,将听到的风声、看到的画面和读过的段落,无缝融合成一段完整的记忆。

「五合一」引擎与降本魔法

新模型不仅包揽了五大数据类型,更拥有极宽的吞吐边界!

  • 文本支持超 100 种语言,上下文高达 8192 个 token。

  • 图像单次请求最多摄入 6 张图片(支持 PNG 与 JPEG)。

  • 视频长达 128 秒的动态影像。

  • 音频长达 80 秒的录音脱离了转录工具的依赖,直接听懂音轨。

  • 文档跳过常规的 OCR 提取,最高 6 页的 PDF 可被原生读取。

在秀肌肉的同时,谷歌也替企业算好了一笔经济账。

Gemini Embedding 2 沿用了巧妙的「俄罗斯套娃」表示学习技术(MRL)。

这项技术允许开发者像拆解套娃一样,根据自身的存储预算灵活「折叠」向量的体积。

在默认的 3072 维满血状态下,模型自然能提供极致的检索基准。


https://ai.google.dev/gemini-api/docs/embeddings?hl=zh-cn

但真正让人惊艳的是它向下压缩时的韧性:当维度被对半砍到 1536 维时,其 MTEB 多语言性能得分依然坚挺在 68.17 分,甚至出现了一个反直觉的现象——这个分数比 2048 维还要略高一丝。

即便你把预算压缩到极致,将向量体积暴减 75% 降至 768 维,其跑分也仅仅微跌了 0.18 分(67.99 分)。

这意味着,开发团队完全可以在几乎不牺牲核心检索质量的前提下,大幅度削减存储与计算开销,用极高的性价比撬动顶级的多模态能力。

商业身位与避坑指南

环顾四周,这条赛道的火药味从未如此浓烈。

OpenAI 的 text-embedding-3 依然死死守在纯文本阵地,视觉方面全靠旧版模型支撑;

老牌玩家 Cohere 的 Embed v4 遗漏了音视频两块关键拼图;

开源阵营中最能打的 Jina v4 拿下了图文与 PDF,同样对声音和动态影像无能为力。

Gemini Embedding 2 恰好填补了市场空白,成为当下唯一覆盖五大模态的商用级全能选手,实现了全模态 SOTA!


对于准备尝鲜的工程团队而言,有几个现实的「坑」必须提前规避:

  • 兼容性断层。新老模型的向量空间处于不同的维度规则下。从旧版 gemini-embedding-001 迁移的系统,必须将海量历史数据全部重新编码并重建索引。

  • 格式与时长阈值。目前音频仅支持 MP3 与 WAV,且有 80 秒硬性上限,较长的会议录音必须自行切片。

  • 手动归一化。在代码调用层面,若选择非默认的低维度输出(如 768 维),开发者需要外挂脚本手动进行 L2 归一化处理。

当孤立的数据孤岛被彻底贯通,庞杂的现实世界才得以在代码的深海中投下清晰的倒影。

最深远的智能革命,往往藏在那些不动声色的基础设施里,悄然将万物重塑为同一种语言。

现在,可以通过 Gemini API 或 Vertex AI 开始使用 Gemini Embedding 2 模型,参考调用方式如下:

print(result.embeddings)

参考资料:

https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-embedding-2/

谷歌AGI底座降临!首个原生全模态嵌入模型上线,已实现全模态SOTA - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。