谷歌收200美元的AI动态图表功能,今天被Claude免费开放!
【导读】Anthropic刚给Claude装了一块「白板」,可以在对话里直接生成交互式图表和流程图,用户点哪里都能展开。巧的是,OpenAI两天前也上了类似功能,Google更是去年就动了手。三家不约而同押注同一件事:光会说不够,AI得学会「画给你看」。
3月12日,Anthropic官宣:Claude现在可以在对话中直接生成交互式图表、流程图和可视化内容了!
如果你问它关于元素周期表的问题,它能直接画一个可点击的周期表,每个元素点进去都有详细信息。

更有意思的是,就在两天前,OpenAI刚给ChatGPT上了类似的交互式可视化功能;
再往前翻,Google的Gemini去年11月就开始做这件事了。
一周之内,三巨头全部发出了自己的新技术。这难道只是巧合?
如果给Claude一块白板,会发生什么?
「给AI一块白板」和大家理解的AI画图完全不是一回事。
Claude画的东西,底层是HTML代码和SVG矢量图形。这相当于给Claude发了一块白板,让它边说边画。
而Midjourney图像生成,更像是一个程序员现场写代码、现场渲染。
和Claude已有的Artifacts功能比,「白板」的定位也不一样。
Artifacts是作品。你可以下载、分享、反复用,它在侧边面板里,关了对话还在。
但这些对话内的可视化是临时的,对话往下走可能就没了。
如果你觉得图不对,说一句,它会当场改正;如果你想深挖某个部分,点击一下,它继续展开。
这个功能的前身是一个叫「Imagine with Claude」的实验。
当时,这个功能只给Max用户体验了几天后就关闭了,很多人以为那只是个技术秀。
结果半年后,核心能力以这种更实用的方式落地了。
Inc.的记者做了个测试:让Claude生成Timothée Chalamet争议事件的交互式时间线。
结果它不仅做了完整的事件节点可视化,还自己加了一个「愤怒指数」仪表盘。

点击查看完整示例:https://claude.ai/share/50b1325b-e9c7-4de1-a80c-eda6a4999975
另一个测试是让它做宝可梦系列的视觉历史,带有游戏、影视、文化事件的分类筛选器,完成度相当高。

点击查看完整示例:https://claude.ai/share/7ae16a77-dc6a-4b12-bd76-234b7ecec465。
这个功能默认开启,免费用户也能用。
目前支持Web端和桌面端,移动端暂时没有。
三巨头扎堆:是巧合,还是故意为之?
2025年11月,Google先坐不住了。
Gemini上线了交互式图像,把教材里的静态图变成可点击的学习工具。

到2026年初又推了「Guided Learning」模式,把图像、视频、测验打包成一个学习伴侣。
2026年3月10日,OpenAI紧随其后。
ChatGPT上线「动态视觉解释」,覆盖70+个数学和科学概念。
每周1.4亿人拿ChatGPT学数学和科学,这个用户基数够大。

2026年3月12日,Anthropic上线。而且一出手就带来福利:免费用户也可使用。
对比之下,Google去年12月给Gemini Ultra上的高级交互式图表和模拟,订阅费每月200美元,门槛不低。
Anthropic一直在文本和代码上猛打,音频、图像、视频这些多模态方向基本没投入,因为OpenAI和Google早就砸了重金。
现在Anthropic另辟蹊径,不做图像生成,用代码画图,扬长避短,十分明智。
一条赛道,三种打法
三家虽然都在做交互式可视化,但思路差别非常大。
经典的教科书:OpenAI
ChatGPT高度结构化,70多个预设主题,从二项式展开到库仑定律、从指数衰减到胡克定律,每个都有专门设计的交互模块。
你不能让ChatGPT可视化任意话题——超出这70多个主题就不触发。
好处是做得精,专业感强,教学设计有章法;代价是范围窄,灵活性差。
OpenAI摆明了说:先做教育,面向高中生和大学生,以后再扩张。
配合去年上线的Study Mode和QuizGPT,OpenAI在教育赛道上的布局已经相当完整了。
图注生成器:Gemini
Gemini的路子像给一张现有的图「开外挂」。
AI识别图像里的关键元素,自动生成可点击的标签和解释面板。
你点一下细胞图里的高尔基体,就会弹出他的定义和功能。
本质上是围绕图像做文章,得先有图才能交互。
但Google的优势在生态:LearnLM教育模型、YouTube视频、Google Classroom的打通,让这个功能可以直接嵌入课堂场景,这是OpenAI和Anthropic都做不到的。

通用白板 :Claude
不限主题,不限场景,不要预设模板。
建筑受力分析、职业选择决策树、公司收入趋势图、RGB调色板......理论上,它能画任何可以用代码表达的东西。
而且这些可视化还能和Figma、Canva、Slack等第三方应用联动。
这暗示Anthropic想的不只是聊天增强,而是一个连接生产力工具的视觉交互层。
今年1月Claude上线的Connectors功能让它能直接操作第三方应用,现在加上可视化,拼图又多了一块。
当然白板也有白板的缺点。
The New Stack的记者让Claude画非塔台机场的VFR进近模式图,大体对了,但「中场侧风进入」的标注位置搞错了。

还有速度问题。一个复杂可视化可能要等30秒,而用搜索引擎找一张类似的图只要3秒。
不过在Beta阶段,这些都正常。
光会说已经不够用了
三家同时押注可视化,可能意味着纯文本回复正在触及天花板。
AI聊天从2022年底火到现在,核心交互一直是你问我答,全靠文字。
但越来越多场景证明文字难以胜任。
解释时间复杂度,一张图比三段话清楚;呈现销售数据,一个可拖动的图表比一堆数字有感觉;教物理概念,让学生自己拖参数看变化比对着公式发呆管用得多。
教育研究也早就说了,交互式学习比被动阅读的理解效果好得多,这不是什么新发现。
之前的AI没有画的能力,只能用文字硬扛。
现在,三家同时把这个技能点亮了,区别只在切入角度。
而且各家的选择都和自身生态有关。
OpenAI有1.4亿周活学生用户,做教育顺理成章;Google有LearnLM和Classroom生态,做标注式学习是老本行;Anthropic代码能力最强,用代码画白板是最自然的延伸。
Digital Trends的报道提到一个有意思的说法:Anthropic把这次更新定义为Claude「学会选择最佳表达格式」。
有时候文字最好,有时候一张图更好,有时候一个可交互的小工具最合适。
再加上今年上线的食谱卡片、天气可视化、Figma/Canva/Slack等应用内交互,Claude正在从「文字助手」变成「多格式表达引擎」。
AI竞赛持续了三年多,模型能力差距越来越小;跑分互有胜负,用户感知越来越模糊。
谁更聪明拉不开差距,「谁更会表达」成了新战场。
这一轮,三家答案出奇一致:让AI学会画画。
不过话说回来,这些功能都还是早期。
Claude的标注偶尔出错,ChatGPT的交互模块覆盖面有限,Gemini的高级功能需要200美元的入场费。
真正的竞赛不在谁先上线,在谁能把「边说边画」做成用户根本不会注意到的自然交互。
2026年3月这一周,大概就是AI从文字机器变成表达工具的起点。
参考资料:
https://claude.com/blog/claude-builds-visuals
https://www.theverge.com/ai-artificial-intelligence/893625/anthropic-claude-ai-charts-diagrams
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里查看更多信息!
AI 中文社