谷歌被曝正使用 Anthropic 的 Claude 模型来改进其 Gemini AI

2024-12-25 发布 · 浏览158次 · 点赞0次 · 收藏0次

12 月 25 日消息,据 TechCrunch 获得的内部通信内容显示,参与改进谷歌 Gemini 人工智能模型的承包商正在将其答案与 Anthropic 的竞品模型 Claude 的输出进行比较。此举引发了谷歌是否获得 Anthropic 授权使用 Claude 进行测试的合规性质疑。

注意到,在科技公司竞相开发更优秀 AI 模型的当下,模型性能的评估通常通过行业基准测试进行,而非由承包商耗费大量精力评估竞争对手的 AI 回复。然而,Gemini 的承包商需要根据多个标准(例如真实性和冗长性)对看到的每个回复进行评分。根据 TechCrunch 获得的通信内容,承包商最多有 30 分钟的时间来判断 Gemini 或 Claude 的答案哪个更好。

内部聊天记录显示,承包商注意到 Claude 的回复似乎比 Gemini 更强调安全性。一位承包商写道:“在所有 AI 模型中,Claude 的安全设置是最严格的。”在某些情况下,Claude 不会回应其认为不安全的提示词(prompt),例如扮演不同的 AI 助手。在另一次测试中,Claude 避免回答某个提示词,而 Gemini 的回复则因包含“裸体和束缚”而被标记为“严重的安全违规”。

Anthropic 的商业服务条款禁止客户未经 Anthropic 批准访问 Claude“以构建竞争产品或服务”或“训练竞争 AI 模型”。谷歌是 Anthropic 的主要投资者。

对此,谷歌 DeepMind(负责 Gemini)发言人 McNamara 表示,DeepMind 确实会“比较模型输出”以进行评估,但并未在 Anthropic 模型上训练 Gemini。“当然,按照行业惯例,在某些情况下,我们会比较模型输出作为评估过程的一部分,”McNamara 说,“然而,任何关于我们使用 Anthropic 模型训练 Gemini 的说法都是不准确的。”

谷歌被曝正使用 Anthropic 的 Claude 模型来改进其 Gemini AI - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。