微软 GitHub 推出跨模型 AI 审查:Claude Sonnet 4.6 搭配 GPT-5.4,弥补 74.7% 性能差距

浏览14次 点赞0次 收藏0次

4 月 8 日消息,微软 GitHub 官方于 4 月 6 日发布博文,宣布为其 Copilot CLI 推出实验性功能 Rubber Duck,引入跨模型家族的“第二意见”审查机制,让 AI 性能提升接近 75%。

援引博文介绍,在代码规划阶段,当前编程智能体的早期决策错误容易层层累积,而单一模型的自我审查会受限于自身的训练偏差与盲点。而 Rubber Duck 功能就是引入异构模型作为独立审查者,提供差异化视角以挖掘潜在错误。

Rubber Duck in GitHub Copilot CLI

该功能采用跨家族模型组合策略,用户选择 Claude 系列模型作为主控后,Rubber Duck 将调用 GPT-5.4 进行审查。其核心任务是检查智能体工作,输出高价值关注点清单,包括被遗漏的细节、值得质疑的假设及边缘案例。

博文进一步通过 SWE-Bench Pro 基准测试评估,基于 Claude Sonnet 4.6 和 Opus 4.6 单独运行的性能差距对比,发现 Sonnet 4.6 搭配 Rubber Duck 后,成功弥补 74.7% 的性能差距。

在涉及 3 个以上文件或超过 70 步的困难任务中,得分比基线高出 3.8%。实际案例显示,它能有效挖掘架构逻辑漏洞、循环覆盖错误及跨文件冲突等深层问题。

Rubber Duck 支持主动、被动及用户触发三种模式。系统会在制定计划后、复杂实现后及测试编写后三个关键检查点自动寻求审查,也可在陷入循环时被动触发。该功能为确保过程透明,用户也可随时请求审查,Copilot 将展示反馈内容与修改依据。

目前该功能已在实验模式下线。用户安装 GitHub Copilot CLI 并运行 /experimental 命令即可启用。启用后,选择 Claude 模型并开通 GPT-5.4 访问权限即可体验。

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。