2 亿美元合作告急:消息称 Anthropic 与美国军方 AI 使用分歧激化

2026-02-18 发布 · 浏览38次 · 点赞0次 · 收藏0次

2 月 18 日消息,人工智能企业与美国军方的关系正进入紧张的全新阶段。位于旧金山、以“人工智能安全”为核心理念的初创公司 Anthropic,成为这场风波的焦点。据 Axios 最新报道,美国国防部正威胁终止与 Anthropic 价值 2 亿美元(注:现汇率约合 13.83 亿元人民币)的合作项目,双方核心分歧在于:私营企业应在多大程度上管控军方对其软件(如 Claude 人工智能模型)的使用方式。

数月来,美国国防部一直在向四大人工智能巨头 ——Anthropic、OpenAI、谷歌及 xAI 施压,要求允许军方将其模型用于“所有合法用途”。这本质上意味着取消常规的安全限制,这些限制原本禁止普通用户将人工智能用于武器研发、情报搜集或战场作战等敏感领域。

报道显示,OpenAI、谷歌和 xAI 均表现出一定的灵活性。而 Anthropic 则是其中态度最为强硬的一方。该公司在两个具体问题上划下明确红线:禁止使用 Claude 模型对美国民众进行大规模监控,以及禁止用于研发完全自主武器 —— 即无需人类介入即可自主开火的系统。

在美国军方发起抓捕委内瑞拉前总统尼古拉斯 · 马杜罗的行动后,双方矛盾彻底爆发。《华尔街日报》披露,五角大楼在此次任务中,通过与数据公司 Palantir 的合作使用了 Claude 模型。这一事件引发了 Anthropic 内部的质疑。

据称,当 Anthropic 询问其技术是否被用于这场发生“火力打击”(实战交火)的抓捕行动时,美国国防部官员极为不满。军方认为这种事后审查完全不具备可行性,主张作战人员在实战行动中,不可能停下来与软件供应商逐一协商使用场景。

这场争端凸显了双方巨大的文化冲突。Axios 援引官员的说法称,Anthropic 是所有人工智能实验室中最“意识形态化”的一家。据悉,该公司执行极为严格的内部使用政策,甚至连其工程师内部,都对军方相关业务存在不同意见。但五角大楼也陷入两难:尽管摩擦不断,官员们承认,在面向政*专项与涉密应用场景中,Claude 目前的表现仍优于竞品。

若双方无法达成一致,五角大楼暗示可能将 Anthropic 列为“供应链风险方”,并逐步寻找替代方案。而 Anthropic 方面则坚称致力于维护国家安全,并强调自己是首家将模型接入涉密网络的人工智能企业。目前,双方仍在沟通之中。

2 亿美元合作告急:消息称 Anthropic 与美国军方 AI 使用分歧激化 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。