美国政府「AI行动计划」万言书发布! OpenAI与Anthropic呼吁联手封锁中国AI

2025-04-26 发布 · 浏览20次 · 点赞0次 · 收藏0次

【导读】就在刚刚,美国政*曝光了各界对「AI行动计划」的全部政策建议。OpenAI措辞激烈地表示,DeepSeek让我们看到,必须马上锁死中国AI,必须限制高端GPU芯片和模型权重流向中国!Anthropic同样呼吁:必须立马补上H20这一关键漏洞,并且严控H100的门槛。

AI战打到现在,下一步怎么走?

4月25日,美国网络与信息技术研究与发展(NITRD)公开了美国各界就「AI行动计划」提交的全部书面意见。


网站链接:https://www.nitrd.gov/coordination-areas/ai/90-fr-9088-responses/

拜登的AI行政令,在现在这届政*是行不通了,现在,特朗普政*需要一个全新的AI行动计划,继续保持美国的AI领先地位。

本次收到的意见总数,达到了夸张的10068份!


这些建议来自美国的各行各业,上至美国学界、行业团体、私营部门组织、美国各州政*,下至热心市民。


在这一万多份意见中,共有292家公司发声

其中最亮的,莫过于OpenAI和Anthropic了。

这两家公司的措辞一致的强硬——必须对中国加强技术封锁!


具体来说,就是必须限制高端GPU芯片和模型权重流向中国,而且美国AI必须在和中国的竞争中取胜。

Meta则站在了这两家的对立面,一如既往地强调开源AI。因此,他们认为对开源模型进行出口管制是根本不可行的,这只会导致美国拱手让出主导权,让全球开发者转向中国的开源模型。

异曲同工的是,谷歌也同样批评了拜登政*的AI出口管制,建议特朗普政*在对待出口管制上,一定要精心设计,避免让美国公司处于劣势。


微软和亚马逊,则默契地选择不谈此类话题,只给出了一些一般性建议。

耐人寻味的是,英伟达、苹果、特拉斯三家巨头,并未提交任何意见,马斯克的xAI也保持了沉默。

有趣的是,很多美国的「热心市民」对于AI持有悲观的态度,他们的意见简单、直接。



相比之下,机构、巨头和学界的回复考究、详细,充分显示了他们的重视态度。

显然,在这场史无前例的AI革命中,每个人都无法置身事外。

AI巨头共同的声音:美国政*责任重大

总的来说,传统的科技巨头们在对待AI经济、出口管制以及AI监管等关键议题上有很多共性的意见,但也有各自的侧重,以及对AI竞争和安全治理的不同理解。

不过至少有一点是一致的。

他们一致认为AI至关重要,认为美国应该加大AI政务应用策略

OpenAI:必须锁死中国AI,包括芯片和模型

OpenAI对于AI,尤其是中美AI的竞争,一直持有激进的态度。

在三月中旬的一份长达15页的上书中,OpenAI矛头直指DeepSeek。

在这次的意见中,OpenAI认为AI行动计划的核心目标,就是维持美国在全球AI领域的领导地位,并利用AI促进经济繁荣和个人自由。


在文件一开头,OpenAI就提出了三个scaling原则。

1.AI模型的智能水平大致与训练和运行所使用资源的对数成正比。

OpenAI表示,自己已经展示了如何通过推理阶段的算力扩展智能。这些扩展规律在多个数量级上都非常精确,因此,智能水平线性增长带来的社会经济价值是超指数级的。

2.使用特定水平AI能力的成本大约每12个月下降10倍,且成本下降会促使使用量激增。

举例来说,从2023年初的GPT-4到2024年中的GPT-4o,单词生成的价格下降了大约150倍。因此,AI使用成本的下降速度比摩尔定律还要惊人。

3.改进AI模型所需的时间正在持续缩短。

过去,一台计算机在某个基准测试中击败人类平均需要20年;后来缩短到5年;现在只需1到2年,而且这种趋势短期内不会停止。



接下来,OpenAI的的尖锐措辞就直指DeepSeek。

它激烈陈词道:美国正与力图在2030年成为全球领导者的中国展开竞争。

这就是为什么DeepSeek最近发布的R1模型引发关注——并不是因为其性能(尽管R1的推理能力令人印象深刻,但与美国几款主流模型相比最多算持平),而是它反映了当前这场竞争的态势

OpenAI表示,模型在关键基础设施或其他高风险场景中的使用,存在巨大的风险,因为它可能被强制要求操控模型,以制造危害。

它还无耻地写道:「这些模型在生成如身份欺诈、侵犯知识产权等非法或有害活动指南时也更加宽松,这反映出侵犯美国知识产权被视为优势而非缺陷的态度。」

OpenAI指出,相比于美国公司,中国AI公司有诸多优势。

比如国家可以迅速调动数据、能源、技术人才、芯片产业所需的巨额资金等种种资源。

能利用美国各州分别制定行业法规所带来的「监管套利」机会(这些政策会让美国AI企业面临严重的合规负担)。

还能利用版权保护的漏洞进行「版权套利」(这就让其他公司他们无需遵守欧美的知识产权规定,仍然可以获得相同的数据资源,让美国AI实验室在竞争中处于劣势)。

因此,OpenAI对政*有以下建议。

一套保障创新自由的监管策略

一套输出民主型AI的出口管制策略

一套促进学习自由的版权策略

一套抓住基础设施机遇推动增长的策略

一套雄心勃勃的政*AI应用策略

接下来,在「出口管制」这一部分,OpenAI继续建议,把全球分为三级。

一级包括美国的盟友,以及那些承诺遵循美国提出的AI原则、具有相对较低风险的国家和地区,即能保证美国AI基础设施(例如芯片)不会被转移到非一级国家和地区。

二级包括那些有过黑历史,未能防止受控芯片出口和其他美国开发的知识产权被转移到或被三级使用的国家和地区

三级包括中国及其他受到美国武器禁运的国家和地区。这些应继续受到严格的AI系统出口管制,包括现有的对先进芯片的出口管制。

对于三级国家和地区,OpenAI呼吁严格禁止使用其生成的设备(如芯片)和侵犯用户隐私、产生安全风险的模型。

Anthropic:控制H20,严防走私!

Anthropic预计,在未来2-4年内,前沿AI模型将取得显著的能力进展,特别是在具有重大安全影响的领域,如生物武器和网络安全风险等。

Claude 3.7 Sonnet展示了在支持生物武器开发方面令人担忧的进展。

而Anthropic旗帜鲜明地表示,美国的国家安全已经到了很紧迫的程度!

在它看来,现在迫切需要保护关键技术基础设施和知识产权免受外国威胁,增强美国的安全。

而且美国政*应当进行投资,以培养一个强大的AI开发和部署生态系统,促进美国的繁荣。

Anthropic坚信,强大的AI系统会在2026底或2027年初出现,就如CEO Dario Amodei在他的《爱的机器》一文中讨论的一样。


而这个强大AI,应该被视为美国关键的国家资产。

接下来,Anthropic也提到了DeepSeek,它的原话如下。

强大AI评估能力的重要性,今年早些时候发布的DeepSeek-R1得到了突出展示。

它提到,R1能回答大多数生物武器化的问题,在它看来这十分危险。

因此,美国政*需要快速评估未来模型(无论是国外还是国内的)是否具备安全属性的能力。

同样,Anthropic强调,美国应该加强出口管制,扩大美国的领先优势。

1.控制H20芯片

当前的出口管制不适用于H20,这是一款2024年推出的高内存芯片,计划向中国销售,可以用于训练和运行强大的模型。虽然这些芯片在初期训练中不如H100,但同样优秀。因此特朗普政*需要关闭这一漏洞。

2.签署政*对政*协议,防止芯片违规流通

作为托管美国公司超过50,000颗芯片数据中心的前提条件,美国应要求高风险的国家和地区遵守政*对政*协议,该协议要求:(1)它们的出口控制系统与美国保持一致;(2)采取措施防止芯片流通到中国;(3)停止本国公司与中国合作。

3.仔细审查并提高对二级国家和地区的门槛

目前,扩散规则允许来自二级国家和地区的先进芯片订单(少于1,700颗H100,约4000万美元的订单)无需审核即可进行。这些订单不计入规则的上限,无论购买方是谁。

Anthropic表示,这些门槛存在走私风险,因此建议政*考虑减少二级国家和地区无需审核即可购买的H100数量。

4.增加对工业安全局(BIS)出口执法的资金支持

Meta:保护美国开源AI!

Meta强调了开放源代码AI的重要性:开放源代码AI是美国保持技术优势、促进创新和经济发展的关键。

它举例说,DeepSeek的发布就说明,即使实施闭源政策,也无法阻止技术向中国的扩散。

Meta表示,为了跟在中国的竞争中取胜,美国必须通过开源AI,促进和鼓励美国开源AI的出口。「开源模型对于美国在与中国的人工智能竞争中取胜至关重要,并确保美国在人工智能领域的主导地位。」


在它看来,如果对开源模型进行出口管制,就会使美国彻底退出这场竞争,这就会让中国公司有机会制定全球的AI标准,在全球技术生态系统中植入他们的价值观。

Meta强调,美国的全球竞争优势,就是去中心化和开放的创新。通过出口管制关闭模型,阻止中国获得美国模型,将是无效的,只会削弱美国的利益。

它举例说,DeepSeek的发布就说明,即使实施闭源政策,也无法阻止技术向中国的扩散。

Meta提出了三大核心建议,以确保美国在AI领域的持续领导地位:


1.保护并推广美国开放源代码AI

促进开放源代码AI的出口,避免对开放模型实施出口管制。政*优先采用开放源代码AI,提升政*效率、降低成本,并增强国家安全。

2.减少创新障碍,保持全球技术领导地位

简化数据中心的能源和建设审批流程,推动先进核能技术发展,避免各州AI法规的碎片化,防止对创新造成阻碍。

加快宽带和海底光缆部署,优化联邦土地上的光纤网络审批流程。

3.在国际上捍卫美国技术利益

保护美国企业免受欧盟等地区的高额罚款和歧视性监管。

应对欧盟AI法案的负面影响:避免欧盟的过度监管损害美国企业的竞争力。防止外国政*通过反垄断审查限制美国科技公司的创新和并购活动。

比起上面几方亮点满满的发言,接下来两大巨头的建言,相对而言就比较官方了。

谷歌:加强AI投资和国际合作

谷歌建议,政*要关注三个关键领域:AI投资、政务AI、国际合作。

1. 加大对AI的投资

政*与产业界协同合作;实施平衡的出口管制政策,兼顾国家安全和企业利益;持续资助基础AI研发;制定有利创新的全国级政策框架。

2. 加速并现代化政务AI应用

政*应完善公共采购规则,促进云解决方案间的互操作性和数据便携性,简化采购流程,推动数字化转型。

制定统一的数据标准和API,建立敏捷的授权流程。

同时,加强与私营部门合作,保障关键基础设施和网络安全,采用多云多模型方法用于国家安全。

3. 在国际上推动有利于创新的AI发展路径

建议美国政*推动市场导向、被广泛采用的前沿AI模型技术标准与安全协议;制定量身定制的协议和标准,识别并应对前沿AI系统可能带来的国家安全风险; 抵制限制性的外国AI政策壁垒。

与OpenAI类似,谷歌也主张放宽对AI训练限制,要求「合理使用」知识版权。


谷歌希望确立其与竞争对手使用公开可用数据(包括受版权保护的数据)进行训练的权利。

据报道,谷歌已使用公开的版权数据训练了多个模型,被指控谷歌在进行训练前未通知版权方并支付报酬。

美国法院尚未裁定「合理使用」原则是否有效地保护AI开发者免受知识产权诉讼。

微软:成为政*值得信赖的合作伙伴

微软表示愿意成为政*值得信赖的合作伙伴,提出以下三个建议:

1. 加速美国AI发展

2. 保护公众、加强国家安全

3. 投资科学研究与建立基于科学的AI标准


微软认为要想在全球范围内持续保持美国在AI领域的创新与领导地位,就必须实现政*与私营部门的深度协同,共同挖掘和发挥美国在本土的全部潜力。

此外,还要依托AI技术栈各个层面的企业之间的持续合作,这些企业从芯片设计商,到超大规模云服务提供商,再到AI模型开发者,构成了完整的AI生态体系。

此外,政*与企业都需要能够获取行业领先与开源模型的渠道,以在性能、安全和成本之间取得最佳平衡。

而且,美国应该投资科学研究与AI标准体系建设。

特朗普:AI行动计划

早在2025年1月23日,美国就公布了新任总统Trump签字的美国总统行政命令(行政命令 14179),旨在消除美国在AI领域领导地位的障碍。



文末是特朗普的签名

根据这项行政命令,科技政策办公室(OSTP)通过网络和信息技术研发(NITRD)国家协调办公室(NCO)和国家科学基金会,于2025年2月6日发布了一份关于制定AI行动计划的信息请求(RFI,Request for Information)。


这次征求意见的截止日期为3月15日。

通过这份RFI,OSTP和NITRD NCO向公众征求了意见,包括学术界、行业团体、私营部门组织、州、地方和部落政*以及任何其他感兴趣的相关方。

这「万份建言」中,个人意见达到了9313份,可见民众对于这份重磅政策文件的高度期待。


当然,最能影响最终方案制定还要属那几家重量级的企业。

特朗普的「灵魂三问」

现任OSTP主任是Michael Kratsios。

去年12月22日,特朗普提名技术专家Michael Kratsios担任OSTP主任和总统科技助理。

在3月26号的一封白宫公开信中,特朗普对Michael Kratsios发出了灵魂三问。


第一:美国如何确保自己在关键和新兴技术领域(如AI、量子信息科学和核技术)继续保持无可匹敌的世界领导地位,并保持对潜在对手的技术优势?

第二:如何振兴美国的科学和技术事业——追求真理,减少行政负担,赋能研究人员实现突破性的发现?

第三:如何确保科学进步和技术创新推动经济增长,并改善所有美国人的生活?


在这10068份对于AI的意见中,就藏着这三个问题的答案。

参考资料:

https://techcrunch.com/2025/03/13/google-calls-for-weakened-copyright-and-export-rules-in-ai-policy-proposal/

https://www.nitrd.gov/coordination-areas/ai/90-fr-9088-responses/

美国政府「AI行动计划」万言书发布! OpenAI与Anthropic呼吁联手封锁中国AI - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。