美国防长着急上火,连马斯克都已让步,但阿莫迪公司仍坚决不向美军提供人工智能技术
创始人
2026-03-03 08:41:31

美国政府最近干了一件特别拧巴的事——对着同一家公司,左手高举“国家安全威胁”的大棒,右手又捧着“国家命脉”的奖状,两头一起压。

这公司叫Anthropic,做的是AI大模型Claude。

五角大楼一边说它可能危及国防供应链,得踢出去;另一边又说它的技术太关键了,必须强制征用,连安全限制都不准设。

这哪是谈判?简直是精神分裂。

这事发生在2026年2月下旬。

Anthropic的CEO阿莫迪实在憋不住了,发了一封公开信,直接点破:“你们说我们是风险,又说我们不可或缺——这两句话能同时成立吗?”

问题就在这儿:一个东西,怎么可能既是毒药又是解药?

除非下毒的人自己也中毒了,才需要一边防着你,一边又离不开你。

五角大楼的手段,其实早就亮出来了,而且不是一把刀,是三把,刀刀见血。

第一把,砍合同。

去年夏天,Anthropic刚和美军签下2亿美元的大单,成为第一家把AI模型部署进美军机密系统的美国公司。

这本来是荣耀,现在却成了勒脖子的绳子。

国防部长赫格塞思在2月24日的会面里撂下狠话:不答应“无限制使用”,合同立刻作废。

注意,不是“协商调整”,不是“重新评估”,是“立刻作废”。

这语气,不像谈合作,倒像下最后通牒。

第二把刀更狠——贴标签。

五角大楼打算给Anthropic打上“供应链风险企业”的烙印。

这个标签什么分量?

美国新安全中心的高级研究员杰弗里·格茨说得明白:过去这帽子只扣给外国对手,比如华为。

现在要往一家总部在旧金山、创始人全是美国人、代码全在美国写的公司头上扣,前所未有。

一旦贴上,所有跟国防部有生意往来的承包商都得自证清白:我们没用Claude。

等于把Anthropic从整个国防科技生态里连根拔起,连呼吸权都剥夺了。

第三把刀,直接动用《国防生产法》。

这部法律冷战时期立的,本意是在战争或国家紧急状态下,政府可以强制私营企业优先生产军需品,甚至接管工厂。

现在拿来对付一家AI公司,意思很直白:你的技术,国家要了。

不管你们设了多少伦理护栏,统统拆掉。

Claude不是你的产品,是国家的战略资产。

这种操作,已经不是商业纠纷,而是准征用。

五角大楼发言人帕内尔在X平台上更是不留余地,直接划出硬性截止日期,警告Anthropic:不配合,就终止合作,同时列入“供应链风险名单”。

你看,两个动作同步推进——一边断你财路,一边毁你声誉。

可问题来了:如果真觉得你是风险,为什么还要强行征用?

如果真觉得你不可或缺,为什么又要污名化?

格茨一针见血:这两种威胁根本自相矛盾。

它们暴露的不是Anthropic的问题,而是美国国家机器内部的撕裂。

这台机器里,其实装着两套完全不同的操作系统。

一套叫“主权逻辑”:我花钱买你的东西,怎么用是我的事,轮不到你指手画脚。

赫格塞思的思路特别简单——我们买波音的飞机,难道还要问波音同意不同意我们往哪儿飞?

军方采购AI,自然也该拥有完全控制权。

在他们眼里,Anthropic提出的两条红线——禁止用于美国国内大规模监控、禁止用于完全自主武器——根本就是越界。

你一个供应商,凭什么给最终用户定规矩?

五角大楼官员私下说得更赤裸:“合法性由我们负责,你只管交货。”

但另一套逻辑又在同时运行:关键技术必须牢牢攥在手里。

因为现实是,Claude确实是目前唯一能在美军最高密级系统中稳定运行的AI模型。

上个月美军突袭委内瑞拉的行动里,就实际调用了Claude处理情报。

这意味着什么?

意味着在五角大楼眼里,Claude不是普通软件,而是作战体系的一部分。

它被认定为“最先进、最安全”的AI,这种评价不是客套,是实战验证的结果。

所以,他们既想把你踢出去,又怕你真走了——这种焦虑,催生了极端手段。

更让军方火大的是,别人都服软了,就Anthropic还在硬扛。

OpenAI、谷歌、马斯克的xAI,全都签了字,同意政府在任何“合法用途”下自由使用其模型。

Grok刚刚获批进入机密环境,连马斯克这种向来桀骜的人都点头了。

唯独Anthropic,至今没松口。

这不是不识抬举是什么?

可Anthropic为什么死扛?

因为从根子上,这家公司就和别人不一样。

阿莫迪2021年离开OpenAI创立Anthropic时,打的就是“负责任AI”的旗号。

他不信那种“先跑起来再说”的硅谷逻辑,坚持认为前沿AI必须自带刹车。

他在声明里写得很清楚:有两类用途,我们从来没放进合同,现在也不会放进去——一是对美国公民的大规模监控,二是完全不需要人类干预的自主武器系统。

这不是讨价还价,是底线。

他还从技术角度解释:现在的AI,根本不够可靠。

让它控制武器?等于把士兵和平民的性命交给一个可能突然胡言乱语的程序。

Anthropic不想提供一种会让作战人员和civilians(平民)陷入危险的产品。

这话听着理想主义,但细想很实在。

AI幻觉不是bug,是特性。

今天它能把委内瑞拉地图标错成哥伦比亚,明天就可能把学校识别成导弹基地。

这种东西,真敢放手让它开火?

五角大楼当然不认这个理。

发言人帕内尔回应说:国防部无意搞大规模监控(因为违法),也不打算开发完全自主的武器。

听起来很讲道理,对吧?

但他马上补一句:但必须允许AI用于“所有合法用途”。

这句话才是关键。

什么叫“所有合法用途”?

谁来定义“合法”?

在紧急状态下,总统一句话就能宣布某项行动“合法”。

到时候,Anthropic设的护栏,会不会变成纸糊的?

更深层的焦虑,其实来自大国竞争。

有评论指出,赫格塞思这么强硬,是因为特朗普政府急于在AI军事化上压过中国。

他们怕慢一步,就被对手甩开。

所以宁可撕破脸,也要确保美军能无阻碍地调用最先进AI。

在这种思维下,企业的伦理顾虑,不过是拖后腿的绊脚石。

但这里有个悖论:如果为了快而放弃安全,最后可能反而更慢。

AI一旦出错,造成的误判可能是战略级的。

2023年就有模拟推演显示,高度自动化的指挥系统在遭遇对抗性攻击时,可能在几分钟内触发不可逆的升级。

Anthropic的谨慎,恰恰是为了避免这种灾难。

可五角大楼似乎觉得,只要别人还没出事,我们就得冲在最前头。

这场对峙,表面看是合同纠纷,实质是两种未来观的碰撞。

一边相信技术必须服从国家意志,速度压倒一切;另一边坚持,再强大的工具也得有人类的缰绳。

美国过去几十年的科技霸权,靠的不只是创新速度,还有制度信任——企业敢投入,因为知道规则清晰;政府敢采购,因为知道技术可控。

现在五角大楼的做法,正在亲手砸碎这种信任。

想想看,如果今天能对Anthropic动用《国防生产法》,明天是不是就能对芯片厂、云服务商、甚至大学实验室下手?

一旦开了这个口子,“国家安全”就成了万能钥匙,可以打开任何一扇门,拿走任何一件东西。

企业还敢研发真正前沿的技术吗?

谁愿意花十年做出一个可能被政府一句话就收走的产品?

Anthropic的抵抗,其实是在替整个科技行业守住一道防线。

它不是反对军方用AI,而是反对无条件开放。

它要求的,不过是在合同里明确排除两类高危场景。

这算过分吗?

OpenAI和谷歌虽然签了字,但他们的模型还没进机密系统,风险感知完全不同。

Claude已经在战场上用了,责任也重得多。

这时候还要求它放弃所有限制,等于逼它赌国运。

五角大楼的焦虑可以理解,但手段太糙。

真正的技术领先,不该靠胁迫维持。

当年曼哈顿计划能成功,不是因为军方强抢科学家,而是顶尖人才自愿集结,相信目标正义、过程可控。

今天如果只靠威胁和标签逼企业就范,短期或许能拿到代码,长期却会吓跑人心。

AI竞赛比的不是谁先部署,而是谁的系统更可靠、更可持续。

一个靠强制征用堆起来的AI帝国,地基是沙子做的。

再说回那个“供应链风险”的标签。

给本土公司贴这种标签,等于承认美国自己的科技生态出了问题。

如果连Anthropic这种彻头彻尾的美国企业都被视为威胁,那五角大楼到底信谁?

难道以后所有AI合同都只能给政府全资控股的子公司?

那还谈什么创新?

硅谷的活力,从来就建立在公私协作的基础上。

现在一刀切,等于自断经脉。

有意思的是,这场风波里,没人质疑Claude的能力。

恰恰相反,正是因为太好用,才惹来这么多麻烦。

美军在委内瑞拉的行动依赖它,说明它确实解决了真实痛点。

可正因如此,才更该小心对待。

越是关键的工具,越需要明确边界。

医院里的手术刀,也得有使用规范,不能因为救命就随便挥舞。

阿莫迪的公开信,其实留了余地。

他没说“永不合作”,而是强调“现阶段不应纳入”两类场景。

这是一种动态评估的态度——等技术成熟了,规则也可以调整。

但五角大楼不要这种弹性,它要的是绝对控制。

这种思维,本质上还是工业时代的——把AI当成坦克或步枪,买了就能用。

可AI不是静态武器,它是活的系统,会学习、会演化、会犯错。

用管理F-35的方式管理Claude,注定会出问题。

特朗普政府推动AI军事化的急迫感,背后是对中国技术追赶的恐惧。

但恐惧不该成为粗暴行事的理由。

中国在AI领域确实在加速,可美国最大的优势从来不是速度,而是生态。

大学、企业、军方之间的良性循环,才是创新的源泉。

现在为了短期战术优势,破坏这个生态,等于杀鸡取卵。

Anthropic的坚持,看似固执,实则是对美国科技传统的一种守护。

它提醒人们:技术再强大,也不能脱离人的判断。

完全自主的武器,不只是技术问题,更是道德悬崖。

一旦跨过去,就再也回不了头。

五角大楼说“不打算开发”,可如果连模型访问权限都不受控,谁能保证某个战场指挥官不会在压力下绕过限制?

Anthropic要的,不过是一道保险栓。

这场拉锯战,短期内恐怕难有赢家。

五角大楼真把Anthropic踢出局,就得找替代方案,可目前根本没有同等水平的模型能立刻顶上。

强行征用又可能引发法律大战,甚至导致Claude团队集体退出维护——一个没人维护的AI,在战场上就是定时炸弹。

而Anthropic如果彻底失去军方订单,商业前景也会受挫。

两边都在赌对方先眨眼。

但历史经验告诉我们,当国家权力和技术伦理发生冲突时,往往是后者先退让。

可这次不一样。

AI的特殊性在于,它的错误成本太高。

一次误判,可能就是一场战争。

Anthropic的红线,不是矫情,是底线。

五角大楼如果真在乎国家安全,就该坐下来谈规则,而不是挥舞大棒。

说到底,美国正在面对一个它从未准备好回答的问题:当最强大的工具掌握在私营公司手中,国家该如何与之共处?

是把它国有化,还是建立新的契约?

Anthropic事件,就是这个问题的第一次大考。

可惜,五角大楼选择了最原始的方式——威胁。

这种方式或许能赢下一场战役,但会输掉整场战争。

技术从来不只是技术。

它嵌在制度里,长在信任中。

没有信任的强制合作,就像没有地基的房子,风一吹就倒。

Claude今天能在机密系统运行,是因为Anthropic花了几年时间证明它的可靠性。

这种信任,不是靠《国防生产法》能夺走的。

五角大楼如果真动用那部法律,得到的可能只是一个空壳——代码还在,灵魂已死。

Anthropic的抵抗,不是反美,恰恰是最美国的举动:在权力面前,坚持原则。

这种精神,曾经造就了硅谷的黄金时代。

现在,它正面临前所未有的考验。

五角大楼以为自己在争取控制权,其实是在测试整个创新体系的韧性。

如果连一家本土AI公司都要被当作潜在敌人对待,那未来的创业者还会相信这个系统吗?

答案可能很快揭晓。

但无论结果如何,这件事已经留下了一个深刻的印记:当国家开始用对待敌人的手段对待自己的科技先锋,它的衰落,或许就从那一刻开始了。

美国政府最终会发现,真正的国家安全,不在于能否强制征用一个模型,而在于是否还能吸引最聪明的人心甘情愿地为它创造下一个模型。

Anthropic没退。

相关内容

热门资讯

小米总裁回应人形机器人上岗 来源:北京日报客户端 【#小米总裁回应人形机器人上岗#】#小米人形机器人5年内批量进入产线#3月2日...
让OPC更专注内容生产,杨浦政... “对短剧、游戏垂类智能体提供千万级专属tokens券(模型调用费代金券)太诱人,相信复兴岛很快会在O...
月亮变红了!天文学家揭开“血月... 你有没有过这样的瞬间:深夜抬头,月亮不是银白而是带着暗红,像被铺上一层远方火光的余晖?这就是人们常说...
“本源司南”开放构建量子计算生... 近日,我国首款自主研发量子计算机操作系统“本源司南”正式开放线上下载。这是全球首个开放下载的量子计算...
成立3年出货量全球第一,上海人... 去年春晚还只是在全国观众面前扭秧歌的人形机器人,在此次马年春晚上集中升级亮相,再次受到各界关注。随着...