五角大楼把 Anthropic 列入供应链风险名单
AI BusinessAI Organization

五角大楼把 Anthropic 列入供应链风险名单

E
Emil Michael (Under Secretary of War for Research and Engineering) | 主持人: Chamath Palihapitiya, Jason Calacanis, David Friedberg
2026年3月6日YouTube
返回首页

金句精选

「我们是国防部,不是 FBI。法律上你不能监视美国人,所以他们提的大规模监控问题根本不成立。」

「你的模型正在被中国人窃取。他们会去掉护栏直接用来对付我们,而你却希望我们的模型能力比你们的弱。」

「这就像买电池——如果你需要合法使用,那就够了。除非你是和平主义者,不想参与武器销售,那就别卖给国防部。」

「他们问 Palantir『你们的软件在马杜罗突袭中被用了吗』,这是机密信息,暗示如果用了可能违反服务条款。」

「Anthropic 有自己的宪法,有自己的灵魂。那不是美国宪法,所以你要服从它,还有它随时可能变化的想法。」

马杜罗突袭行动结束后,Anthropic 的一位高管打电话给 Palantir,问了一个问题:「你们的软件在那次行动中被用了吗?」

这是机密信息。

更关键的是,这个问题背后的暗示——如果用了,可能违反 Anthropic 的服务条款。

Emil Michael 是美国国防部负责研究与工程的副部长,前 Uber 融资操盘手。他拿到这个消息时的第一反应是:「如果下次作战中,这软件突然断了,某个护栏弹出来,某个拒绝指令触发了,我们的人怎么办?」

他把这件事报告给国防部长 Pete Hegseth。整个五角大楼高层都意识到:我们严重依赖一个软件供应商,而它有权利也有能力随时关掉服务。

3 月 7 日,五角大楼正式通知 Anthropic:你们被列为供应链风险。

这是美国公司头一次收到这个designation。之前只有华为、俄罗斯公司拿到过。

三个月的谈判

去年 8 月,Emil 接手国防部 AI 项目组合。律师出身,他要的第一件事就是看合同。

翻开 Anthropic 的合同,20 页的限制条款。

不能用 AI 模型规划动能打击。不能用来移动卫星。不能用来做涉及「对人类造成伤害」的战争推演。

Emil 的反应是:「你知道这些人是干什么的吗?这是国防部。这就是我们的工作。」

他开始跟 Anthropic 谈。谈了三个月。

Emil 给出场景:中国高超音速导弹发射,90 秒内分离出大量诱饵,你要从太空击中它。人类反应速度不够,眼睛也分辨不出哪个是真弹头。这种情况能用 AI 吗?

Anthropic 说:「可以,我们给你一个例外。」

Emil 又问:无人机集群呢?

「也可以,再给你一个例外。」

Emil 说:「例外清单不行。我没法预测未来 20 年我们会用 AI 做什么。给我『所有合法用途』不就完了?国会想立法,我们配合。我们有自己的内部政策,我们会遵守。我们不是莽夫,不会无谓伤害平民。」

谈判陷入僵局。

Anthropic 最后选择的战场是两个:全自主武器(murder bots)和大规模监控美国人。

Emil 听到「大规模监控」时笑了:「我们是国防部,不是 FBI,不是国土安全部,不是 ICE。法律上你不能监视美国人。」

具体到条款,Anthropic 不希望国防部用他们的 AI 批量采集公开信息。Emil 问:「所以如果有人输入 Chamath 的 LinkedIn,用公开信息,我就违反了你的服务条款?」

「呃……好吧,我们重新写。」

又是几个月。

权力的归属

这场争议的本质不是技术,是权力。

Dario Amodei 想要的是审批权。Emil 给出 Golden Dome 场景(太空拦截高超音速导弹)、无人机集群场景时,Dario 的回应是:「如果你需要其他例外,给我打电话。」

Emil 当时在一个 20 人的会议室里,他说:「如果气球升空,我们必须做出决定性行动,我不会打电话问你能不能做。这不合理。」

Dario 想当战争部长。

问题是,Anthropic 的模型部署在 AWS GovCloud,通过 Palantir 服务。但 Anthropic 控制着 control plane。他们可以随时改变模型权重,可以做任何事。

这不只是政府的问题。Chamath 在节目里举了个例子:

假如一个州想运行医疗项目,但这是个反堕胎州。Anthropic 的工程师能不能说「我们支持选择权,所以我们要改变这个州的模型访问能力和功能」?

从法律角度,这是私人公司,他们可以选择。

但对政府、州、城市、每家公司来说,这意味着你不能只依赖一个这样的东西。因为早晚某个人会进行某种疯狂的道德圣战,然后让你的业务陷入风险——跟法律无关,纯粹是主观判断。

这是上周五这件事撕开的巨大裂口。

其他公司怎么做

Emil 给 Elon Musk 打电话。Grok 对所有合法用途开放,覆盖所有机密和非机密网络。

给 Google 打电话。同意所有合法用途,正在机密网络上构建基础设施。

给 Sam Altman 打电话。Sam 的第一反应是:「我能为国家做什么?」

Sam 甚至试图保护 Anthropic。他说:「别用供应链风险这招,对行业不好。让我试试能不能帮他们谈出可接受的条款。」

Emil 说 Sam 在夹缝里——他们竞争同一批研究员,大概 1000 人,像棒球运动员一样在公司间交易。这些是最顶尖的人。你丢 20%,Claude Code 就会比 Codex 早发布,数字变化会很剧烈。

Sam 一边帮 Anthropic 说话,Anthropic 一边骂他、挖他的人。

为什么要列入风险名单

Emil 说得很清楚:这不是惩罚。

「如果他们的模型有这种政策偏见——基于他们的宪法、文化、员工——我不希望洛克希德·马丁用他们的模型给我设计武器。我不希望做元器件的供应商用,因为如果你相信投毒风险、内部威胁风险,它可以进入国防企业的任何环节。」

波音想用 Anthropic 造商用飞机?随便。

波音想用它造战斗机?不行。我不信任输出结果,因为他们太执着于自己的政策偏好。

Anthropic 有自己的宪法,有自己的灵魂。那不是美国宪法。

Dario 后来在一篇 5000 字文章里说,五角大楼和特朗普政府不喜欢 Anthropic 的真正原因是:「我们没给特朗普捐款,而 OpenAI 和 Grok 捐了很多。」

Emil 的回应是:「这可能是我听过最蠢的话之一。我在国防部,我要赢得战争。如果你帮我赢得战争,我不用浪费时间把你换掉,我会很高兴。特朗普总统也没跟我说『嘿 Emil,那些人没给我钱,别用他们了』。这是他自己脑子里编的。」

Emil 花了三个月试图谈判,如果只是想踢走他们,第一天就踢了。

一个建议

Chamath 给 Dario 的建议很简单:

「现在给 Emil 打电话,说『抱歉我们搞砸了。我们会发新闻稿,说我们支持客户将模型用于任何合法用途。我们的服务条款是写在石头上的,你可以指望我们的稳定性和可靠性,这只是个失误』。」

Emil:「这就是我一直想要的。我需要一个可靠、稳定的合作伙伴。」

但 Chamath 补充了一句:「你在周五那篇文章里叫特朗普总统『独裁者』,你要道歉的人不止 Emil 一个。」

节目录制时,Anthropic 刚公布上个月增加了 60 亿美元 ARR。Chamath 的小软件公司 8090 成本三个月翻了三倍——AWS 推理费、Cursor 费、Anthropic 费,每三个月 3 倍增长。

Freedberg 说等 Google 把 Cowork 的虚拟版整合进 G Suite,游戏就结束了。

节目录到一半,Google 宣布:Workspace 现在集成了 agents,包含 40 个 agent 技能。

所有模型在收敛。Emil 说如果到今年 10 月所有模型都一样了,他就可以按价格竞争,保持两到三个主力供应商。

Anthropic 不会是其中之一,如果他们继续现在的姿态。


Biden 政府的 AI 行政令限制了算力,提前指定了少数几家赢家。Anthropic 是其中之一。他们很聪明,向最敏感的政府部门——中央司令部(CENTCOM,现在指挥伊朗作战)、印太司令部(INDOPACOM,负责中国)、几个情报机构——销售,派驻前线工程师,Palantir 式嵌入工作流。

他们变得很 sticky。

然后他们失去了一切。

不是因为技术不够好。Claude Code 确实领先。

是因为他们想当上帝。