GOV / FIELD REPORTS · № 03
CASE FILE USCENTCOM · MAVEN SMART SYSTEM 2026 MARCH · IRAN OPERATIONS

被你禁止的工具 正在你的战场上 运行

2026 年 3 月,Anthropic 的 Claude 在美国对伊朗的军事行动中协助识别1,000 余处打击目标
与此同时,Anthropic 自己被同一个政府列为"国家安全供应链风险"——
一个此前历史上只用于华为、卡巴斯基的标签。
这不是一个关于 AI 有多强大的故事,是一个关于 AI 公司面临真正生死抉择时会发生什么的第一个有完整文档记录的案例。
TARGETS · FIRST 24H
1,000+
INCLUDING ONE SCHOOL
SUPPLY-CHAIN TIER
RISK
PEER LIST: HUAWEI · KASPERSKY
REDLINE FRAMEWORK
2
LINES · NEITHER COVERS THIS
CHANNEL
PALANTIR
VIA MAVEN SMART SYSTEM
§ 01 / PARADOX

悖论的结构

自 ChatGPT 出现以来,AI 公司维持着一种默契:我们支持负责任的 AI,我们不做"不好的事情"。每家公司都有安全团队、伦理委员会、使用政策,写得极为认真,充满了"不会用于大规模杀伤性武器"的郑重承诺。

但 2026 年 3 月的伊朗战场上,这套框架遭遇了第一次真正的现实检验,结果令人不安。

据 Futurism、CBS News、CNBC 多家媒体交叉报道,美国中央司令部通过 Palantir Maven Smart System 调用了 Anthropic 的 Claude,用于"评估情报、模拟兵棋推演、协助确定打击目标"。首 24 小时内超过 1,000 处目标被确认——其中一处是一所小学。

Anthropic 的红线是:不得用于监控美国本国公民,不得用于全自主致命武器

"协助人类操作员选择打击目标",不在这两条线的范围内。

§ 02 / COLLAPSE

伦理框架失效的
三种机制

MECHANISM 01

定义的漏洞

Anthropic 的红线是"全自主致命武器"。但 AI 辅助的人类决策链条,即便 AI 提供了 90% 的情报分析和目标建议,不构成"全自主"。这个漏洞内嵌在所有当前 AI 公司安全政策中:"人类保持在环"成了任何军事应用都能用的通行证。

MECHANISM 02

商业逻辑的路径依赖

Anthropic → Palantir → Pentagon。每一层都可以说"我们不知道下游的具体用途"。Spencer Ackerman 的比喻尖刻而准确:"当你把车床卖给末日博士,你对他用它造 Doombot 负有什么责任?"

MECHANISM 03

政治压力与商业激励共振

在禁令之前,Anthropic 实际上已经是在拒绝政府要求后被惩罚。Pentagon 要求放弃对监控和自主武器的限制,Anthropic 拒绝,随后被列入黑名单。伦理边界成了谈判筹码,而不是真正的底线。

当你把车床卖给末日博士,
你对他用它造 Doombot 负有什么责任
— SPENCER ACKERMAN · ON THE CLAUDE / IRAN INCIDENT
§ 03 / DESIGNATION

一个曾只属于
敌国的称号

Pentagon 将 Anthropic 列为"供应链风险(Supply Chain Risk)"。这个称号此前历史上只用于中国华为、俄罗斯卡巴斯基等被视为外国敌对势力的企业。

将美国本土 AI 公司列为供应链风险,其象征意义远超实际禁令本身:

这是 AI 公司第一次亲身经历:坚守伦理原则是有商业代价的,而且代价来自最有能力支付的那批客户

§ 04 / IMPLICATIONS

三层启示

FOR · AI 公司

"使用政策"不等于"真实约束"。Anthropic 的案例表明,红线需要在合同层面(不只是 ToS 层面)、在技术层面(能力限制 / 监控)同时落地,否则它就只是公关文件。

FOR · 采购 AI 的企业

供应商的政治风险正在成为采购决策的新变量。如果你的业务涉及政府合同,你的 AI 供应商与政府的关系可能直接影响你的资质。这是 2025 年前几乎没有企业考虑过的风险维度。

FOR · AI 治理

这一案例很可能成为国际 AI 军备控制讨论的引爆点。欧盟 AI 法案的军事豁免条款、联合国层面的 AI 战争规则倡议,都将以 Claude-伊朗事件作为参照系被重新讨论。

§ 05 / FIRST FRACTURE

不是结局
开始

Anthropic 目前正在法院寻求临时禁令,要求暂停 Pentagon 的供应链风险认定。这场法律战的结果将直接影响:商业 AI 公司是否有权以伦理为由拒绝政府客户,而不遭受政府报复

同一周,AIUC(AI 保险公司)发布 AIUC-1 标准,ElevenLabs 成为首个获得 AI Agent 保险的公司。这不是巧合——保险和认证标准的出现,本身就是"AI 正在承担真实世界后果"的系统性信号。

AI 武器化的问题不会因为这场官司的输赢而消失。
这只是第一道裂缝