定义的漏洞
Anthropic 的红线是"全自主致命武器"。但 AI 辅助的人类决策链条,即便 AI 提供了 90% 的情报分析和目标建议,不构成"全自主"。这个漏洞内嵌在所有当前 AI 公司安全政策中:"人类保持在环"成了任何军事应用都能用的通行证。
自 ChatGPT 出现以来,AI 公司维持着一种默契:我们支持负责任的 AI,我们不做"不好的事情"。每家公司都有安全团队、伦理委员会、使用政策,写得极为认真,充满了"不会用于大规模杀伤性武器"的郑重承诺。
但 2026 年 3 月的伊朗战场上,这套框架遭遇了第一次真正的现实检验,结果令人不安。
据 Futurism、CBS News、CNBC 多家媒体交叉报道,美国中央司令部通过 Palantir Maven Smart System 调用了 Anthropic 的 Claude,用于"评估情报、模拟兵棋推演、协助确定打击目标"。首 24 小时内超过 1,000 处目标被确认——其中一处是一所小学。
Anthropic 的红线是:不得用于监控美国本国公民,不得用于全自主致命武器。
"协助人类操作员选择打击目标",不在这两条线的范围内。
Anthropic 的红线是"全自主致命武器"。但 AI 辅助的人类决策链条,即便 AI 提供了 90% 的情报分析和目标建议,不构成"全自主"。这个漏洞内嵌在所有当前 AI 公司安全政策中:"人类保持在环"成了任何军事应用都能用的通行证。
Anthropic → Palantir → Pentagon。每一层都可以说"我们不知道下游的具体用途"。Spencer Ackerman 的比喻尖刻而准确:"当你把车床卖给末日博士,你对他用它造 Doombot 负有什么责任?"
在禁令之前,Anthropic 实际上已经是在拒绝政府要求后被惩罚。Pentagon 要求放弃对监控和自主武器的限制,Anthropic 拒绝,随后被列入黑名单。伦理边界成了谈判筹码,而不是真正的底线。
当你把车床卖给末日博士,
你对他用它造 Doombot 负有什么责任? — SPENCER ACKERMAN · ON THE CLAUDE / IRAN INCIDENT
Pentagon 将 Anthropic 列为"供应链风险(Supply Chain Risk)"。这个称号此前历史上只用于中国华为、俄罗斯卡巴斯基等被视为外国敌对势力的企业。
将美国本土 AI 公司列为供应链风险,其象征意义远超实际禁令本身:
这是 AI 公司第一次亲身经历:坚守伦理原则是有商业代价的,而且代价来自最有能力支付的那批客户。
"使用政策"不等于"真实约束"。Anthropic 的案例表明,红线需要在合同层面(不只是 ToS 层面)、在技术层面(能力限制 / 监控)同时落地,否则它就只是公关文件。
供应商的政治风险正在成为采购决策的新变量。如果你的业务涉及政府合同,你的 AI 供应商与政府的关系可能直接影响你的资质。这是 2025 年前几乎没有企业考虑过的风险维度。
这一案例很可能成为国际 AI 军备控制讨论的引爆点。欧盟 AI 法案的军事豁免条款、联合国层面的 AI 战争规则倡议,都将以 Claude-伊朗事件作为参照系被重新讨论。
Anthropic 目前正在法院寻求临时禁令,要求暂停 Pentagon 的供应链风险认定。这场法律战的结果将直接影响:商业 AI 公司是否有权以伦理为由拒绝政府客户,而不遭受政府报复。
同一周,AIUC(AI 保险公司)发布 AIUC-1 标准,ElevenLabs 成为首个获得 AI Agent 保险的公司。这不是巧合——保险和认证标准的出现,本身就是"AI 正在承担真实世界后果"的系统性信号。
AI 武器化的问题不会因为这场官司的输赢而消失。
这只是第一道裂缝。