
2026年3月18日,美国国防部(DOD)正式对外宣称,AI初创公司Anthropic对美国国家安全构成“不可接受的风险”。这一表态是国防部首次回应Anthropic针对上月国防部长Pete Hegseth将其列为供应链风险提起的诉讼,标志着双方围绕AI军用的分歧正式升级为司法对抗。
这场争端的源头要追溯到2025年夏天,Anthropic与五角大楼签署了一份价值2亿美元的合同,约定将其AI技术部署到机密系统中。但在后续的合同条款谈判中,Anthropic明确划出了两条“红线”:反对其AI系统被用于对美国民众的大规模监控,同时认为当前技术尚未成熟,不应被用于致命武器的目标识别或开火决策。
国防部对此持强烈反对态度,认为私营企业无权决定军方如何使用采购的技术。在提交给加州联邦法院的40页文件中,国防部提出了核心担忧:如果企业认为自身的“红线”被触碰,Anthropic可能会在作战行动前或进行中“试图禁用其技术,或预先改变模型行为”,这将直接影响军事行动的开展。
面对国防部的指控,Anthropic方面迅速做出回应。其发言人引用了CEO Dario Amodei在2月底的声明,强调“Anthropic清楚是战争部而非私营企业做出军事决策,我们从未对特定军事行动提出异议,也从未试图以临时方式限制技术的使用”。
法律界人士也对国防部的指控提出了质疑。专攻第一修正案问题的前司法部律师Chris Mattei指出,国防部所谓Anthropic可能在战时干扰AI模型的担忧,并没有任何调查证据支持。他认为,政府完全是在基于“推测性的想象”来为这一严重的法律举措辩护,甚至未能清晰解释为何Anthropic拒绝接受“所有合法用途”条款就使其成为供应链风险,而非只是国防部不愿合作的供应商。
Anthropic的立场也获得了广泛的行业和法律界支持。包括OpenAI、谷歌、微软在内的多家科技公司及其员工,以及多个法律权利组织都提交了法庭之友意见书,声援Anthropic。不少观点认为,国防部完全可以选择终止合同,而非将其列为供应链风险这种带有敌对性质的标签。
Anthropic在诉讼中指控国防部侵犯了其第一修正案权利,认为这是对公司拒绝接受政府条款的报复性惩罚。Mattei进一步指出,政府站不住脚的论点恰恰证明,其行为本质上是对Anthropic表达自身立场的打击。
目前,法院已定于下周举行听证会,审理Anthropic要求临时禁止国防部执行供应链风险标签的请求。Anthropic方面表示,寻求司法审查并不改变其“利用AI保护国家安全的长期承诺”,但这是保护企业、客户和合作伙伴的必要步骤。
这场争端不仅关乎一家AI公司的商业利益,更触及了AI伦理与国家安全的核心矛盾:当AI技术越来越多地应用于军事领域,私营企业是否有权设定技术使用的伦理边界?政府在采购AI技术时,又该如何平衡军事需求与技术伦理?这些问题的答案,将对未来AI军用的发展方向产生深远影响。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/mei-guo-guo-fang-bu-yu-anthropic-de-ai-an-quan-zheng-duan