在过去的一周中,旧金山的一名联邦法官阻止了五角大楼和特朗普政府对人工智能(AI)公司Anthropic实施国家安全认定,该公司拒绝从其Claude模型中移除安全限制。
美国地方法官Rita F. Lin于3月26日发布了初步禁令,认为政府对Anthropic的行为可能违反了第一修正案,剥夺了该公司的正当程序,并超出了《行政程序法》下的法定权限。该裁决暂缓七天,给予政府大约到4月2日的时间向第九巡回法院提出紧急上诉。
争议始于国防部(DoD)寻求对Claude的无限制访问以供联邦使用。Anthropic长期以来在其可接受使用政策中保持了两个例外:Claude不会用于对美国公民的全国性监视或用于没有有意义人类监督的致命自主武器系统。国防部要求移除这些保护措施。Anthropic拒绝了。
谈判在2025年末破裂。冲突通过首席执行官Dario Amodei的书面声明和一篇概述公司对AI安全立场的文章而公开。国防部官员认为这些限制是Anthropic试图指挥政府政策。
2026年2月27日,特朗普总统在Truth Social上发布,指示所有联邦机构立即停止使用Anthropic技术,并设定六个月的逐步淘汰期。国防部长Pete Hegseth宣布根据10 U.S.C. § 3252实施供应链风险认定——这一法规以前适用于外国对手——将Anthropic标记为“破坏”和“颠覆”的潜在风险。
在该认定之后,几家联邦承包商暂停或终止了与该公司的交易。Anthropic于3月9日在加利福尼亚北区提起诉讼,指控报复、正当程序违规和APA违反。相关行动在D.C.巡回法院提起。
在一份43页的命令中,Lin法官禁止国防部、其他17个联邦机构和Hegseth部长实施或执行任何有争议的行动。她命令恢复现状,允许Anthropic继续现有的联邦合同和合作关系。
Lin写道,政府的行为代表了“典型的非法第一修正案报复”。她指出,这些行动的时机,以及政府内部通信中提到的Anthropic的“言辞”、“傲慢”和“强逼”,直接指向与公司关于AI安全的公开声明相关的惩罚意图。
在正当程序方面,法院发现政府在没有提供事先剥夺通知或听证的情况下剥夺了Anthropic在声誉和商业运作中的自由利益。Lin还发现,该法定认定在这些情况下从未适用于美国公司,并且在对Anthropic的先前政府审查中。
这包括最高机密安全许可、FedRAMP授权和价值高达2亿美元的合同——显示没有真正的安全担忧。“没有任何法律条款支持这种奥威尔式的观念,即一个美国公司可能因为与政府表达不同意见而被贴上潜在对手和破坏者的标签,”Lin写道。
法院发现对Anthropic的潜在财务损害在数亿美元到数十亿美元之间,以及声誉损害,金钱赔偿无法完全修复。来自军事领导人和AI研究人员的Amici简报引用了对国防准备和更广泛AI安全辩论的风险。
Anthropic表示感谢法院的迅速裁决,并计划继续与联邦政府合作。该公司表示,其目标仍然是确保美国人能够接触到安全可靠的AI。
该禁令并未解决根本的合同争议。尚未发布最终裁决。D.C.巡回法院的单独挑战仍在等待中,政府仍有选择上诉的权利。