Một thẩm phán liên bang tạm thời ngăn chặn Bộ Quốc phòng đưa Anthropic vào danh sách đen, xác định đó là hành động trả thù vi hiến, kế hoạch IPO trị giá 380 tỷ USD của ông lớn AI vẫn tiếp tục.
Ngành AI của Mỹ gần đây đã có một chiến thắng tư pháp mang tính biểu tượng. Thẩm phán liên bang California Rita Lin đã chính thức ban hành lệnh cấm tạm thời vào thứ Năm tuần trước (26/3), ngăn chặn chính quyền Trump đưa ông lớn AI Anthropic vào danh sách đen rủi ro chuỗi cung ứng. Quyết định này thách thức trực tiếp chỉ thị hành chính của Bộ Quốc phòng và Bộ trưởng Quốc phòng Pete Hegseth, thẩm phán đã chỉ trích mạnh mẽ trong bản quyết định, chỉ ra rằng hành động của chính phủ gán nhãn một công ty nội địa của Mỹ là “đối thủ tiềm tàng” và “kẻ phá hoại” mang tính chất châm biếm cao.
Rita Lin nhấn mạnh rằng khung pháp lý hiện tại không hỗ trợ cho loại logic hành chính “Orwellian” này. Hệ thống hành chính chỉ vì doanh nghiệp thể hiện quan điểm khác với chính phủ mà coi đó là mối đe dọa an ninh quốc gia rõ ràng đã vượt quá giới hạn được ủy quyền. Tòa án yêu cầu chính phủ liên bang phải ngay lập tức ngừng thực hiện các hạn chế liên quan, và phải nộp báo cáo tuân thủ trước ngày 6 tháng 4, giải thích cách thức thực hiện việc dỡ bỏ lệnh cấm.
Trọng tâm của cuộc chiến pháp lý này liên quan đến việc chính phủ có lợi dụng danh nghĩa an ninh quốc gia để thực hiện hành động trả thù lời nói hay không. Theo dữ liệu mà tòa án tiết lộ, Bộ Quốc phòng (hay còn gọi là Bộ Chiến tranh) đã xử lý Anthropic chủ yếu dựa trên các phát biểu công khai của công ty trên truyền thông, mà không tiến hành đánh giá an toàn kỹ thuật nghiêm ngặt. Thẩm phán chỉ ra rằng việc trừng phạt Anthropic đã gây ra sự chú ý của công chúng đối với quan điểm hợp đồng của chính phủ, thuộc về hành động trả thù vi phạm Tu chính án thứ nhất của hiến pháp. Tại phiên điều trần diễn ra vào thứ Ba ở San Francisco, Rita Lin đã thắc mắc về ngưỡng mà chính phủ định nghĩa doanh nghiệp là “mối đe dọa” là quá thấp.
Cô cho rằng nếu Bộ Quốc phòng có lo ngại về việc kiểm soát công nghệ, thì họ có thể ngừng sử dụng mô hình Claude, việc gán nhãn “rủi ro chuỗi cung ứng” mang tính nhục mạ và hủy diệt là không phù hợp. Quyết định này tạm thời khôi phục vị thế hợp tác giữa Anthropic và các nhà thầu liên bang, thiết lập một chiếc ô bảo vệ pháp lý cho các doanh nghiệp AI trong tương lai khi đối diện với áp lực từ chính phủ.
Trở lại nguồn gốc của cuộc xung đột này, nó bắt nguồn từ một hợp đồng trị giá 200 triệu USD mà Anthropic ký kết với Bộ Quốc phòng vào tháng 7 năm 2025. Khi đó, hai bên đã thỏa thuận cho Claude trở thành mô hình AI tiên tiến đầu tiên được phép hoạt động trên mạng bí mật.
Tuy nhiên, mối quan hệ hợp tác của hai bên đã tuyên bố đổ vỡ vào tháng 2 năm 2026. Bộ Quốc phòng đã cố gắng đàm phán lại các điều khoản hợp đồng, yêu cầu Anthropic dỡ bỏ tất cả các hạn chế, cho phép quân đội sử dụng Claude cho tất cả các mục đích hợp pháp. Anthropic, luôn tự hào về sự an toàn của AI, đã giữ vững lập trường, từ chối áp dụng công nghệ của mình cho các hệ thống vũ khí tự động chết người và các hoạt động giám sát nội địa quy mô lớn đối với công dân Mỹ. Ban lãnh đạo công ty cho rằng các mô hình AI hiện tại trong những ngành nhạy cảm này chưa đủ an toàn và chính xác, việc đưa vào chiến trường hoặc giám sát sẽ gây ra hậu quả thảm khốc.
Sau đó, tình hình nhanh chóng leo thang, phản ứng của hệ thống hành chính thể hiện sự cảm xúc mạnh mẽ. Vào ngày 24 tháng 2, Bộ trưởng Quốc phòng Hegseth đã đưa ra tối hậu thư cho Anthropic trong một cuộc họp, đe dọa nếu không dỡ bỏ các hạn chế, sẽ lập tức áp dụng các biện pháp trừng phạt. Sau khi Anthropic từ chối nhượng bộ, Tổng thống Trump vào ngày 27 tháng 2 đã công khai chỉ trích công ty này trên Truth Social là “các doanh nghiệp cấp tiến trái chiều, thức tỉnh”, và cáo buộc họ cố gắng đe dọa Bộ Quốc phòng, ngay lập tức ra lệnh cho tất cả các cơ quan liên bang ngừng sử dụng sản phẩm của Anthropic.
Ngay sau đó, Hegseth đã mô tả lập trường của Anthropic là “kiêu ngạo và phản bội”, và chính thức phát hành nhãn hiệu rủi ro chuỗi cung ứng. Hình thức cực đoan này thường chỉ được áp dụng cho các cơ quan tình báo nước ngoài hoặc tổ chức khủng bố, lần đầu tiên được áp dụng cho một công ty công nghệ nội địa của Mỹ. Các chuyên gia cho rằng hành động vũ khí hóa pháp luật này phản ánh sự nóng vội của hệ thống hành chính khi đối mặt với thách thức về đạo đức công nghệ.
Mặc dù bị cuốn vào cơn bão chính trị và pháp lý, Anthropic vẫn thể hiện sức mạnh trong thị trường vốn, cho thấy sự kiên cường mạnh mẽ. Dữ liệu tính đến năm 2025 cho thấy, Anthropic chiếm 32% thị phần trong thị trường AI doanh nghiệp, dẫn đầu OpenAI với 25%, đứng đầu ngành. Trong vòng gọi vốn 30 tỷ USD vừa hoàn thành vào tháng 2 năm nay, công ty AI ngôi sao này đã tăng giá trị lên 380 tỷ USD, vòng gọi vốn này được dẫn dắt bởi quỹ tài sản quốc gia MGX.
Trong khi đó, các ông lớn công nghệ như Alphabet, Google, Amazon, Microsoft và Nvidia đều đã thiết lập mối quan hệ đối tác sâu sắc với Anthropic, tổng số tiền đầu tư và giao dịch cơ sở hạ tầng lên tới hàng chục tỷ USD. Sự hỗ trợ của những gã khổng lồ Silicon Valley này đã cung cấp cho Anthropic sức mạnh kinh tế để chống lại áp lực chính trị.
Quyết định mới nhất của tòa án đã mở đường cho Anthropic đến với thị trường công khai. Các nguồn tin cho biết, Anthropic đang tăng tốc thực hiện kế hoạch IPO (phát hành cổ phiếu lần đầu), có thể sớm niêm yết vào tháng 10 năm 2026, dự kiến huy động số tiền vượt quá 60 tỷ USD. Hiện tại, Goldman Sachs, JPMorgan và Morgan Stanley đều được liệt kê là các cố vấn bảo lãnh tiềm năng.
Các chuyên gia pháp lý chỉ ra rằng, nếu lệnh cấm danh sách đen của chính phủ vẫn tiếp tục hiệu lực, sẽ làm giảm đáng kể thị phần của Anthropic, gây tổn hại đến sự tự tin của nhà đầu tư. Giờ đây, thẩm phán đã quyết định lệnh cấm vi hiến, bảo vệ lợi ích thương mại của công ty. Điều này cũng truyền tải một thông điệp đến thị trường: Việc doanh nghiệp kiên định với đạo đức an toàn AI nên được pháp luật bảo vệ, không nên trở thành cái cớ cho chính phủ đàn áp.
Ngoài cuộc chiến pháp lý, bước tiến mở rộng cơ sở hạ tầng của Anthropic vẫn không ngừng lại. Google đang lên kế hoạch hỗ trợ một dự án trung tâm dữ liệu trị giá 5 tỷ USD tại Texas và sẽ cho Anthropic thuê toàn bộ. Khu vực này rộng 2.800 mẫu Anh được điều hành bởi Nexus Data Centers, dự kiến vào cuối năm 2026 sẽ cung cấp khoảng 500 triệu watt (MW) công suất điện, đủ để hỗ trợ nhu cầu sử dụng điện của 500.000 hộ gia đình, với tiềm năng mở rộng lên đến 7,7 tỷ watt (GW). Dự án này có vị trí địa lý thuận lợi, gần các đường ống khí tự nhiên chính, có thể sử dụng tuabin khí tại chỗ để tự cung cấp điện, đảm bảo độ tin cậy cao cho khả năng tính toán AI. Kế hoạch hạ tầng lớn này cho thấy sự quyết tâm đầu tư lâu dài vào AI của ngành công nghệ.
Ngoài ra, theo báo cáo từ phương tiện truyền thông nước ngoài, bên trong quân đội Mỹ đã phát sinh sự phụ thuộc vào mô hình Claude. Ngay cả khi Nhà Trắng đã ban hành lệnh cấm nghiêm ngặt, Bộ Tư lệnh Trung ương Mỹ (CENTCOM) vẫn tiếp tục sử dụng mô hình AI của Anthropic để hỗ trợ các hoạt động không kích gần đây đối với Iran. Điều này phơi bày sự mất cân bằng giữa chính sách của chính phủ và nhu cầu thực tế trên chiến trường.
Các bộ phận hành chính đã coi nó là rủi ro do lập trường chính trị, trong khi các đơn vị thực chiến lại lựa chọn dựa vào công nghệ ưu việt của nó. Việc xây dựng trung tâm dữ liệu và ứng dụng thực chiến đã chứng minh tầm quan trọng của Anthropic. Khi tòa án khôi phục danh tính nhà cung cấp liên bang của mình, ông lớn AI này sẽ tiếp tục phát triển trong sự cân bằng giữa đạo đức công nghệ và lợi ích quốc gia, và đối phó với khả năng kháng cáo của chính phủ trong tương lai.