Le 9 avril, la cour d’appel fédérale du district de Columbia aux États-Unis a décidé de maintenir le marquage du ministère de la Défense à l’encontre d’Anthropic au titre des « risques pour la chaîne d’approvisionnement », rejetant sa demande de sursis, et la bataille juridique autour des lignes rouges éthiques de l’IA et de la définition de la sécurité nationale n’est pas encore terminée.
(Contexte : le juge donne raison à Anthropic et interdit au ministère américain de sanctionner Claude au moyen de l’« étiquette de risque pour la chaîne d’approvisionnement »)
(Ajout de contexte : Claude, c’est quoi ? Analyse complète : prix, fonctionnalités, Claude Code et Cowork — le guide le plus détaillé d’Anthropic pour 2026)
Table des matières
Toggle
Le 9 avril, la cour d’appel fédérale du district de Columbia aux États-Unis a rejeté la demande de sursis à l’exécution formulée par le géant de l’IA Anthropic, et a décidé de maintenir sa décision de classer Anthropic comme « risque pour la chaîne d’approvisionnement » prise par le ministère de la Défense.
La cour l’a dit sans détour : les intérêts de sécurité nationale du gouvernement dans la gestion de la chaîne d’approvisionnement de l’IA passent avant les pertes financières supportées par Anthropic. Ce marquage, utilisé en général jusqu’alors pour les entreprises d’États ennemis ou des entités présentant des menaces potentielles, vise désormais une licorne de l’IA basée sur le sol américain — un symbole qui ne laisse aucun doute.
L’affaire tire son origine de juillet 2025. Anthropic et le Pentagone signent un contrat de 200 millions de dollars, afin d’intégrer le modèle d’IA Claude de l’entreprise au système Maven, et de contribuer à l’exécution de missions d’analyse du renseignement et d’identification d’objectifs.
Cependant, les négociations entre les deux parties ont échoué en septembre 2025. Anthropic insiste pour établir deux lignes rouges éthiques : refuser d’utiliser Claude dans des systèmes d’armes entièrement automatisés, et refuser de l’utiliser à des fins de surveillance au sein du pays. Ces deux positions entrent en conflit fondamental avec les attentes de l’administration de Trump ; Trump ordonne ensuite, via les réseaux sociaux, aux agences fédérales de cesser d’utiliser les produits d’Anthropic, et fixe une période de transition de 6 mois.
De la fin de 2025 au début de 2026, le ministère de la Défense inscrit officiellement Anthropic sur la liste des risques pour la chaîne d’approvisionnement. Ce marquage coupe directement à Anthropic la possibilité de participer aux contrats de défense du gouvernement.
À l’heure actuelle, cette bataille juridique présente des résultats contradictoires. Le tribunal fédéral de San Francisco avait, fin mars, approuvé une injonction préliminaire permettant à Anthropic de continuer à collaborer avec des organismes gouvernementaux autres que ceux de la défense ; mais la décision du 9 avril de la cour d’appel fédérale du district de Columbia renforce la position de gel du ministère de la Défense, en refusant d’accorder le moindre espace de sursis.
Cela signifie qu’Anthropic se retrouve actuellement coincée dans un vide juridique gênant : autorisée à collaborer avec certaines unités gouvernementales, tout en étant exclue des contrats de défense. Anthropic affirme que cette affaire constitue une forme de représailles politiques et qu’elle enfreint les garanties constitutionnelles ; l’entreprise continuera donc de déposer des recours. Accélérer la procédure d’instruction deviendra l’élément clé de la prochaine étape.
Toutefois, selon un article de l’Electronic Engineering Times, bien qu’Anthropic subisse un choc majeur sur le plan commercial, incapable de participer à des contrats de défense d’envergure, sa persistance sur les principes éthiques reçoit au contraire un accueil positif sur le marché grand public : elle attire davantage d’entreprises et d’utilisateurs individuels qui se préoccupent de la sécurité de l’IA.
L’impact de ce verdict ne se limite pas à une seule entreprise, Anthropic. Il met en évidence une contradiction structurelle plus profonde : lorsque les cadres éthiques des développeurs d’IA entrent en conflit avec la manière dont le gouvernement définit la sécurité nationale, la balance du système juridique actuel penche pour l’instant dans un certain sens, et une réponse préliminaire existe déjà. La décision finale de cette affaire aura une signification de référence considérable sur la façon dont l’ensemble de l’industrie technologique négociera avec le gouvernement les limites d’utilisation de l’IA.