Le conflit entre Anthropic, une société leader dans le domaine de l’intelligence artificielle, et le gouvernement américain s’intensifie rapidement. Mardi, Anthropic présentera son dossier devant un tribunal fédéral pour obtenir une injonction préliminaire contre le ministère de la Guerre et la Maison Blanche, à la suite d’un différend public sur l’utilisation militaire de son modèle Claude AI.
Le problème central : Anthropic a refusé d’autoriser les applications militaires sans restriction de son IA, interdisant spécifiquement son utilisation dans des systèmes d’armes létaux autonomes sans surveillance humaine et surveillance de masse des citoyens américains. En réponse, le gouvernement a qualifié Anthropic de « risque de chaîne d’approvisionnement pour la sécurité nationale » et a mis fin à toute utilisation fédérale de sa technologie.
La bataille juridique : deux fronts
Anthropic riposte sur deux fronts juridiques. Premièrement, il cherche à reconsidérer la désignation de « risque lié à la chaîne d’approvisionnement », arguant qu’il s’agit d’une application sans précédent et illégale d’une politique historiquement réservée aux adversaires étrangers comme Huawei. La société affirme que le fait d’utiliser cette désignation comme arme contre une entreprise nationale en raison de désaccords politiques crée un dangereux précédent.
Deuxièmement, Anthropic soulève des préoccupations concernant le Premier Amendement, affirmant que l’inscription sur liste noire porte atteinte à son droit à la liberté d’expression et de protestation. Cet argument met en évidence une tension croissante entre l’éthique des entreprises et les intérêts de sécurité nationale.
Préoccupations du gouvernement : contrôle et fiabilité
La position du ministère de la Guerre est centrée sur le contrôle opérationnel. Dans des dossiers déposés devant les tribunaux, le gouvernement a exprimé ses craintes qu’Anthropic puisse saboter ses systèmes d’IA – soit en les désactivant complètement, soit en modifiant leur comportement de manière préventive – si l’entreprise estimait que ses « lignes rouges » étaient franchies en temps de guerre.
Cette préoccupation n’a cependant jamais été soulevée lors des négociations contractuelles initiales. Anthropic a obtenu un contrat de 200 millions de dollars avec le Pentagone en 2025, mais a ensuite refusé d’autoriser l’utilisation de son IA pour la surveillance de masse ou les décisions automatisées en matière d’armes. Le changement soudain du gouvernement reflète une volonté de garantir une fiabilité sans faille aux systèmes militaires classifiés.
Implications plus larges : un tournant pour la gouvernance de l’IA
L’affaire suscite une large attention de la part de la communauté de l’IA. Des scientifiques et des chercheurs d’OpenAI, de Google et de Microsoft, ainsi que des groupes juridiques, ont déposé des mémoires soutenant Anthropic. Cela souligne le débat plus large sur qui devrait définir les limites de l’IA : les entreprises privées adhérant aux principes de sécurité interne, ou les autorités publiques donnant la priorité à la sécurité nationale.
Le Pentagone a déjà commencé à se tourner vers des partenaires alternatifs en matière d’IA, notamment OpenAI, xAI et Google. Cependant, l’issue de cette bataille juridique aura des implications durables sur la manière dont les gouvernements réglementent le développement et le déploiement de l’IA.
Les enjeux sont élevés : Cette affaire ne concerne pas seulement une entreprise ; il s’agit d’établir les règles d’une technologie qui façonnera de plus en plus la guerre, la surveillance et l’avenir de la sécurité nationale.




























