La position d’Anthropic contre l’utilisation illimitée de l’IA militaire : une négociation à enjeux élevés

11

Anthropic, une startup leader dans le domaine de l’IA évaluée à 380 milliards de dollars, est aux prises avec un bras de fer tendu avec le département américain de la Défense (Pentagone) au sujet de l’utilisation illimitée de sa technologie. Le principal différend tourne autour d’une clause simple mais cruciale : la question de savoir si l’armée peut déployer l’IA d’Anthropic pour « toute utilisation légale ». Cela accorderait au Pentagone une large autorité pour utiliser l’IA à des fins de surveillance, de systèmes d’armes létales autonomes et d’autres applications actuellement restreintes par les politiques internes de l’entreprise.

Les négociations ont dégénéré en tactiques de pression publique, les responsables du Pentagone ayant apparemment menacé de classer Anthropic comme un « risque pour la chaîne d’approvisionnement » – une désignation généralement réservée aux menaces à la sécurité nationale. Cette décision, pilotée par le directeur technique du Pentagone, Emil Michael, couperait effectivement Anthropic des principaux contrats de défense et forcerait des entreprises comme AWS, Palantir et Anduril à rompre leurs liens. La situation est sans précédent, car le Pentagone menace rarement publiquement les entreprises américaines, encore moins en cas de désaccords politiques.

Pourquoi c’est important

La pression du Pentagone en faveur de « toute utilisation licite » reflète l’urgence croissante d’intégrer l’IA dans les opérations militaires sans limites. Cela soulève des questions fondamentales sur la responsabilité, les limites éthiques et la possibilité que des systèmes d’armes autonomes fonctionnent sans surveillance humaine. Le différend met en évidence la tension entre les progrès technologiques rapides et la nécessité d’une gouvernance responsable de l’IA.

Les principales revendications

Anthropic a tracé deux lignes directrices : elle ne permettra pas que son IA soit utilisée pour des opérations meurtrières entièrement autonomes ou pour une surveillance nationale de masse. L’entreprise affirme que les lois actuelles n’ont pas rattrapé les capacités de l’IA, ce qui pourrait porter atteinte aux libertés civiles. De plus, Anthropic estime que la technologie permettant de créer des armes véritablement autonomes sans intervention humaine n’est pas encore suffisamment fiable pour être déployée.

Le Pentagone est cependant déterminé à éliminer toute restriction. Une récente note du secrétaire d’État Pete Hegseth exige que tous les contrats d’achat d’IA donnent la priorité à la vitesse plutôt qu’à la sécurité, même si cela implique d’accepter un « alignement imparfait ». Le mémo appelle explicitement à intégrer l’IA dans « l’exécution de la chaîne de destruction » et à donner la priorité aux modèles exempts de contraintes d’utilisation. OpenAI, xAI et Google ont déjà renégocié leurs contrats pour se conformer à ces conditions, mais aucun de leurs modèles ne détient actuellement l’habilitation de sécurité la plus élevée requise pour les opérations classifiées du Pentagone.

La position unique de Claude

Le modèle Claude d’Anthropic est la seule IA frontière actuellement autorisée à fonctionner sur des réseaux entièrement classifiés du Pentagone, déployés via Palantir et le Cloud Top Secret d’Amazon. Cela le rend irremplaçable dans certains flux de travail, donnant à Anthropic un levier dans la négociation. La tentative du Pentagone de mettre Anthropic sur une liste noire créerait une vulnérabilité de fournisseur unique, entravant potentiellement les opérations militaires critiques.

Les implications plus larges

L’impasse s’étend au-delà d’Anthropic. D’autres laboratoires d’IA subissent des pressions similaires pour accepter une utilisation militaire sans restriction, mais rares sont ceux qui ont publiquement résisté. Certains observateurs du secteur affirment que ces sociétés pourraient justifier leurs valorisations sans contrats militaires, tandis que d’autres pensent qu’Anthropic finira par céder. Le résultat créera un précédent dans la manière dont la technologie de l’IA est intégrée dans la guerre et la surveillance, façonnant l’avenir des opérations militaires et les considérations éthiques.

La désignation exigerait que chaque entrepreneur de la défense cherchant un travail gouvernemental certifie qu’il a supprimé toute la technologie anthropique de ses systèmes.

Le conflit se joue aux yeux du public, soulevant des questions sur la transparence et la responsabilité des entreprises à l’ère de l’intelligence artificielle. Les tactiques agressives du Pentagone et la position ferme d’Anthropic soulignent les enjeux élevés liés au contrôle de l’avenir de l’IA.