La National Security Agency (NSA) utiliserait Mythos Preview, un modèle d’IA hautement spécialisé d’Anthropic qui a été tenu à l’écart du grand public. Cette évolution met en évidence une contradiction frappante dans la politique de défense américaine : alors que le Pentagone a officiellement signalé Anthropic comme un « risque potentiel pour la chaîne d’approvisionnement », les agences de renseignement intègrent activement les outils les plus avancés de l’entreprise dans leurs opérations.
Le paradoxe du mythe : puissance contre sécurité
Plus tôt ce mois-ci, Anthropic a présenté Mythos, un modèle frontalier spécialement conçu pour les tâches de cybersécurité de haut niveau. Cependant, la société a pris une décision rare et importante en refusant la diffusion publique du modèle.
Le raisonnement derrière cette restriction trouve son origine dans la puissance même du modèle. Anthropic a déclaré que Mythos est si compétent dans l’identification et l’exécution de cyberattaques que le rendre accessible au public pourrait constituer une menace de sécurité massive. Au lieu de cela, l’accès a été strictement limité à environ 40 organisations sélectionnées.
Selon les rapports d’Axios, la NSA fait partie de ces utilisateurs non divulgués. Leur principale application pour le modèle implique :
– Analyse des environnements numériques pour détecter les faiblesses.
– Identification des vulnérabilités exploitables au sein de réseaux complexes.
L’AI Security Institute du Royaume-Uni a également confirmé qu’il faisait partie des rares entités ayant accès au modèle.
Une friction croissante entre la défense et la technologie
L’adoption de Mythos par la NSA se produit dans un contexte de frictions intenses entre le ministère de la Défense (DoD) et Anthropic. Le Pentagone a récemment qualifié l’entreprise d’IA de « risque pour la chaîne d’approvisionnement », une décision découlant d’un désaccord fondamental sur les limites éthiques et opérationnelles de l’IA.
Le différend a atteint un point d’ébullition lorsqu’Anthropic a refusé d’accorder aux responsables du Pentagone un accès illimité à ses modèles, refusant spécifiquement d’autoriser l’utilisation de son IA Claude pour :
1. Opérations de surveillance intérieure de masse.
2. Le développement de systèmes d’armes autonomes.
Cela crée un paysage complexe pour la sécurité nationale : l’armée fait simultanément valoir devant les tribunaux que ces outils d’IA constituent une menace pour la sécurité nationale, tandis que les agences de renseignement comptent sur eux pour renforcer leurs cyberdéfenses.
Vents politiques changeants
Malgré les différends officiels impliquant le Pentagone, les relations d’Anthropic avec l’administration américaine au sens large semblent évoluer. Les récentes réunions de haut niveau suggèrent un « dégel » des relations entre la société d’IA et la Maison Blanche.
Le PDG d’Anthropic, Dario Amodei, a récemment rencontré des personnalités clés de l’administration, notamment la chef de cabinet de la Maison Blanche, Susie Wiles, et le secrétaire au Trésor, Scott Bessent. La Maison Blanche a qualifié ces discussions de « productives », signalant un tournant potentiel vers une relation plus collaborative entre le gouvernement et les principaux développeurs d’IA.
La tension entre les préoccupations de sécurité du Pentagone et les besoins opérationnels de la NSA met en lumière un débat crucial : comment exploiter l’immense puissance de l’IA aux frontières pour la défense sans créer de nouvelles vulnérabilités incontrôlables.
Conclusion
L’utilisation par la NSA du modèle restreint Mythe d’Anthropic révèle une divergence dans la façon dont le gouvernement américain perçoit l’IA : la considérant comme un passif à haut risque dans un contexte et comme un atout stratégique essentiel dans un autre. Cette dualité met en évidence la lutte en cours pour réglementer une technologie puissante, trop puissante pour le public, mais trop vitale pour que la sécurité nationale puisse l’ignorer.
