Anthropic dévoile « Mythos » : un modèle d’IA puissant gardé secret pour prévenir les cybermenaces

22

Anthropic, l’un des principaux développeurs d’intelligence artificielle, a annoncé la création d’un nouveau modèle appelé Claude Mythos Preview. Cependant, dans une démarche qui marque un changement dans la façon dont l’IA à haute capacité est gérée, la société a décidé de ne pas diffuser le modèle auprès du grand public.

Au lieu de cela, Anthropic limite l’accès à un groupe spécialisé de leaders de l’industrie pour répondre à une préoccupation croissante : le potentiel de l’IA avancée comme arme de cyberguerre.

Projet Glasswing : une coalition défensive

Plutôt qu’un lancement à grande échelle, Anthropic déploie Mythos via un consortium connu sous le nom de Project Glasswing. Ce groupe est composé de plus de 40 acteurs technologiques majeurs, dont :

  • Géants de la technologie : Apple, Amazon, Microsoft et Google.
  • Fournisseurs de matériel et d’infrastructure : Cisco et Broadcom.
  • Gardiens Open Source : La Fondation Linux.

L’objectif de cette coalition est d’utiliser les capacités de raisonnement avancées du modèle pour identifier et corriger les vulnérabilités de sécurité dans les logiciels et infrastructures critiques avant qu’elles ne puissent être exploitées par des acteurs malveillants. Pour soutenir cette initiative, Anthropic s’engage jusqu’à 100 millions de dollars en crédits d’utilisation Claude dans le projet.

Pourquoi c’est important : le « compte » de l’IA

La décision de refuser Mythos au public met en évidence une tension croissante dans l’industrie de l’IA : l’équilibre entre innovation et sécurité. À mesure que les modèles deviennent plus capables de comprendre un code complexe, ils deviennent des technologies à double usage. Bien qu’ils puissent aider les développeurs à sécuriser les logiciels, ils peuvent également être utilisés par les pirates pour découvrir des vulnérabilités « zero-day », des failles inconnues des créateurs de logiciels.

Le leadership d’Anthropic suggère que nous approchons d’un tournant critique en matière de cybersécurité.

“L’objectif est à la fois de sensibiliser et de donner une longueur d’avance aux bons acteurs dans le processus de sécurisation des infrastructures et du code open source et privés”,
Jared Kaplan, directeur scientifique d’Anthropic

Logan Graham, chef de l’équipe de tests de sécurité d’Anthropic, a décrit cette publication comme un “compte” pour l’industrie. Cela implique que les méthodes actuelles de sécurité logicielle pourraient ne plus suffire à une époque où l’IA peut automatiser la découverte d’exploits complexes.

Un changement dans la gouvernance de l’IA

En limitant Mythos à un groupe sélectionné de « bons acteurs », Anthropic tente de créer un précédent sur la façon dont les « modèles frontières » – une IA possédant des capacités potentiellement dangereuses – devraient être gérés. Cette approche s’éloigne du modèle traditionnel de « libération ouverte » vers une stratégie de défense plus contrôlée et collaborative.

Cette décision soulève des questions importantes pour l’avenir de l’industrie :
– D’autres développeurs d’IA suivront-ils ce modèle restrictif pour des outils hautement performants ?
– Un consortium privé peut-il protéger efficacement l’infrastructure numérique mondiale ?
– Comment va évoluer l’écart entre « IA défensive » et « IA offensive » ?


Conclusion
La décision d’Anthropic de restreindre Claude Mythos marque une nouvelle ère de développement de l’IA où le pouvoir de sécuriser les logiciels est considéré comme trop dangereux pour être laissé entre les mains du grand public. Grâce au projet Glasswing, l’entreprise tente de construire un bouclier défensif pour garder une longueur d’avance sur les cybermenaces basées sur l’IA.