Un juge fédéral a temporairement empêché l’administration Trump de qualifier la société d’intelligence artificielle Anthropic de menace à la sécurité nationale, se rangeant du côté de l’entreprise à un stade précoce de sa contestation judiciaire. La décision met fin à la tentative du gouvernement de restreindre le modèle Claude AI d’Anthropic après que la société a refusé d’autoriser son utilisation sans restriction par l’armée.
Le différend : restrictions en matière d’IA et préoccupations liées au premier amendement
Le conflit a commencé lorsque le président Trump et le secrétaire à la Défense Pete Hegseth ont annoncé que le gouvernement cesserait de travailler avec Anthropic en raison de son refus de permettre un accès militaire complet à son IA, y compris des applications potentielles dans les systèmes d’armes létaux autonomes et la surveillance de masse. En réponse, l’administration a désigné Anthropic comme un « risque pour la chaîne d’approvisionnement », interdisant ainsi aux agences fédérales d’utiliser cette technologie.
La juge Rita F. Lin du district nord de Californie a décrit les actions du gouvernement comme « une tentative de paralyser Anthropic » et de « refroidir le débat public ». Elle a fait valoir que les mesures punitives semblaient arbitraires et que le recours par Hegseth à une autorité généralement réservée aux adversaires étrangers était injustifié. Lin a écrit que la tentative du gouvernement de présenter une entreprise américaine comme une menace pour son désaccord avec ses politiques était une excès « orwellien ».
Base juridique : représailles du premier amendement
Anthropic a déposé deux poursuites en mars, contestant la désignation de chaîne d’approvisionnement et alléguant des violations du premier amendement. L’injonction du juge signifie que la technologie d’Anthropic restera à la disposition du gouvernement et de ses sous-traitants pendant que les poursuites progressent. L’entreprise affirme que les actions du gouvernement étaient des représailles après avoir exprimé des inquiétudes quant à l’utilisation militaire de son IA, en particulier en ce qui concerne les armes autonomes mortelles et la surveillance.
Pourquoi c’est important
Cette affaire met en évidence une tension croissante entre les demandes gouvernementales d’accès aux technologies avancées d’IA et le droit des entreprises privées de contrôler la manière dont leurs produits sont utilisés. La position agressive de l’administration Trump reflète une tendance plus large aux préoccupations de sécurité nationale qui façonnent la politique technologique, mais la décision souligne que de telles mesures doivent être fondées sur l’autorité légale et respecter les droits constitutionnels.
Anthropic a publié une déclaration exprimant sa gratitude pour la décision du tribunal et réaffirmant son engagement à travailler de manière constructive avec le gouvernement pour garantir un développement responsable de l’IA.
L’affaire est en cours, mais l’injonction préliminaire garantit qu’Anthropic peut continuer à fonctionner pendant que la bataille juridique se déroule.
