Anthropic demanda al gobierno de EE. UU. por restricciones a la IA: un enfrentamiento en los tribunales

8

El enfrentamiento entre Anthropic, una empresa líder en inteligencia artificial, y el gobierno de Estados Unidos se está intensificando rápidamente. El martes, Anthropic presentará su caso ante un tribunal federal para una orden judicial preliminar contra el Departamento de Guerra y la Casa Blanca, luego de una disputa pública sobre el uso militar de su modelo Claude AI.

El problema central: Anthropic se negó a permitir aplicaciones militares sin restricciones de su IA, prohibiendo específicamente su uso en sistemas de armas letales autónomas sin supervisión humana y vigilancia masiva de ciudadanos estadounidenses. En respuesta, el gobierno calificó a Anthropic como un “riesgo de la cadena de suministro para la seguridad nacional” y detuvo todo uso federal de su tecnología.

La batalla legal: dos frentes

Anthropic está contraatacando en dos frentes legales. En primer lugar, busca reconsiderar la designación de “riesgo de la cadena de suministro”, argumentando que es una aplicación ilegal y sin precedentes de una política históricamente reservada para adversarios extranjeros como Huawei. La empresa sostiene que utilizar esta designación como arma contra una empresa nacional por desacuerdos políticos sienta un precedente peligroso.

En segundo lugar, Anthropic plantea preocupaciones sobre la Primera Enmienda, afirmando que la inclusión en la lista negra infringe su derecho a la libertad de expresión y protesta. Este argumento pone de relieve una tensión creciente entre la ética corporativa y los intereses de seguridad nacional.

Preocupaciones del gobierno: control y confiabilidad

La posición del Departamento de Guerra se centra en el control operativo. En documentos judiciales, el gobierno expresó temores de que Anthropic pudiera sabotear sus sistemas de inteligencia artificial (ya sea deshabilitándolos por completo o alterando preventivamente su comportamiento) si la compañía sentía que sus “líneas rojas” se estaban cruzando durante tiempos de guerra.

Sin embargo, esta preocupación nunca se planteó durante las negociaciones iniciales del contrato. Anthropic consiguió un contrato con el Pentágono por valor de 200 millones de dólares en 2025, pero luego se negó a permitir el uso de su IA para vigilancia masiva o decisiones automatizadas sobre armas. El repentino cambio del gobierno refleja el deseo de garantizar una confiabilidad inquebrantable en los sistemas militares clasificados.

Implicaciones más amplias: un punto de inflexión para la gobernanza de la IA

El caso está atrayendo una amplia atención por parte de la comunidad de IA. Científicos e investigadores de OpenAI, Google y Microsoft, junto con grupos legales, han presentado escritos en apoyo a Anthropic. Esto subraya el debate más amplio sobre quién debería definir los límites de la IA: las empresas privadas que se adhieren a los principios de seguridad interna o las autoridades públicas que priorizan la seguridad nacional.

El Pentágono ya ha comenzado a centrarse en socios alternativos de IA, incluidos OpenAI, xAI y Google. Sin embargo, el resultado de esta batalla legal tendrá implicaciones duraderas sobre la forma en que los gobiernos regulan el desarrollo y la implementación de la IA.

Hay mucho en juego: Este caso no se trata sólo de una empresa; se trata de establecer las reglas para una tecnología que dará forma cada vez más a la guerra, la vigilancia y el futuro de la seguridad nacional.