Un juez federal ha impedido temporalmente que la administración Trump califique a la empresa de inteligencia artificial Anthropic como una amenaza a la seguridad nacional, poniéndose del lado de la empresa en una etapa temprana de su impugnación legal. El fallo detiene el intento del gobierno de restringir el modelo Claude AI de Anthropic después de que la compañía se negara a permitir su uso sin restricciones por parte del ejército.
La disputa: restricciones de la IA y preocupaciones sobre la Primera Enmienda
El conflicto comenzó cuando el presidente Trump y el secretario de Defensa, Pete Hegseth, anunciaron que el gobierno dejaría de trabajar con Anthropic debido a su negativa a permitir el acceso militar total a su IA, incluidas posibles aplicaciones en sistemas de armas autónomas letales y vigilancia masiva. En respuesta, la administración designó a Anthropic como un “riesgo para la cadena de suministro”, prohibiendo efectivamente a las agencias federales utilizar la tecnología.
La jueza Rita F. Lin del Distrito Norte de California describió las acciones del gobierno como “un intento de paralizar a Anthropic” y “enfriar el debate público”. Ella argumentó que las medidas punitivas parecían arbitrarias y que el uso por parte de Hegseth de una autoridad típicamente reservada para adversarios extranjeros estaba injustificado. Lin escribió que el intento del gobierno de calificar a una empresa estadounidense como una amenaza por no estar de acuerdo con sus políticas era una extralimitación “orwelliana”.
Base legal: Represalias de la Primera Enmienda
Anthropic presentó dos demandas en marzo, impugnando la designación de la cadena de suministro y alegando violaciones de la Primera Enmienda. La orden judicial del juez significa que la tecnología de Anthropic permanecerá disponible para el gobierno y sus contratistas mientras avanzan las demandas. La compañía argumenta que las acciones del gobierno fueron una represalia después de que expresara su preocupación por el uso militar de su IA, particularmente en lo que respecta a las armas letales autónomas y la vigilancia.
Por qué esto es importante
Este caso pone de relieve una tensión creciente entre las demandas gubernamentales de acceso a tecnologías avanzadas de IA y los derechos de las empresas privadas a controlar cómo se utilizan sus productos. La postura agresiva de la administración Trump refleja una tendencia más amplia de preocupaciones de seguridad nacional que dan forma a la política tecnológica, pero el fallo subraya que tales medidas deben basarse en la autoridad legal y respetar los derechos constitucionales.
Anthropic emitió un comunicado expresando gratitud por la decisión del tribunal y reafirmando su compromiso de trabajar de manera constructiva con el gobierno para garantizar el desarrollo responsable de la IA.
El caso está en curso, pero la orden judicial preliminar garantiza que Anthropic pueda continuar operando mientras se desarrolla la batalla legal.




























