Anthropic, una startup líder en inteligencia artificial valorada en 380 mil millones de dólares, está atrapada en un tenso enfrentamiento con el Departamento de Defensa de Estados Unidos (Pentágono) por el uso irrestricto de su tecnología. La disputa central se centra en una cláusula simple pero crítica: si los militares pueden desplegar la IA de Anthropic para “cualquier uso legal”. Esto otorgaría al Pentágono amplia autoridad para utilizar la IA para vigilancia, sistemas de armas autónomas letales y otras aplicaciones actualmente restringidas por las políticas internas de la compañía.
Las negociaciones se han convertido en tácticas de presión pública y, según se informa, funcionarios del Pentágono amenazaron con clasificar a Anthropic como un “riesgo para la cadena de suministro”, una designación típicamente reservada para amenazas a la seguridad nacional. Esta medida, impulsada por el CTO del Pentágono, Emil Michael, excluiría efectivamente a Anthropic de importantes contratos de defensa y obligaría a empresas como AWS, Palantir y Anduril a romper vínculos. La situación no tiene precedentes, ya que el Pentágono rara vez amenaza públicamente a las empresas estadounidenses, y mucho menos por desacuerdos políticos.
Por qué esto es importante
La presión del Pentágono para “cualquier uso legal” refleja una creciente urgencia de integrar la IA en las operaciones militares sin limitaciones. Esto plantea cuestiones fundamentales sobre la responsabilidad, los límites éticos y el potencial de que los sistemas de armas autónomos funcionen sin supervisión humana. La disputa pone de relieve la tensión entre el rápido avance tecnológico y la necesidad de una gobernanza responsable de la IA.
Las demandas clave
Anthropic ha trazado dos líneas firmes en la arena: no permitirá que su IA se utilice para operaciones letales totalmente autónomas o vigilancia doméstica masiva. La compañía sostiene que las leyes actuales no han alcanzado las capacidades de la IA, lo que podría infringir las libertades civiles. Además, Anthropic cree que la tecnología para armas verdaderamente autónomas sin intervención humana aún no es lo suficientemente confiable para su despliegue.
El Pentágono, sin embargo, está decidido a eliminar cualquier restricción. Un memorando reciente del secretario Pete Hegseth exige que todos los contratos de adquisición de IA den prioridad a la velocidad sobre la seguridad, incluso si eso significa aceptar una “alineación imperfecta”. El memorando pide explícitamente integrar la IA en la “ejecución de la cadena de eliminación” y priorizar modelos libres de restricciones de uso. OpenAI, xAI y Google ya han renegociado sus contratos para cumplir con estos términos, pero ninguno de sus modelos cuenta actualmente con la autorización de seguridad más alta requerida para las operaciones clasificadas del Pentágono.
Posición única de Claude
El modelo Claude de Anthropic es la única IA de frontera actualmente autorizada para operar en redes totalmente clasificadas del Pentágono, desplegadas a través de Palantir y Top Secret Cloud de Amazon. Esto lo hace insustituible en ciertos flujos de trabajo, lo que le da a Anthropic influencia en la negociación. El intento del Pentágono de incluir a Anthropic en la lista negra crearía una vulnerabilidad de proveedor único, lo que potencialmente obstaculizaría operaciones militares críticas.
Las implicaciones más amplias
El enfrentamiento se extiende más allá de Anthropic. Otros laboratorios de IA enfrentan presiones similares para aceptar un uso militar sin restricciones, pero pocos se han resistido públicamente. Algunos observadores de la industria sostienen que estas empresas podrían justificar sus valoraciones sin contratos militares, mientras que otros creen que Anthropic acabará cediendo. El resultado sentará un precedente sobre cómo se integra la tecnología de inteligencia artificial en la guerra y la vigilancia, dando forma al futuro de las operaciones militares y las consideraciones éticas.
La designación requeriría que cada contratista de defensa que busque trabajo gubernamental certifique que ha eliminado toda la tecnología Anthropic de sus sistemas.
La disputa se está desarrollando ante la opinión pública, planteando interrogantes sobre la transparencia y la responsabilidad corporativa en la era de la inteligencia artificial. Las tácticas agresivas del Pentágono y la postura firme de Anthropic subrayan lo mucho que está en juego en el control del futuro de la IA.



























