Según se informa, la Agencia de Seguridad Nacional (NSA) está utilizando Mythos Preview, un modelo de IA altamente especializado de Anthropic que se ha mantenido alejado del público en general. Este desarrollo resalta una sorprendente contradicción en la política de defensa de Estados Unidos: mientras el Pentágono ha señalado oficialmente a Anthropic como un potencial “riesgo para la cadena de suministro”, las agencias de inteligencia están integrando activamente las herramientas más avanzadas de la compañía en sus operaciones.
La paradoja de los mitos: poder versus seguridad
A principios de este mes, Anthropic presentó Mythos, un modelo de frontera diseñado específicamente para tareas de ciberseguridad de alto nivel. Sin embargo, la compañía tomó una decisión poco común y significativa de no publicar el modelo.
El razonamiento detrás de esta restricción tiene sus raíces en la pura potencia del modelo. Anthropic afirmó que Mythos es tan competente en identificar y ejecutar ataques cibernéticos que ponerlo a disposición del público podría representar una amenaza masiva a la seguridad. En cambio, el acceso se ha limitado estrictamente a aproximadamente 40 organizaciones selectas.
Según informes de Axios, la NSA se encuentra entre estos usuarios no revelados. Su aplicación principal para el modelo implica:
– Escaneo de entornos digitales en busca de debilidades.
– Identificación de vulnerabilidades explotables dentro de redes complejas.
El Instituto de Seguridad de IA del Reino Unido también ha confirmado que se encuentra entre las pocas entidades a las que se les ha concedido acceso al modelo.
Una fricción creciente entre defensa y tecnología
La adopción de Mythos por parte de la NSA se produce en un contexto de intensa fricción entre el Departamento de Defensa (DoD) y Anthropic. El Pentágono calificó recientemente a la empresa de IA como un “riesgo para la cadena de suministro”, una medida que surge de un desacuerdo fundamental sobre los límites éticos y operativos de la IA.
La disputa alcanzó un punto de ebullición cuando Anthropic se negó a otorgar a los funcionarios del Pentágono acceso ilimitado a sus modelos, negándose específicamente a permitir el uso de su IA Claude para:
1. Operaciones de vigilancia doméstica masiva.
2. El desarrollo de sistemas de armas autónomos.
Esto crea un panorama complejo para la seguridad nacional: los militares argumentan simultáneamente ante los tribunales que estas herramientas de IA representan una amenaza para la seguridad nacional, mientras que las agencias de inteligencia dependen de ellas para reforzar las defensas cibernéticas.
Vientos políticos cambiantes
A pesar de las disputas formales que involucran al Pentágono, la relación de Anthropic con la administración estadounidense en general parece estar cambiando. Las recientes reuniones de alto nivel sugieren un “deshielo” de las relaciones entre la empresa de IA y la Casa Blanca.
El director ejecutivo de Anthropic, Dario Amodei, se reunió recientemente con figuras clave de la administración, incluida la jefa de gabinete de la Casa Blanca, Susie Wiles, y el secretario del Tesoro, Scott Bessent. La Casa Blanca ha caracterizado estas discusiones como “productivas”, lo que indica un posible giro hacia una relación más colaborativa entre el gobierno y los principales desarrolladores de IA.
La tensión entre las preocupaciones de seguridad del Pentágono y las necesidades operativas de la NSA subraya un debate crítico: cómo aprovechar el inmenso poder de la IA fronteriza para la defensa sin crear vulnerabilidades nuevas e incontrolables.
Conclusión
El uso por parte de la NSA del modelo restringido Mythos de Anthropic revela una división en cómo el gobierno de Estados Unidos ve la IA: viéndola como un pasivo de alto riesgo en un contexto y un activo estratégico esencial en otro. Esta dualidad pone de relieve la lucha actual por regular una tecnología poderosa que es demasiado potente para el público, pero demasiado vital para que la seguridad nacional la ignore.





























