Anthropic, un desarrollador líder de inteligencia artificial, ha anunciado la creación de un nuevo modelo llamado Claude Mythos Preview. Sin embargo, en una medida que indica un cambio en la forma en que se gestiona la IA de alta capacidad, la compañía decidió no lanzar el modelo al público en general.
En cambio, Anthropic está limitando el acceso a un grupo especializado de líderes de la industria para abordar una preocupación creciente: el potencial de que la IA avanzada se utilice como arma para la guerra cibernética.
Proyecto Glasswing: una coalición defensiva
En lugar de un lanzamiento a gran escala, Anthropic está implementando Mythos a través de un consorcio conocido como Proyecto Glasswing. Este grupo está formado por más de 40 importantes actores tecnológicos, entre ellos:
- Gigantes tecnológicos: Apple, Amazon, Microsoft y Google.
- Proveedores de hardware e infraestructura: Cisco y Broadcom.
- Guardianes del código abierto: La Fundación Linux.
El objetivo de esta coalición es utilizar las capacidades de razonamiento avanzado del modelo para identificar y parchear vulnerabilidades de seguridad en software e infraestructura críticos antes de que puedan ser explotadas por actores maliciosos. Para respaldar esta iniciativa, Anthropic está comprometiendo hasta 100 millones de dólares en créditos de uso de Claude para el proyecto.
Por qué esto es importante: el “ajuste de cuentas” de la IA
La decisión de ocultar Mythos al público pone de relieve una tensión creciente en la industria de la IA: el equilibrio entre innovación y seguridad. A medida que los modelos se vuelven más capaces de comprender códigos complejos, se convierten en tecnologías de doble uso. Si bien pueden ayudar a los desarrolladores a proteger el software, los piratas informáticos también pueden utilizarlos para descubrir vulnerabilidades de “día cero”, fallas que los creadores del software desconocen.
El liderazgo de Anthropic sugiere que nos acercamos a un punto de inflexión crítico en ciberseguridad.
“El objetivo es crear conciencia y dar a los buenos actores una ventaja en el proceso de asegurar la infraestructura y el código de código abierto y privado”.
— Jared Kaplan, director científico de Anthropic
Logan Graham, jefe del equipo de pruebas de seguridad de Anthropic, describió el lanzamiento como un “ajuste de cuentas” para la industria. Esto implica que los métodos actuales de seguridad del software pueden ya no ser suficientes en una era en la que la IA puede automatizar el descubrimiento de exploits complejos.
Un cambio en la gobernanza de la IA
Al restringir Mythos a un grupo examinado de “buenos actores”, Anthropic intenta sentar un precedente sobre cómo se deben manejar los “modelos de frontera” (IA que posee capacidades potencialmente peligrosas). Este enfoque se aleja del modelo tradicional de “lanzamiento abierto” hacia una estrategia de defensa colaborativa y más controlada.
Esta medida plantea importantes cuestiones para el futuro de la industria:
– ¿Seguirán otros desarrolladores de IA este modelo restrictivo para herramientas de alta capacidad?
– ¿Puede un consorcio privado proteger eficazmente la infraestructura digital global?
– ¿Cómo evolucionará la brecha entre la “IA defensiva” y la “IA ofensiva”?
Conclusión
La decisión de Anthropic de restringir Claude Mythos señala una nueva era de desarrollo de la IA en la que el poder de proteger el software se considera demasiado peligroso para dejarlo en manos del público en general. A través del Proyecto Glasswing, la empresa intenta construir un escudo defensivo para estar un paso por delante de las ciberamenazas impulsadas por la IA.





























