NSA aproveita a IA restrita da Anthropic apesar das preocupações de segurança do Pentágono

4

A Agência de Segurança Nacional (NSA) está utilizando o Mythos Preview, um modelo de IA altamente especializado da Anthropic que foi mantido longe do público em geral. Este desenvolvimento realça uma contradição marcante na política de defesa dos EUA: embora o Pentágono tenha sinalizado oficialmente a Antrópico como um potencial “risco da cadeia de abastecimento”, as agências de inteligência estão a integrar activamente as ferramentas mais avançadas da empresa nas suas operações.

O Paradoxo do Mythos: Poder versus Segurança

No início deste mês, a Anthropic apresentou o Mythos, um modelo de fronteira projetado especificamente para tarefas de segurança cibernética de alto nível. No entanto, a empresa tomou uma decisão rara e significativa de impedir o lançamento público do modelo.

O raciocínio por trás desta restrição está enraizado na pura potência do modelo. A Anthropic afirmou que a Mythos é tão proficiente na identificação e execução de ataques cibernéticos que disponibilizá-la ao público pode representar uma enorme ameaça à segurança. Em vez disso, o acesso foi estritamente limitado a aproximadamente 40 organizações selecionadas.

De acordo com relatórios do Axios, a NSA está entre esses usuários não divulgados. Sua principal aplicação para o modelo envolve:
Verificar ambientes digitais em busca de pontos fracos.
Identificação de vulnerabilidades exploráveis em redes complexas.

O AI Security Institute do Reino Unido também confirmou que está entre as poucas entidades com acesso ao modelo.

Um atrito crescente entre defesa e tecnologia

A adoção do Mythos pela NSA ocorre em um cenário de intenso atrito entre o Departamento de Defesa (DoD) e a Anthropic. O Pentágono classificou recentemente a empresa de IA como um “risco da cadeia de abastecimento”, uma medida decorrente de um desacordo fundamental sobre os limites éticos e operacionais da IA.

A disputa atingiu um ponto de ebulição quando a Anthropic se recusou a conceder aos funcionários do Pentágono acesso irrestrito aos seus modelos, recusando-se especificamente a permitir o uso de sua IA Claude para:
1. Operações de vigilância doméstica em massa.
2. O desenvolvimento de sistemas de armas autônomos.

Isto cria um cenário complexo para a segurança nacional: os militares argumentam simultaneamente em tribunal que estas ferramentas de IA representam uma ameaça à segurança nacional, enquanto as agências de inteligência confiam nelas para reforçar as defesas cibernéticas.

Mudanças nos Ventos Políticos

Apesar das disputas formais envolvendo o Pentágono, o relacionamento da Antrópico com a administração mais ampla dos EUA parece estar a mudar. Reuniões recentes de alto nível sugerem um “descongelamento” das relações entre a empresa de IA e a Casa Branca.

O CEO da Anthropic, Dario Amodei, reuniu-se recentemente com figuras importantes da administração, incluindo a chefe de gabinete da Casa Branca, Susie Wiles, e o secretário do Tesouro, Scott Bessent. A Casa Branca caracterizou estas discussões como “produtivas”, sinalizando um potencial pivô para uma relação mais colaborativa entre o governo e os principais desenvolvedores de IA.

A tensão entre as preocupações de segurança do Pentágono e as necessidades operacionais da NSA sublinha um debate crítico: como aproveitar o imenso poder da IA ​​de fronteira para a defesa sem criar vulnerabilidades novas e incontroláveis.


Conclusão
A utilização pela NSA do modelo Mythos restrito da Anthropic revela uma divisão na forma como o governo dos EUA vê a IA – vendo-a como um passivo de alto risco num contexto e um activo estratégico essencial noutro. Esta dualidade realça a luta contínua para regular tecnologias poderosas que são demasiado potentes para o público, mas demasiado vitais para serem ignoradas pela segurança nacional.