La NSA sfrutta l’intelligenza artificiale limitata di Anthropic nonostante le preoccupazioni sulla sicurezza del Pentagono

18

Secondo quanto riferito, la National Security Agency (NSA) sta utilizzando Mythos Preview, un modello di intelligenza artificiale altamente specializzato di Anthropic che è stato tenuto lontano dal grande pubblico. Questo sviluppo evidenzia una sorprendente contraddizione nella politica di difesa degli Stati Uniti: mentre il Pentagono ha ufficialmente segnalato Anthropic come un potenziale “rischio per la catena di fornitura”, le agenzie di intelligence stanno attivamente integrando gli strumenti più avanzati dell’azienda nelle loro operazioni.

Il paradosso del mito: potenza contro sicurezza

All’inizio di questo mese, Anthropic ha introdotto Mythos, un modello di frontiera specificamente progettato per attività di sicurezza informatica di alto livello. Tuttavia, la società ha preso la rara e significativa decisione di non pubblicare il modello.

Il ragionamento alla base di questa restrizione è radicato nella pura potenza del modello. Anthropic ha affermato che Mythos è così abile nell’identificare ed eseguire attacchi informatici che renderlo disponibile al pubblico potrebbe rappresentare una massiccia minaccia alla sicurezza. Invece, l’accesso è stato strettamente limitato a circa 40 organizzazioni selezionate.

Secondo quanto riportato da Axios, tra questi utenti non dichiarati figura anche la NSA. La loro applicazione principale per il modello prevede:
Scansione degli ambienti digitali per individuare i punti deboli.
Identificazione delle vulnerabilità sfruttabili all’interno di reti complesse.

Anche l’AI Security Institute del Regno Unito ha confermato di essere tra le poche entità a cui è stato concesso l’accesso al modello.

Un attrito crescente tra difesa e tecnologia

L’adozione di Mythos da parte della NSA avviene in un contesto di intenso attrito tra il Dipartimento della Difesa (DoD) e Anthropic. Il Pentagono ha recentemente etichettato l’azienda di intelligenza artificiale come un “rischio nella catena di fornitura”, una mossa derivante da un disaccordo fondamentale sui confini etici e operativi dell’intelligenza artificiale.

La disputa raggiunse un punto di ebollizione quando Anthropic rifiutò di garantire ai funzionari del Pentagono un accesso illimitato ai suoi modelli, rifiutando specificamente di consentire l’uso della sua AI Claude per:
1. Operazioni di sorveglianza nazionale di massa.
2. Lo sviluppo di sistemi d’arma autonomi.

Ciò crea un panorama complesso per la sicurezza nazionale: l’esercito sta contemporaneamente sostenendo in tribunale che questi strumenti di intelligenza artificiale rappresentano una minaccia per la sicurezza nazionale, mentre le agenzie di intelligence fanno affidamento su di essi per rafforzare le difese informatiche.

Venti politici mutevoli

Nonostante le controversie formali che coinvolgono il Pentagono, il rapporto di Anthropic con l’amministrazione statunitense nel suo insieme sembra stia cambiando. I recenti incontri ad alto livello suggeriscono uno “scioglimento” dei rapporti tra l’azienda di intelligenza artificiale e la Casa Bianca.

Il CEO di Anthropic, Dario Amodei, ha recentemente incontrato figure chiave dell’amministrazione, tra cui il capo dello staff della Casa Bianca Susie Wiles e il segretario al Tesoro Scott Bessent. La Casa Bianca ha definito queste discussioni “produttive”, segnalando un potenziale perno verso un rapporto più collaborativo tra il governo e i principali sviluppatori di intelligenza artificiale.

La tensione tra le preoccupazioni di sicurezza del Pentagono e le esigenze operative della NSA sottolinea un dibattito critico: come sfruttare l’immenso potere dell’intelligenza artificiale di frontiera per la difesa senza creare nuove vulnerabilità incontrollabili.


Conclusione
L’uso da parte della NSA del modello ristretto Mythos di Anthropic rivela una divisione nel modo in cui il governo degli Stati Uniti vede l’intelligenza artificiale, considerandola una responsabilità ad alto rischio in un contesto e una risorsa strategica essenziale in un altro. Questa dualità evidenzia la lotta in corso per regolamentare una tecnologia potente che è troppo potente per il pubblico, ma troppo vitale perché la sicurezza nazionale possa ignorarla.