La posizione di Anthropic contro l’uso illimitato dell’IA militare: una negoziazione ad alto rischio

21
La posizione di Anthropic contro l’uso illimitato dell’IA militare: una negoziazione ad alto rischio

Anthropic, una delle principali startup di intelligenza artificiale valutata 380 miliardi di dollari, è bloccata in un teso braccio di ferro con il Dipartimento della Difesa degli Stati Uniti (Pentagono) sull’uso illimitato della sua tecnologia. La controversia principale è incentrata su una clausola semplice ma fondamentale: se i militari possono utilizzare l’intelligenza artificiale di Anthropic per “qualsiasi uso legale”. Ciò garantirebbe al Pentagono un’ampia autorità per utilizzare l’intelligenza artificiale per la sorveglianza, sistemi di armi autonome letali e altre applicazioni attualmente limitate dalle politiche interne dell’azienda.

I negoziati si sono trasformati in tattiche di pressione pubblica, con funzionari del Pentagono che, secondo quanto riferito, minacciano di classificare Anthropic come un “rischio per la catena di fornitura” – una designazione tipicamente riservata alle minacce alla sicurezza nazionale. Questa mossa, guidata dal CTO del Pentagono Emil Michael, taglierebbe effettivamente Anthropic dai principali contratti di difesa e costringerebbe aziende come AWS, Palantir e Anduril a recidere i legami. La situazione non ha precedenti, poiché il Pentagono raramente minaccia pubblicamente le aziende americane, per non parlare dei disaccordi politici.

Perché è importante

La spinta del Pentagono per “qualsiasi uso lecito” riflette la crescente urgenza di integrare l’intelligenza artificiale nelle operazioni militari senza limitazioni. Ciò solleva questioni fondamentali sulla responsabilità, sui confini etici e sul potenziale di sistemi d’arma autonomi che operano senza la supervisione umana. La controversia evidenzia la tensione tra il rapido progresso tecnologico e la necessità di una governance responsabile dell’IA.

Le richieste chiave

Anthropic ha tracciato due linee ferme sulla sabbia: non permetterà che la sua intelligenza artificiale venga utilizzata per operazioni letali completamente autonome o per sorveglianza domestica di massa. L’azienda sostiene che le leggi attuali non sono state all’altezza delle capacità dell’intelligenza artificiale, violando potenzialmente le libertà civili. Inoltre, Anthropic ritiene che la tecnologia per armi veramente autonome senza intervento umano non sia ancora abbastanza affidabile per il dispiegamento.

Il Pentagono, tuttavia, è determinato a eliminare ogni restrizione. Una recente nota del segretario Pete Hegseth richiede che tutti i contratti di appalto per l’intelligenza artificiale diano priorità alla velocità rispetto alla sicurezza, anche se ciò significa accettare un “allineamento imperfetto”. La nota richiede esplicitamente l’integrazione dell’intelligenza artificiale nell’”esecuzione della catena di uccisione” e la priorità dei modelli liberi da vincoli di utilizzo. OpenAI, xAI e Google hanno già rinegoziato i loro contratti per rispettare questi termini, ma nessuno dei loro modelli attualmente possiede il più alto nulla osta di sicurezza richiesto per le operazioni classificate del Pentagono.

Posizione unica di Claude

Il modello Claude di Anthropic è l’unica IA di frontiera attualmente autorizzata a operare su reti del Pentagono completamente classificate, implementate attraverso Palantir e il Top Secret Cloud di Amazon. Ciò lo rende insostituibile in determinati flussi di lavoro, conferendo ad Anthropic una leva nella negoziazione. Il tentativo del Pentagono di inserire Anthropic nella lista nera creerebbe la vulnerabilità del fornitore unico, ostacolando potenzialmente operazioni militari critiche.

Le implicazioni più ampie

La situazione di stallo si estende oltre l’Anthropic. Altri laboratori di intelligenza artificiale si trovano ad affrontare pressioni simili per accettare un uso militare illimitato, ma pochi hanno resistito pubblicamente. Alcuni osservatori del settore sostengono che queste società potrebbero giustificare le loro valutazioni senza contratti militari, mentre altri ritengono che Anthropic alla fine ammetterà. Il risultato costituirà un precedente per il modo in cui la tecnologia dell’intelligenza artificiale verrà integrata nella guerra e nella sorveglianza, plasmando il futuro delle operazioni militari e delle considerazioni etiche.

La designazione richiederebbe a ogni appaltatore della difesa che cerca un lavoro governativo di certificare di aver rimosso tutta la tecnologia antropica dai propri sistemi.

La disputa è sotto gli occhi dell’opinione pubblica, sollevando interrogativi sulla trasparenza e sulla responsabilità aziendale nell’era dell’intelligenza artificiale. Le tattiche aggressive del Pentagono e la ferma posizione di Anthropic sottolineano l’elevata posta in gioco nel controllo del futuro dell’intelligenza artificiale.