Un giudice federale ha temporaneamente impedito all’amministrazione Trump di etichettare la società di intelligenza artificiale Anthropic come una minaccia alla sicurezza nazionale, schierandosi con l’azienda nella fase iniziale della sua sfida legale. La sentenza ferma il tentativo del governo di limitare il modello Claude AI di Anthropic dopo che la società ha rifiutato di consentirne l’uso illimitato da parte dei militari.
La controversia: restrizioni sull’intelligenza artificiale e preoccupazioni relative al primo emendamento
Il conflitto è iniziato quando il presidente Trump e il segretario alla Difesa Pete Hegseth hanno annunciato che il governo avrebbe cessato di collaborare con Anthropic a causa del suo rifiuto di consentire il pieno accesso militare alla sua intelligenza artificiale, comprese potenziali applicazioni in sistemi di armi autonome letali e sorveglianza di massa. In risposta, l’amministrazione ha designato Anthropic come un “rischio per la catena di approvvigionamento”, impedendo di fatto alle agenzie federali di utilizzare la tecnologia.
Il giudice Rita F. Lin del distretto settentrionale della California ha descritto le azioni del governo come “un tentativo di paralizzare l’antropologia” e di “raffreddare il dibattito pubblico”. Ha sostenuto che le misure punitive apparivano arbitrarie e che l’uso da parte di Hegseth di un’autorità tipicamente riservata agli avversari stranieri era ingiustificato. Lin ha scritto che il tentativo del governo di etichettare un’azienda americana come una minaccia per il suo disaccordo con le sue politiche è stato un esagerazione “orwelliana”.
Base giuridica: ritorsione del primo emendamento
Anthropic ha intentato due azioni legali a marzo, contestando la designazione della catena di fornitura e presunta violazione del Primo Emendamento. L’ingiunzione del giudice significa che la tecnologia di Anthropic rimarrà a disposizione del governo e dei suoi appaltatori mentre le cause legali avanzano. L’azienda sostiene che le azioni del governo siano state una ritorsione dopo aver sollevato preoccupazioni sull’uso militare della sua intelligenza artificiale, in particolare per quanto riguarda le armi autonome letali e la sorveglianza.
Perché è importante
Questo caso evidenzia una crescente tensione tra le richieste del governo per l’accesso alle tecnologie avanzate di intelligenza artificiale e i diritti delle aziende private di controllare come vengono utilizzati i loro prodotti. La posizione aggressiva dell’amministrazione Trump riflette una tendenza più ampia di preoccupazioni per la sicurezza nazionale che plasmano la politica tecnologica, ma la sentenza sottolinea che tali misure devono essere fondate sull’autorità legale e rispettare i diritti costituzionali.
Anthropic ha rilasciato una dichiarazione in cui esprime gratitudine per la decisione della corte e riafferma il suo impegno a lavorare in modo costruttivo con il governo per garantire uno sviluppo responsabile dell’IA.
Il caso è in corso, ma l’ingiunzione preliminare garantisce che Anthropic possa continuare a operare mentre si svolge la battaglia legale.





























