Anthropic sta dando al suo strumento Claude Code AI maggiore indipendenza, ma con limiti incorporati. L’aggiornamento mira a ridurre la necessità di una costante supervisione umana durante le attività di codifica, una frustrazione comune per gli sviluppatori. Invece di richiedere l’approvazione esplicita per ogni azione, Claude ora può decidere quali azioni sono sufficientemente sicure da poter essere eseguite da sole.
Il passaggio all’intelligenza artificiale autonoma
Questa mossa riflette una tendenza crescente nello sviluppo dell’intelligenza artificiale. Le aziende sono sempre più concentrate nel consentire ai sistemi di intelligenza artificiale di agire senza un continuo intervento umano. La sfida principale è trovare il giusto equilibrio: troppe restrizioni rallentano le prestazioni, mentre troppo poche creano rischi inaccettabili. La “modalità automatica” di Anthropic, attualmente in anteprima di ricerca, è il loro ultimo tentativo di raggiungere questo equilibrio.
### Come funziona la modalità automatica
Il sistema utilizza protezioni basate sull’intelligenza artificiale per valutare ogni azione prima dell’esecuzione. Verifica la presenza di comportamenti non desiderati (come iniezioni di codice dannoso) e blocca automaticamente le attività rischiose. Le azioni sicure procedono senza interruzioni. Questa è effettivamente una versione aggiornata del comando “pericolosamente-salta-permessi” di Claude, ma con un ulteriore livello di protezione.
La modalità automatica semplifica i flussi di lavoro consentendo all’intelligenza artificiale di decidere quando è necessaria la revisione umana, anziché richiederla ogni volta.
Perché è importante
La crescente autonomia degli strumenti di intelligenza artificiale come Claude è cruciale per la produttività. Gli sviluppatori dedicano molto tempo a fare da babysitter all’IA, approvando manualmente le azioni che dovrebbero essere di routine. La modalità automatica promette di ridurre questo sovraccarico, consentendo all’IA di gestire più attività in modo indipendente.
Tuttavia, la trasparenza è ancora una questione importante. Anthropic non ha spiegato pubblicamente in dettaglio come il suo livello di sicurezza determina cosa è “sicuro”. Gli sviluppatori avranno bisogno di questa chiarezza per fidarsi del sistema. L’azienda consiglia di eseguire test in ambienti isolati (sandbox) per ridurre al minimo i potenziali danni derivanti da errori imprevisti.
Contesto più ampio
Questo annuncio si basa sulle recenti versioni di Anthropic, tra cui Claude Code Review (rilevamento automatico dei bug) e Dispatch for Cowork (gestione delle attività basata sull’intelligenza artificiale). Tutti questi strumenti puntano verso un futuro in cui l’intelligenza artificiale gestirà automaticamente la maggior parte del processo di codifica.
La modalità automatica è attualmente disponibile per gli utenti Enterprise e API e funziona con i modelli Claude Sonnet 4.6 e Opus 4.6. Questa mossa sottolinea la corsa del settore verso la creazione di strumenti di intelligenza artificiale che siano potenti e affidabili: un obiettivo difficile, ma sempre più critico.




























