Anthropic, uno dei principali sviluppatori di intelligenza artificiale, ha annunciato la creazione di un nuovo modello chiamato Claude Mythos Preview. Tuttavia, con una mossa che segnala un cambiamento nel modo in cui viene gestita l’intelligenza artificiale ad alta capacità, l’azienda ha deciso di non rilasciare il modello al grande pubblico.
Anthropic sta invece limitando l’accesso a un gruppo specializzato di leader del settore per affrontare una preoccupazione crescente: il potenziale di utilizzo dell’intelligenza artificiale avanzata come arma per la guerra informatica.
Progetto Glasswing: una coalizione difensiva
Piuttosto che un lancio su larga scala, Anthropic sta implementando Mythos attraverso un consorzio noto come Project Glasswing. Questo gruppo è composto da oltre 40 importanti attori tecnologici, tra cui:
- Giganti della tecnologia: Apple, Amazon, Microsoft e Google.
- Fornitori di hardware e infrastrutture: Cisco e Broadcom.
- Guardiani dell’open source: La Linux Foundation.
L’obiettivo di questa coalizione è utilizzare le capacità di ragionamento avanzate del modello per identificare e correggere le vulnerabilità della sicurezza nei software e nelle infrastrutture critici prima che possano essere sfruttati da soggetti malintenzionati. Per sostenere questa iniziativa, Anthropic sta impegnando fino a 100 milioni di dollari in crediti di utilizzo Claude per il progetto.
Perché è importante: la “resa dei conti” dell’IA
La decisione di nascondere Mythos al pubblico evidenzia una crescente tensione nel settore dell’intelligenza artificiale: l’equilibrio tra innovazione e sicurezza. Man mano che i modelli diventano più capaci di comprendere codici complessi, diventano tecnologie a duplice uso. Sebbene possano aiutare gli sviluppatori a proteggere il software, possono anche essere utilizzati dagli hacker per scoprire vulnerabilità “zero-day”, ovvero difetti sconosciuti ai creatori del software.
La leadership di Anthropic suggerisce che ci stiamo avvicinando a un punto di svolta critico nella sicurezza informatica.
“L’obiettivo è sia quello di aumentare la consapevolezza sia quello di dare ai buoni attori un vantaggio nel processo di protezione delle infrastrutture e del codice open source e privati,”
— Jared Kaplan, Direttore scientifico di Anthropic
Logan Graham, capo del team di test di sicurezza di Anthropic, ha descritto il rilascio come una “resa dei conti” per l’industria. Ciò implica che gli attuali metodi di sicurezza del software potrebbero non essere più sufficienti in un’era in cui l’intelligenza artificiale può automatizzare la scoperta di exploit complessi.
Un cambiamento nella governance dell’IA
Limitando Mythos a un gruppo selezionato di “buoni attori”, Anthropic sta tentando di creare un precedente su come dovrebbero essere gestiti i “modelli di frontiera”, ovvero l’intelligenza artificiale che possiede capacità potenzialmente pericolose. Questo approccio si allontana dal tradizionale modello di “rilascio aperto” verso una strategia di difesa più controllata e collaborativa.
Questa mossa solleva domande significative per il futuro del settore:
– Altri sviluppatori di intelligenza artificiale seguiranno questo modello restrittivo per strumenti altamente capaci?
– Può un consorzio privato proteggere efficacemente l’infrastruttura digitale globale?
– Come si evolverà il divario tra “IA difensiva” e “IA offensiva”?
Conclusione
La decisione di Anthropic di limitare Claude Mythos segnala una nuova era di sviluppo dell’intelligenza artificiale in cui il potere di proteggere il software è visto come troppo pericoloso per essere lasciato nelle mani del grande pubblico. Attraverso il progetto Glasswing, l’azienda sta tentando di costruire uno scudo difensivo per stare un passo avanti rispetto alle minacce informatiche guidate dall’intelligenza artificiale.
