Anthropic revela ‘mitos’: um poderoso modelo de IA mantido longe do público para prevenir ameaças cibernéticas

4

A Anthropic, desenvolvedora líder de inteligência artificial, anunciou a criação de um novo modelo chamado Claude Mythos Preview. No entanto, num movimento que sinaliza uma mudança na forma como a IA de alta capacidade é gerida, a empresa decidiu não divulgar o modelo ao público em geral.

Em vez disso, a Anthropic está a limitar o acesso a um grupo especializado de líderes da indústria para abordar uma preocupação crescente: o potencial da IA avançada ser usada como arma para a guerra cibernética.

Projeto Glasswing: uma coalizão defensiva

Em vez de um lançamento em larga escala, a Anthropic está implantando o Mythos por meio de um consórcio conhecido como Projeto Glasswing. Este grupo consiste em mais de 40 grandes players de tecnologia, incluindo:

  • Gigantes da tecnologia: Apple, Amazon, Microsoft e Google.
  • Provedores de hardware e infraestrutura: Cisco e Broadcom.
  • Guardiões de código aberto: The Linux Foundation.

O objetivo desta coalizão é usar os recursos avançados de raciocínio do modelo para identificar e corrigir vulnerabilidades de segurança em software e infraestrutura críticos antes que possam ser explorados por atores mal-intencionados. Para apoiar esta iniciativa, a Anthropic está comprometendo até US$ 100 milhões em créditos de uso de Claude para o projeto.

Por que isso é importante: o “acerto de contas” da IA

A decisão de ocultar o Mythos do público destaca uma tensão crescente na indústria da IA: o equilíbrio entre inovação e segurança. À medida que os modelos se tornam mais capazes de compreender códigos complexos, eles se tornam tecnologias de dupla utilização. Embora possam ajudar os desenvolvedores a proteger o software, eles também podem ser usados ​​por hackers para descobrir vulnerabilidades de “dia zero” – falhas que são desconhecidas pelos criadores do software.

A liderança da Anthropic sugere que estamos nos aproximando de um ponto de viragem crítico na segurança cibernética.

“O objetivo é aumentar a conscientização e dar aos bons atores uma vantagem no processo de proteção de infraestrutura e código de código aberto e privado”,
Jared Kaplan, Diretor Científico da Anthropic

Logan Graham, chefe da equipe de testes de segurança da Anthropic, descreveu o lançamento como um “acerto de contas” para a indústria. Isto implica que os métodos atuais de segurança de software podem já não ser suficientes numa era em que a IA pode automatizar a descoberta de explorações complexas.

Uma mudança na governança da IA

Ao restringir o Mythos a um grupo examinado de “bons atores”, a Anthropic está tentando estabelecer um precedente sobre como os “modelos de fronteira” – IA que possui capacidades potencialmente perigosas – devem ser tratados. Esta abordagem afasta-se do modelo tradicional de “liberação aberta” em direção a uma estratégia de defesa mais controlada e colaborativa.

Esta mudança levanta questões significativas para o futuro da indústria:
– Outros desenvolvedores de IA seguirão este modelo restritivo para ferramentas altamente capazes?
– Pode um consórcio privado proteger eficazmente a infra-estrutura digital global?
– Como evoluirá a lacuna entre “IA defensiva” e “IA ofensiva”?


Conclusão
A decisão da Anthropic de restringir Claude Mythos sinaliza uma nova era de desenvolvimento de IA, onde o poder de proteger o software é visto como perigoso demais para ser deixado nas mãos do público em geral. Através do Projeto Glasswing, a empresa está tentando construir um escudo defensivo para ficar um passo à frente das ameaças cibernéticas impulsionadas pela IA.