O conflito entre a Anthropic, uma empresa líder em inteligência artificial, e o governo dos EUA está a aumentar rapidamente. Na terça-feira, a Anthropic apresentará seu caso no tribunal federal para uma liminar contra o Departamento de Guerra e a Casa Branca, após uma disputa pública sobre o uso militar de seu modelo Claude AI.
A questão central: A Anthropic recusou-se a permitir aplicações militares irrestritas da sua IA, proibindo especificamente a sua utilização em sistemas de armas letais autónomos sem supervisão humana e vigilância em massa de cidadãos dos EUA. Em resposta, o governo classificou a Antrópico como um “risco da cadeia de abastecimento para a segurança nacional” e suspendeu todo o uso federal da sua tecnologia.
A batalha jurídica: duas frentes
A Anthropic está reagindo em duas frentes jurídicas. Em primeiro lugar, procura a reconsideração da designação de “risco da cadeia de abastecimento”, argumentando que se trata de uma aplicação ilegal e sem precedentes de uma política historicamente reservada a adversários estrangeiros como a Huawei. A empresa afirma que usar esta designação como arma contra uma empresa nacional devido a divergências políticas estabelece um precedente perigoso.
Em segundo lugar, a Anthropic está a levantar preocupações relativas à Primeira Emenda, afirmando que a inclusão na lista negra viola o seu direito à liberdade de expressão e de protesto. Este argumento destaca uma tensão crescente entre a ética corporativa e os interesses de segurança nacional.
Preocupações do Governo: Controle e Confiabilidade
A posição do Departamento de Guerra centra-se no controle operacional. Nos processos judiciais, o governo expressou receios de que a Anthropic pudesse sabotar os seus sistemas de IA – desactivando-os totalmente ou alterando preventivamente o seu comportamento – se a empresa sentisse que as suas “linhas vermelhas” estavam a ser ultrapassadas durante a guerra.
Esta preocupação, no entanto, nunca foi levantada durante as negociações iniciais do contrato. A Anthropic garantiu um contrato de US$ 200 milhões com o Pentágono em 2025, mas mais tarde recusou-se a permitir o uso de sua IA para vigilância em massa ou decisões sobre armas automatizadas. A mudança repentina do governo reflecte o desejo de garantir uma fiabilidade inabalável nos sistemas militares classificados.
Implicações mais amplas: um ponto de viragem para a governança da IA
O caso está atraindo ampla atenção da comunidade de IA. Cientistas e pesquisadores da OpenAI, Google e Microsoft, juntamente com grupos jurídicos, apresentaram petições em apoio à Anthropic. Isto sublinha o debate mais amplo sobre quem deve definir os limites da IA: as empresas privadas que aderem aos princípios de segurança interna ou as autoridades públicas que dão prioridade à segurança nacional.
O Pentágono já começou a mudar o foco para parceiros alternativos de IA, incluindo OpenAI, xAI e Google. No entanto, o resultado desta batalha jurídica terá implicações duradouras na forma como os governos regulam o desenvolvimento e a implantação da IA.
Os riscos são altos: Este caso não envolve apenas uma empresa; trata-se de estabelecer as regras para uma tecnologia que moldará cada vez mais a guerra, a vigilância e o futuro da segurança nacional.




























