A posição da Anthropic contra o uso militar irrestrito de IA: uma negociação de alto risco

18
A posição da Anthropic contra o uso militar irrestrito de IA: uma negociação de alto risco

A Anthropic, uma startup líder em IA avaliada em US$ 380 bilhões, está envolvida em um tenso impasse com o Departamento de Defesa dos EUA (Pentágono) sobre o uso irrestrito de sua tecnologia. A disputa central gira em torno de uma cláusula simples, mas crítica: se os militares podem implantar a IA da Anthropic para “qualquer uso legal”. Isto concederia ao Pentágono ampla autoridade para utilizar a IA para vigilância, sistemas de armas letais autónomos e outras aplicações atualmente restritas pelas políticas internas da empresa.

As negociações transformaram-se em tácticas de pressão pública, com funcionários do Pentágono alegadamente a ameaçar classificar a Antrópico como um “risco da cadeia de abastecimento” – uma designação normalmente reservada para ameaças à segurança nacional. Este movimento, impulsionado pelo CTO do Pentágono, Emil Michael, cortaria efetivamente a Antrópico dos principais contratos de defesa e forçaria empresas como AWS, Palantir e Anduril a romperem laços. A situação não tem precedentes, uma vez que o Pentágono raramente ameaça publicamente as empresas americanas, muito menos por causa de divergências políticas.

Por que isso é importante

A pressão do Pentágono para “qualquer utilização legal” reflecte uma urgência crescente de integrar a IA em operações militares sem limitações. Isto levanta questões fundamentais sobre a responsabilização, os limites éticos e o potencial de sistemas de armas autónomos que operam sem supervisão humana. A disputa realça a tensão entre o rápido avanço tecnológico e a necessidade de uma governação responsável da IA.

As principais demandas

A Anthropic traçou duas linhas firmes: não permitirá que a sua IA seja utilizada para operações letais totalmente autónomas ou para vigilância doméstica em massa. A empresa argumenta que as leis atuais não acompanharam as capacidades da IA, potencialmente infringindo as liberdades civis. Além disso, a Anthropic acredita que a tecnologia para armas verdadeiramente autónomas sem intervenção humana ainda não é suficientemente fiável para implantação.

O Pentágono, contudo, está determinado a eliminar quaisquer restrições. Um memorando recente do secretário Pete Hegseth exige que todos os contratos de aquisição de IA priorizem a velocidade em detrimento da segurança, mesmo que isso signifique aceitar o “alinhamento imperfeito”. O memorando pede explicitamente a integração da IA ​​na “execução da cadeia de destruição” e a priorização de modelos livres de restrições de uso. OpenAI, xAI e Google já renegociaram os seus contratos para cumprir estes termos, mas nenhum dos seus modelos possui atualmente a mais alta autorização de segurança exigida para operações confidenciais do Pentágono.

Posição Única de Claude

O modelo Claude da Antrópico é a única IA de fronteira atualmente liberada para operar em redes totalmente classificadas do Pentágono, implantadas através do Palantir e da Top Secret Cloud da Amazon. Isso o torna insubstituível em determinados fluxos de trabalho, dando vantagem à Antrópica na negociação. A tentativa do Pentágono de colocar a Antrópico na lista negra criaria uma vulnerabilidade de fornecedor único, potencialmente dificultando operações militares críticas.

As implicações mais amplas

O impasse vai além da Antrópica. Outros laboratórios de IA enfrentam pressões semelhantes para aceitar o uso militar irrestrito, mas poucos resistiram publicamente. Alguns observadores da indústria argumentam que estas empresas poderiam justificar as suas avaliações sem contratos militares, enquanto outros acreditam que a Anthropic acabará por ceder. O resultado estabelecerá um precedente sobre como a tecnologia de IA é integrada na guerra e na vigilância, moldando o futuro das operações militares e das considerações éticas.

A designação exigiria que cada empreiteiro de defesa que buscasse trabalho governamental certificasse que removeu toda a tecnologia antrópica de seus sistemas.

A disputa está a desenrolar-se aos olhos do público, levantando questões sobre transparência e responsabilidade corporativa na era da inteligência artificial. As tácticas agressivas do Pentágono e a posição firme da Anthropic sublinham os altos riscos envolvidos no controlo do futuro da IA.