Anthropic klaagt de Amerikaanse regering aan vanwege AI-beperkingen: een confrontatie in de rechtbank

5

De botsing tussen Anthropic, een toonaangevend bedrijf op het gebied van kunstmatige intelligentie, en de Amerikaanse regering escaleert snel. Dinsdag zal Anthropic zijn zaak voorleggen aan de federale rechtbank voor een voorlopig bevel tegen het Ministerie van Oorlog en het Witte Huis, na een publiek geschil over het militaire gebruik van zijn Claude AI-model.

Het kernprobleem: Anthropic weigerde onbeperkte militaire toepassingen van zijn AI toe te staan, en verbood specifiek het gebruik ervan in dodelijke autonome wapensystemen zonder menselijk toezicht en massale surveillance van Amerikaanse burgers. Als reactie hierop bestempelde de regering Anthropic als een “toeleveringsketenrisico voor de nationale veiligheid” en stopte ze elk federaal gebruik van haar technologie.

De juridische strijd: twee fronten

Anthropic vecht terug op twee juridische fronten. In de eerste plaats streeft het bedrijf naar een heroverweging van de aanduiding ‘toeleveringsketenrisico’, met het argument dat het een ongekende en onwettige toepassing is van een beleid dat historisch voorbehouden was aan buitenlandse tegenstanders als Huawei. Het bedrijf beweert dat het bewapenen van deze benaming tegen een binnenlands bedrijf vanwege meningsverschillen over beleid een gevaarlijk precedent schept.

Ten tweede maakt Anthropic zich zorgen over het Eerste Amendement, waarbij wordt beweerd dat de plaatsing op de zwarte lijst inbreuk maakt op haar recht op vrijheid van meningsuiting en protest. Dit argument benadrukt een groeiende spanning tussen bedrijfsethiek en nationale veiligheidsbelangen.

Zorgen van de overheid: controle en betrouwbaarheid

Het standpunt van het Ministerie van Oorlog concentreert zich op de operationele controle. In rechtszaken uitte de regering de vrees dat Anthropic zijn AI-systemen zou kunnen saboteren – door deze geheel uit te schakelen of door preventief hun gedrag te veranderen – als het bedrijf het gevoel had dat zijn ‘rode lijnen’ in oorlogstijd werden overschreden.

Deze zorg werd echter nooit geuit tijdens de initiële contractonderhandelingen. Anthropic verzekerde zich in 2025 van een Pentagon-contract ter waarde van 200 miljoen dollar, maar weigerde later het gebruik van zijn AI voor massasurveillance of geautomatiseerde wapenbeslissingen toe te staan. De plotselinge verschuiving van de regering weerspiegelt de wens om een ​​onwrikbare betrouwbaarheid van geheime militaire systemen te garanderen.

Bredere implicaties: een keerpunt voor AI-beheer

De zaak trekt brede aandacht van de AI-gemeenschap. Wetenschappers en onderzoekers van OpenAI, Google en Microsoft hebben, samen met juridische groepen, briefings ingediend ter ondersteuning van Anthropic. Dit onderstreept het bredere debat over wie de grenzen van AI moet definiëren: particuliere bedrijven die zich houden aan interne veiligheidsprincipes, of overheidsinstanties die prioriteit geven aan de nationale veiligheid.

Het Pentagon is al begonnen de focus te verleggen naar alternatieve AI-partners, waaronder OpenAI, xAI en Google. De uitkomst van deze juridische strijd zal echter blijvende gevolgen hebben voor de manier waarop overheden de ontwikkeling en inzet van AI reguleren.

De inzet is hoog: Deze zaak gaat niet alleen over één bedrijf; het gaat over het vaststellen van de regels voor een technologie die steeds meer vorm zal geven aan oorlogvoering, surveillance en de toekomst van de nationale veiligheid.