Het standpunt van Anthropic tegen onbeperkt militair AI-gebruik: een onderhandeling met hoge inzet

8

Anthropic, een toonaangevende AI-startup met een waarde van $380 miljard, is verwikkeld in een gespannen impasse met het Amerikaanse ministerie van Defensie (Pentagon) over het onbeperkte gebruik van zijn technologie. Het kerngeschil draait om een ​​eenvoudige maar cruciale clausule: of het leger de AI van Anthropic kan inzetten voor ‘elk rechtmatig gebruik’. Dit zou het Pentagon een brede bevoegdheid geven om de AI te gebruiken voor surveillance, dodelijke autonome wapensystemen en andere toepassingen die momenteel beperkt worden door het interne beleid van het bedrijf.

De onderhandelingen zijn geëscaleerd in tactieken van publieke druk, waarbij functionarissen van het Pentagon naar verluidt hebben gedreigd Anthropic te classificeren als een “toeleveringsketenrisico” – een benaming die doorgaans is voorbehouden aan bedreigingen van de nationale veiligheid. Deze stap, aangestuurd door Pentagon CTO Emil Michael, zou Anthropic effectief afsnijden van grote defensiecontracten en bedrijven als AWS, Palantir en Anduril dwingen de banden te verbreken. De situatie is ongekend, aangezien het Pentagon Amerikaanse bedrijven zelden publiekelijk bedreigt, laat staan ​​vanwege meningsverschillen over beleid.

Waarom dit ertoe doet

Het streven van het Pentagon naar ‘elk rechtmatig gebruik’ weerspiegelt een groeiende urgentie om AI zonder beperkingen in militaire operaties te integreren. Dit roept fundamentele vragen op over verantwoordelijkheid, ethische grenzen en het potentieel voor autonome wapensystemen die zonder menselijk toezicht kunnen functioneren. Het dispuut benadrukt de spanning tussen snelle technologische vooruitgang en de noodzaak van verantwoord AI-beheer.

De belangrijkste eisen

Anthropic heeft twee duidelijke lijnen in het zand getrokken: het zal niet toestaan dat zijn AI wordt gebruikt voor volledig autonome dodelijke operaties of massale binnenlandse surveillance. Het bedrijf stelt dat de huidige wetten de mogelijkheden van AI niet hebben ingehaald, waardoor mogelijk inbreuk wordt gemaakt op de burgerlijke vrijheden. Bovendien is Anthropic van mening dat de technologie voor echt autonome wapens zonder menselijke tussenkomst nog niet betrouwbaar genoeg is voor inzet.

Het Pentagon is echter vastbesloten alle beperkingen op te heffen. Een recente memo van minister Pete Hegseth eist dat bij alle AI-inkoopcontracten prioriteit wordt gegeven aan snelheid boven veiligheid, zelfs als dit betekent dat je ‘onvolmaakte afstemming’ moet accepteren. De memo roept expliciet op tot het integreren van AI in de ‘kill chain-uitvoering’ en het prioriteren van modellen die vrij zijn van gebruiksbeperkingen. OpenAI, xAI en Google hebben hun contracten al opnieuw onderhandeld om aan deze voorwaarden te voldoen, maar geen van hun modellen beschikt momenteel over de hoogste veiligheidsmachtiging die vereist is voor geheime Pentagon-operaties.

Claude’s unieke positie

Het Claude-model van Anthropic is de enige grens-AI die momenteel mag opereren op volledig geheime Pentagon-netwerken, ingezet via Palantir en de Top Secret Cloud van Amazon. Dit maakt het onvervangbaar in bepaalde workflows, waardoor Antropische invloed wordt uitgeoefend op de onderhandelingen. De poging van het Pentagon om Anthropic op de zwarte lijst te zetten zou een kwetsbaarheid voor één leverancier creëren, wat mogelijk kritieke militaire operaties zou belemmeren.

De bredere implicaties

De impasse reikt verder dan Anthropic. Andere AI-laboratoria worden geconfronteerd met soortgelijke druk om onbeperkt militair gebruik te accepteren, maar weinigen hebben zich publiekelijk verzet. Sommige waarnemers uit de sector beweren dat deze bedrijven hun waarderingen zouden kunnen rechtvaardigen zonder militaire contracten, terwijl anderen geloven dat Anthropic uiteindelijk zal toegeven. De uitkomst zal een precedent scheppen voor de manier waarop AI-technologie wordt geïntegreerd in oorlogvoering en surveillance, en zal de toekomst van militaire operaties en ethische overwegingen vormgeven.

De aanwijzing zou vereisen dat elke defensie-aannemer die overheidswerk zoekt, certificeert dat hij alle antropische technologie uit zijn systemen heeft verwijderd.

Het geschil speelt zich af in de publieke belangstelling en roept vragen op over transparantie en bedrijfsverantwoordelijkheid in het tijdperk van kunstmatige intelligentie. De agressieve tactieken van het Pentagon en het standvastige standpunt van Anthropic onderstrepen de hoge inzet die betrokken is bij het beheersen van de toekomst van AI.