De National Security Agency (NSA) maakt naar verluidt gebruik van Mythos Preview, een zeer gespecialiseerd AI-model van Anthropic dat voor het grote publiek verborgen is gehouden. Deze ontwikkeling benadrukt een opvallende tegenstrijdigheid in het Amerikaanse defensiebeleid: terwijl het Pentagon Anthropic officieel heeft bestempeld als een potentieel ‘toeleveringsketenrisico’, integreren inlichtingendiensten actief de meest geavanceerde instrumenten van het bedrijf in hun activiteiten.
De Mythos-paradox: macht versus veiligheid
Eerder deze maand introduceerde Anthropic Mythos, een grensmodel dat speciaal is ontworpen voor cyberbeveiligingstaken op hoog niveau. Het bedrijf nam echter een zeldzame en belangrijke beslissing om het model niet openbaar te maken.
De redenering achter deze beperking is geworteld in de enorme potentie van het model. Anthropic verklaarde dat Mythos zo bedreven is in het identificeren en uitvoeren van cyberaanvallen dat het beschikbaar stellen ervan voor het publiek een enorme bedreiging voor de veiligheid zou kunnen vormen. In plaats daarvan is de toegang strikt beperkt tot ongeveer 40 geselecteerde organisaties.
Volgens rapporten van Axios behoort de NSA tot deze geheime gebruikers. Hun primaire toepassing voor het model omvat:
– Digitale omgevingen scannen op zwakke punten.
– Identificeren van exploiteerbare kwetsbaarheden binnen complexe netwerken.
Het Britse AI Security Institute heeft ook bevestigd dat het een van de weinige entiteiten is die toegang krijgt tot het model.
Een groeiende wrijving tussen defensie en technologie
De adoptie van Mythos door de NSA vindt plaats tegen een achtergrond van intense wrijving tussen het Ministerie van Defensie (DoD) en Anthropic. Het Pentagon bestempelde het AI-bedrijf onlangs als een ‘toeleveringsketenrisico’, een stap die voortkomt uit een fundamenteel meningsverschil over de ethische en operationele grenzen van AI.
Het geschil bereikte een kookpunt toen Anthropic weigerde Pentagon-functionarissen onbeperkte toegang te verlenen tot zijn modellen, en met name weigerde het gebruik van zijn Claude AI toe te staan voor:
1. Grote binnenlandse surveillanceoperaties.
2. De ontwikkeling van autonome wapensystemen.
Dit creëert een complex landschap voor de nationale veiligheid: het leger betoogt tegelijkertijd voor de rechtbank dat deze AI-instrumenten een bedreiging vormen voor de nationale veiligheid, terwijl inlichtingendiensten erop vertrouwen om de cyberverdediging te versterken.
Veranderende politieke winden
Ondanks de formele geschillen waarbij het Pentagon betrokken is, lijkt de relatie van Anthropic met de bredere Amerikaanse regering te verschuiven. Recente bijeenkomsten op hoog niveau duiden op een ‘dooiing’ van de betrekkingen tussen het AI-bedrijf en het Witte Huis.
CEO van Anthropic, Dario Amodei, had onlangs een ontmoeting met belangrijke figuren uit de regering, waaronder de stafchef van het Witte Huis Susie Wiles en minister van Financiën Scott Bessent. Het Witte Huis heeft deze discussies gekarakteriseerd als ‘productief’, wat duidt op een mogelijke omslag in de richting van een meer samenwerkingsrelatie tussen de overheid en toonaangevende AI-ontwikkelaars.
De spanning tussen de veiligheidsproblemen van het Pentagon en de operationele behoeften van de NSA onderstreept een kritisch debat: hoe kunnen we de immense kracht van grens-AI voor defensie benutten zonder nieuwe, oncontroleerbare kwetsbaarheden te creëren.
Conclusie
Het gebruik door de NSA van het beperkte Mythos-model van Anthropic brengt een verdeeldheid aan het licht in de manier waarop de Amerikaanse overheid AI ziet: in de ene context beschouwt zij het als een risico met een hoog risico en in een andere context als een essentieel strategisch bezit. Deze dualiteit benadrukt de voortdurende strijd om krachtige technologie te reguleren die te krachtig is voor het publiek, maar toch te belangrijk voor de nationale veiligheid om te negeren.





























