Anthropic, een toonaangevende ontwikkelaar van kunstmatige intelligentie, heeft de creatie aangekondigd van een nieuw model genaamd Claude Mythos Preview. In een beweging die echter een verschuiving signaleert in de manier waarop AI met hoge capaciteiten wordt beheerd, heeft het bedrijf besloten het model niet vrij te geven aan het grote publiek.
In plaats daarvan beperkt Anthropic de toegang tot een gespecialiseerde groep marktleiders om een groeiend probleem aan te pakken: het potentieel dat geavanceerde AI kan worden gebruikt als wapen voor cyberoorlogvoering.
Project Glasswing: een defensieve coalitie
In plaats van een grootschalige lancering implementeert Anthropic Mythos via een consortium dat bekend staat als Project Glasswing. Deze groep bestaat uit ruim 40 grote technologiespelers, waaronder:
- Techgiganten: Apple, Amazon, Microsoft en Google.
- Hardware- en infrastructuurproviders: Cisco en Broadcom.
- Open-source Guardians: De Linux Foundation.
Het doel van deze coalitie is om de geavanceerde redeneermogelijkheden van het model te gebruiken om beveiligingskwetsbaarheden in kritieke software en infrastructuur te identificeren en te patchen voordat deze kunnen worden uitgebuit door kwaadwillende actoren. Om dit initiatief te ondersteunen, zet Anthropic maximaal $100 miljoen aan Claude-gebruikskredieten in voor het project.
Waarom dit ertoe doet: de AI “Reckoning”
Het besluit om Mythos voor het publiek achter te houden benadrukt een groeiende spanning in de AI-industrie: de balans tussen innovatie en veiligheid. Naarmate modellen beter in staat worden complexe code te begrijpen, worden het technologieën voor tweeërlei gebruik. Hoewel ze ontwikkelaars kunnen helpen software te beveiligen, kunnen ze ook door hackers worden gebruikt om ‘zero-day’-kwetsbaarheden te ontdekken: fouten die onbekend zijn bij de softwaremakers.
Het leiderschap van Anthropic suggereert dat we een cruciaal keerpunt in cyberbeveiliging naderen.
“Het doel is zowel het bewustzijn te vergroten als goede actoren een voorsprong te geven in het proces van het beveiligen van open-source en private infrastructuur en code,”
— Jared Kaplan, Chief Science Officer van Anthropic
Logan Graham, hoofd van het veiligheidstestteam van Anthropic, beschreef de release als een “afrekening”** voor de industrie. Dit impliceert dat de huidige methoden voor softwarebeveiliging mogelijk niet langer voldoende zijn in een tijdperk waarin AI de ontdekking van complexe exploits kan automatiseren.
Een verschuiving in AI-beheer
Door Mythos te beperken tot een doorgelichte groep ‘goede actoren’ probeert Anthropic een precedent te scheppen voor de manier waarop met ‘grensmodellen’ – AI die potentieel gevaarlijke capaciteiten bezit – moet worden omgegaan. Deze benadering beweegt zich weg van het traditionele ‘open release’-model naar een meer gecontroleerde, collaboratieve verdedigingsstrategie.
Deze stap roept belangrijke vragen op voor de toekomst van de industrie:
– Zullen andere AI-ontwikkelaars dit beperkende model voor zeer capabele tools volgen?
– Kan een particulier consortium de mondiale digitale infrastructuur effectief beschermen?
– Hoe zal de kloof tussen ‘defensieve AI’ en ‘offensieve AI’ evolueren?
Conclusie
Het besluit van Anthropic om Claude Mythos aan banden te leggen luidt een nieuw tijdperk van AI-ontwikkeling in, waarin de macht om software te beveiligen als te gevaarlijk wordt beschouwd om aan het grote publiek over te laten. Via Project Glasswing probeert het bedrijf een defensief schild op te bouwen om AI-gestuurde cyberdreigingen een stap voor te blijven.




























