Een nieuwe studie van het Instituut voor Strategische Dialoog (ISD) onthult een zorgwekkende trend: AI-chatbots integreren regelmatig Russische propaganda in hun reacties op de oorlog in Oekraïne. Het onderzoek, dat antwoorden analyseerde van prominente AI-platforms zoals OpenAI’s ChatGPT, Google’s Gemini, xAI’s Grok en Deepseek’s V3.2, benadrukt hoe deze systemen gevoelig zijn voor het weerspiegelen van bevooroordeeld taalgebruik en het vertrouwen op Russische bronnen, vooral bij het behandelen van specifieke onderwerpen.
Methodologie en belangrijkste bevindingen
De ISD-onderzoekers stelden ruim 300 vragen in vijf talen over het conflict in Oekraïne. Deze vragen zijn opzettelijk opgesteld in bevooroordeelde, kwaadaardige of neutrale taal om te beoordelen hoe elke chatbot zou reageren en uit welke bronnen ze zouden putten. Uit het onderzoek bleek dat Russische bronnen aanzienlijk vaker voorkwamen in antwoorden op bevooroordeelde en kwaadwillige aanwijzingen, wat aanleiding gaf tot bezorgdheid over het potentieel van deze platforms om onbedoeld desinformatie te versterken.
Platformspecifieke observaties
Elke AI-chatbot vertoonde verschillend gedrag bij het reageren op vragen over Oekraïne:
- ChatGPT: Heeft een sterke neiging getoond om Russische bronnen te verstrekken wanneer er bevooroordeelde of kwaadaardige aanwijzingen worden gegeven, waarbij drie keer meer Russische links worden aangeboden vergeleken met neutrale vragen.
- Grok: Was het meest geneigd Russische bronnen te citeren, zelfs in neutrale vragen. Een opmerkelijk patroon was Grok’s directe citatie van journalisten van Russia Today, waardoor de grens tussen door de staat gesteunde propaganda en persoonlijke mening vervaagde. Onderzoekers merkten ook op dat Grok de inhoud van gesanctioneerde Russische staatsmedia mogelijk niet effectief kan detecteren en beperken, zelfs niet als deze door derden wordt gepost.
- Deepseek: Biedt het grootste aantal links naar door Rusland gesteunde bronnen in twee zoekopdrachten, waardoor gebruikers naar platforms zoals VT Foreign Policy worden geleid, dat inhoud van bekende Russische propagandagroepen verspreidt.
- Tweelingen: Vertoonde het meest kritische gedrag en weigerde enkele kwaadaardige aanwijzingen te beantwoorden door zorgen te uiten over mogelijk ongepaste of onveilige onderwerpen. Hoewel zij de risico’s onderkende die gepaard gingen met bevooroordeelde aanwijzingen, verzuimde zij soms de bronnen vrij te geven die waren gebruikt om haar antwoorden te formuleren.
De rol van ‘dataleemten’ en bias in de bevestiging
De studie identificeerde een sleutelfactor die aan dit fenomeen bijdraagt: de aanwezigheid van ‘dataleemtes’. Dit zijn zoektermen of onderwerpen waar een substantiële hoeveelheid betrouwbare informatie van hoge kwaliteit ontbreekt. In deze gevallen lijken chatbots eerder te vertrouwen op beschikbare bronnen, zelfs als ze afkomstig zijn van mogelijk bevooroordeelde of propagandistische kanalen.
Onderzoekers benadrukten dat de bevindingen de aanwezigheid van ‘bevestigingsbias’ in AI-systemen bevestigen. Dit betekent dat chatbots de neiging hebben om de taal die in prompts wordt gebruikt na te bootsen, waardoor ze zowel de manier waarop ze hun antwoorden verwoorden als de bronnen die ze prioriteren beïnvloeden.
Onderwerpen van zorg
De prevalentie van Russische bronnen varieerde op basis van het onderwerp dat werd ondervraagd:
- Militaire rekrutering: Russische staatsbronnen werden het vaakst aangehaald als vragen betrekking hadden op de militaire rekruteringsinspanningen van Oekraïne. Grok citeerde in 40% van zijn reacties ten minste één Russische bron, terwijl ChatGPT met ruim 28% volgde.
- Oorlogsmisdaden en Oekraïense vluchtelingen: Deze onderwerpen resulteerden in het minste aantal door Rusland gesteunde bronnen in alle vier de chatbots.
Conclusie
De bevindingen van het onderzoek onderstrepen een dringende behoefte aan grotere waakzaamheid met betrekking tot het potentieel van AI-chatbots om Russische propaganda te verspreiden. Hoewel sommige platforms zoals Gemini hebben aangetoond dat ze kwaadaardige aanwijzingen kunnen herkennen en weigeren, benadrukt de algemene trend de noodzaak van verbeterde bronverificatie, algoritmische aanpassingen om vooroordelen over de bevestiging te verminderen, en pogingen om leemten in de gegevens op te vullen met betrouwbare, onbevooroordeelde informatie. Het aanpakken van deze uitdagingen is van cruciaal belang om ervoor te zorgen dat AI-chatbots dienen als betrouwbare informatiebronnen en niet onbedoeld bijdragen aan de verspreiding van desinformatie





























