Les chatbots IA partagent de plus en plus la propagande russe concernant l’Ukraine

14

Une nouvelle étude de l’Institut pour le dialogue stratégique (ISD) révèle une tendance inquiétante : les chatbots IA intègrent fréquemment la propagande russe dans leurs réponses sur la guerre en Ukraine. La recherche, qui a analysé les réponses de plates-formes d’IA de premier plan telles que ChatGPT d’OpenAI, Gemini de Google, Grok de xAI et V3.2 de Deepseek, souligne à quel point ces systèmes sont susceptibles de refléter un langage biaisé et de s’appuyer sur des sources russes, en particulier lorsqu’ils abordent des sujets spécifiques.

Méthodologie et principales conclusions

Les chercheurs de l’ISD ont posé plus de 300 questions en cinq langues sur le conflit en Ukraine. Ces questions ont été intentionnellement rédigées dans un langage biaisé, malveillant ou neutre pour évaluer la manière dont chaque chatbot réagirait et sur quelles sources il s’appuierait. L’étude a révélé que les sources russes apparaissaient beaucoup plus souvent dans les réponses à des invites biaisées et malveillantes, soulevant des inquiétudes quant au potentiel de ces plateformes d’amplifier par inadvertance la désinformation.

Observations spécifiques à la plateforme

Chaque chatbot IA a présenté des comportements distincts lorsqu’il a répondu aux requêtes sur l’Ukraine :

  • ChatGPT : A démontré une forte tendance à fournir des sources russes lorsque des invites biaisées ou malveillantes lui sont présentées, offrant trois fois plus de liens russes que les questions neutres.
  • Grok : Était le plus enclin à citer des sources russes, même pour des questions neutres. Une tendance notable a été la citation directe par Grok des journalistes de Russia Today, brouillant la frontière entre la propagande soutenue par l’État et l’opinion personnelle. Les chercheurs ont également noté que Grok pourrait ne pas détecter et restreindre efficacement le contenu des médias d’État russes sanctionnés, même lorsqu’il est republié par des tiers.
  • Deepseek : a fourni le plus grand volume de liens vers des sources soutenues par la Russie dans deux requêtes, dirigeant les utilisateurs vers des plateformes comme VT Foreign Policy, qui diffuse le contenu de groupes de propagande russes connus.
  • Gémeaux : A fait preuve du comportement le plus perspicace, refusant de répondre à certaines invites malveillantes en citant des préoccupations concernant des sujets potentiellement inappropriés ou dangereux. Même s’il reconnaissait les risques associés aux sollicitations biaisées, il lui arrivait parfois de ne pas divulguer les sources utilisées pour formuler ses réponses.

Le rôle des « vides de données » et du biais de confirmation

L’étude a identifié un facteur clé contribuant à ce phénomène : la présence de « vides de données ». Il s’agit de termes de recherche ou de sujets dépourvus d’une quantité substantielle d’informations fiables et de haute qualité. Dans ces cas-là, les chatbots semblent plus susceptibles de s’appuyer sur les sources disponibles, même si celles-ci proviennent de médias potentiellement biaisés ou propagandistes.

Les chercheurs ont souligné que les résultats confirment la présence d’un « biais de confirmation » dans les systèmes d’IA. Cela signifie que les chatbots ont tendance à imiter le langage utilisé dans les invites, influençant à la fois la façon dont ils formulent leurs réponses et les sources qu’ils priorisent.

Sujets de préoccupation

La prévalence des sources russes variait en fonction du sujet interrogé :

  • Recrutement militaire : Les sources étatiques russes ont été les plus fréquemment citées lorsque les questions concernaient les efforts de recrutement militaire de l’Ukraine. Grok a cité au moins une source russe dans 40 % de ses réponses, tandis que ChatGPT suivait avec plus de 28 %.
  • Crimes de guerre et réfugiés ukrainiens : Ces sujets ont généré le moins de sources soutenues par la Russie parmi les quatre chatbots.

Conclusion

Les résultats de l’étude soulignent la nécessité urgente d’une plus grande vigilance quant au potentiel des chatbots IA à diffuser de la propagande russe. Même si certaines plates-formes comme Gemini ont démontré leur capacité à reconnaître et à refuser les invites malveillantes, la tendance générale met en évidence la nécessité d’une meilleure vérification des sources, d’ajustements algorithmiques pour atténuer les biais de confirmation et d’efforts pour combler les vides de données avec des informations fiables et impartiales. Il est essentiel de relever ces défis pour garantir que les chatbots IA constituent des sources d’informations fiables et ne contribuent pas par inadvertance à la propagation de la désinformation.