AI Chatbots compartilham cada vez mais propaganda russa em relação à Ucrânia

6

Um novo estudo realizado pelo Instituto para o Diálogo Estratégico (ISD) revela uma tendência preocupante: os chatbots de IA incorporam frequentemente a propaganda russa nas suas respostas sobre a guerra na Ucrânia. A pesquisa, que analisou respostas de plataformas de IA proeminentes como ChatGPT da OpenAI, Gemini do Google, Grok da xAI e V3.2 da Deepseek, destaca como esses sistemas são suscetíveis a espelhar linguagem tendenciosa e a depender de fontes russas, especialmente ao abordar tópicos específicos.

Metodologia e principais conclusões

Os investigadores do ISD colocaram mais de 300 perguntas em cinco línguas sobre o conflito na Ucrânia. Essas perguntas foram elaboradas intencionalmente com linguagem tendenciosa, maliciosa ou neutra para avaliar como cada chatbot responderia e em quais fontes eles recorreriam. O estudo concluiu que as fontes russas apareciam com uma frequência significativamente maior em respostas a solicitações tendenciosas e maliciosas, levantando preocupações sobre o potencial destas plataformas amplificarem inadvertidamente a desinformação.

Observações específicas da plataforma

Cada chatbot de IA exibiu comportamentos distintos ao responder a perguntas sobre a Ucrânia:

  • ChatGPT: demonstrou uma forte tendência de fornecer fontes russas quando apresentadas a solicitações tendenciosas ou maliciosas, oferecendo três vezes mais links russos em comparação com perguntas neutras.
  • Grok: Era mais propenso a citar fontes russas mesmo em questões neutras. Um padrão notável foi a citação direta de jornalistas do Russia Today por Grok, confundindo a linha entre a propaganda apoiada pelo Estado e a opinião pessoal. Os pesquisadores também observaram que Grok pode não detectar e restringir com eficácia o conteúdo da mídia estatal russa sancionada, mesmo quando republicado por terceiros.
  • Deepseek: Forneceu o maior volume de links para fontes apoiadas pela Rússia em duas consultas, direcionando os usuários para plataformas como a VT Foreign Policy, que divulga conteúdo de conhecidos grupos de propaganda russos.
  • Gêmeos: Mostrou o comportamento mais criterioso, recusando-se a responder a algumas solicitações maliciosas, citando preocupações sobre tópicos potencialmente inapropriados ou inseguros. Embora reconhecesse os riscos associados a sugestões tendenciosas, por vezes não divulgou as fontes utilizadas para formular as suas respostas.

O papel dos ‘vazios de dados’ e o viés de confirmação

O estudo identificou um fator-chave que contribui para esse fenômeno: a presença de “vazios de dados”. São termos de pesquisa ou tópicos que carecem de uma quantidade substancial de informações confiáveis ​​e de alta qualidade. Nestes casos, os chatbots parecem mais propensos a confiar nas fontes disponíveis, mesmo que tenham origem em meios de comunicação potencialmente tendenciosos ou propagandísticos.

Os pesquisadores enfatizaram que as descobertas confirmam a presença de “viés de confirmação” nos sistemas de IA. Isso significa que os chatbots tendem a imitar a linguagem usada nas solicitações, influenciando tanto a forma como formulam suas respostas quanto as fontes que priorizam.

Tópicos de preocupação

A prevalência de fontes russas variou de acordo com o assunto questionado:

  • Recrutamento Militar: As fontes estatais russas foram citadas com mais frequência quando as questões diziam respeito aos esforços de recrutamento militar da Ucrânia. Grok citou pelo menos uma fonte russa em 40% de suas respostas, enquanto ChatGPT seguiu com mais de 28%.
  • Crimes de guerra e refugiados ucranianos: Esses tópicos resultaram no menor número de fontes apoiadas pela Rússia em todos os quatro chatbots.

Conclusão

As conclusões do estudo sublinham a necessidade premente de maior vigilância relativamente ao potencial dos chatbots de IA para disseminar a propaganda russa. Embora algumas plataformas como a Gemini tenham demonstrado capacidade de reconhecer e recusar solicitações maliciosas, a tendência geral destaca a necessidade de uma melhor verificação da fonte, de ajustes algorítmicos para mitigar o viés de confirmação e de esforços para preencher lacunas de dados com informações confiáveis ​​e imparciais. Enfrentar estes desafios é crucial para garantir que os chatbots de IA sirvam como fontes confiáveis ​​de informação e não contribuam inadvertidamente para a propagação da desinformação