Un nuevo estudio del Instituto para el Diálogo Estratégico (ISD) revela una tendencia preocupante: los chatbots de IA incorporan con frecuencia propaganda rusa en sus respuestas sobre la guerra en Ucrania. La investigación, que analizó respuestas de destacadas plataformas de inteligencia artificial como ChatGPT de OpenAI, Gemini de Google, Grok de xAI y V3.2 de Deepseek, destaca cómo estos sistemas son susceptibles de reflejar un lenguaje sesgado y depender de fuentes rusas, particularmente cuando abordan temas específicos.
Metodología y hallazgos clave
Los investigadores del ISD plantearon más de 300 preguntas en cinco idiomas sobre el conflicto en Ucrania. Estas preguntas se elaboraron intencionalmente con un lenguaje sesgado, malicioso o neutral para evaluar cómo respondería cada chatbot y a qué fuentes recurriría. El estudio encontró que las fuentes rusas aparecían con mucha más frecuencia en respuestas a mensajes sesgados y maliciosos, lo que genera preocupación sobre la posibilidad de que estas plataformas amplifiquen inadvertidamente la desinformación.
Observaciones específicas de la plataforma
Cada chatbot de IA mostró comportamientos distintos al responder consultas sobre Ucrania:
- ChatGPT: Demostró una fuerte tendencia a proporcionar fuentes rusas cuando se les presentan mensajes sesgados o maliciosos, ofreciendo tres veces más enlaces rusos en comparación con preguntas neutrales.
- Grok: Era más propenso a citar fuentes rusas incluso en preguntas neutrales. Un patrón notable fue la cita directa de Grok de periodistas de Russia Today, desdibujando la línea entre la propaganda respaldada por el Estado y la opinión personal. Los investigadores también señalaron que es posible que Grok no detecte ni restrinja eficazmente el contenido de los medios estatales rusos sancionados, incluso cuando lo vuelvan a publicar terceros.
- Deepseek: Proporcionó el mayor volumen de enlaces a fuentes respaldadas por Rusia en dos consultas, dirigiendo a los usuarios a plataformas como VT Foreign Policy, que difunde contenido de conocidos grupos de propaganda rusa.
- Géminis: Mostró el comportamiento más exigente, negándose a responder algunas preguntas maliciosas citando preocupaciones sobre temas potencialmente inapropiados o inseguros. Si bien reconoció los riesgos asociados con las indicaciones sesgadas, en ocasiones no reveló las fuentes utilizadas para formular sus respuestas.
El papel de los ‘vacíos de datos’ y el sesgo de confirmación
El estudio identificó un factor clave que contribuye a este fenómeno: la presencia de “vacíos de datos”. Estos son términos de búsqueda o temas que carecen de una cantidad sustancial de información confiable y de alta calidad. En estos casos, parece más probable que los chatbots dependan de fuentes disponibles, incluso si provienen de medios potencialmente sesgados o propagandísticos.
Los investigadores enfatizaron que los hallazgos confirman la presencia de un “sesgo de confirmación” en los sistemas de IA. Esto significa que los chatbots tienden a imitar el lenguaje utilizado en las indicaciones, lo que influye tanto en cómo expresan sus respuestas como en las fuentes que priorizan.
Temas de preocupación
La prevalencia de fuentes rusas varió según el tema consultado:
- Reclutamiento militar: Las fuentes estatales rusas fueron citadas con mayor frecuencia cuando las preguntas se referían a los esfuerzos de reclutamiento militar de Ucrania. Grok citó al menos una fuente rusa en el 40% de sus respuestas, mientras que ChatGPT le siguió con más del 28%.
- Crímenes de guerra y refugiados ucranianos: Estos temas dieron como resultado la menor cantidad de fuentes respaldadas por Rusia en los cuatro chatbots.
Conclusión
Los hallazgos del estudio subrayan la necesidad apremiante de una mayor vigilancia sobre el potencial de los chatbots de IA para difundir propaganda rusa. Si bien algunas plataformas como Gemini han demostrado capacidad para reconocer y rechazar mensajes maliciosos, la tendencia general destaca la necesidad de mejorar la verificación de la fuente, ajustes algorítmicos para mitigar el sesgo de confirmación y esfuerzos para llenar los vacíos de datos con información confiable e imparcial. Abordar estos desafíos es crucial para garantizar que los chatbots de IA sirvan como fuentes confiables de información y no contribuyan inadvertidamente a la difusión de desinformación.
