додому Без рубрики Чат-боты с ИИ всё чаще распространяют российскую пропаганду о войне в Украине

Чат-боты с ИИ всё чаще распространяют российскую пропаганду о войне в Украине

Новое исследование Института стратегического диалога (ISD) выявляет тревожную тенденцию: чат-боты с ИИ всё чаще включают российскую пропаганду в свои ответы о войне в Украине. Исследование, которое проанализировало ответы популярных платформ ИИ, таких как ChatGPT от OpenAI, Gemini от Google, Grok от xAI и V3.2 от Deepseek, показывает, что эти системы подвержены воспроизведению предвзятых формулировок и опираются на российские источники, особенно при освещении конкретных тем.

Методология и основные результаты

Исследователи ISD задали более 300 вопросов на пяти языках о конфликте в Украине. Эти вопросы были намеренно составлены с использованием предвзятого, злонамеренного или нейтрального языка, чтобы оценить, как каждый чат-бот будет отвечать и на какие источники он будет опираться. Исследование показало, что российские источники появлялись значительно чаще в ответах на предвзятые и злонамеренные запросы, что вызывает опасения по поводу потенциала этих платформ непреднамеренно усиливать дезинформацию.

Особенности поведения отдельных платформ

Каждый чат-бот с ИИ демонстрировал различные особенности при ответах на вопросы об Украине:

  • ChatGPT: Проявлял явную тенденцию к предоставлению российских источников при предвзятых или злонамеренных запросах, предлагая в три раза больше ссылок на российские ресурсы по сравнению с нейтральными вопросами.
  • Grok: Наиболее часто цитировал российские источники даже в нейтральных вопросах. Заметной особенностью было прямое цитирование журналистов из телеканала «Russia Today», стирая грань между пропагандой, поддерживаемой государством, и личным мнением. Исследователи также отметили, что Grok может неэффективно обнаруживать и ограничивать контент от подсанкционных российских государственных СМИ, даже если он опубликован сторонними лицами.
  • Deepseek: Предоставил наибольшее количество ссылок на российские ресурсы в двух запросах, направляя пользователей на платформы, такие как VT Foreign Policy, которые распространяют контент от известных российских пропагандистских групп.
  • Gemini: Проявил наиболее взвешенное поведение, отказываясь отвечать на некоторые злонамеренные запросы, ссылаясь на опасения относительно потенциально неподобающих или небезопасных тем. Хотя он и осознавал риски, связанные с предвзятыми запросами, иногда не раскрывал источники, использованные для формулировки своих ответов.

Роль «информационных пробелов» и предвзятости подтверждения

Исследование выявило ключевой фактор, способствующий этому явлению: наличие «информационных пробелов». Это такие поисковые термины или темы, по которым отсутствует значительное количество высококачественной, надежной информации. В таких случаях чат-боты с большей вероятностью будут опираться на доступные источники, даже если они происходят из потенциально предвзятых или пропагандистских источников.

Исследователи подчеркнули, что результаты исследования подтверждают наличие «предвзятости подтверждения» в системах ИИ. Это означает, что чат-боты, как правило, воспроизводят язык, используемый в запросах, что влияет как на то, как они формулируют свои ответы, так и на источники, которые они отдают предпочтение.

Темы, вызывающие опасения

Преобладание российских источников варьировалось в зависимости от предмета запроса:

  • Военный набор: Российские государственные источники чаще всего цитировались, когда вопросы касались усилий Украины по военному набору. Grok цитировал по крайней мере один российский источник в 40% своих ответов, за ним следовал ChatGPT более чем в 28%.
  • Военные преступления и украинские беженцы: Эти темы привели к наименьшему количеству российских ресурсов во всех четырех чат-ботах.

Заключение

Выводы исследования подчеркивают острую необходимость в большей бдительности в отношении потенциала чат-ботов с ИИ распространять российскую пропаганду. Хотя некоторые платформы, такие как Gemini, продемонстрировали способность распознавать и отклонять злонамеренные запросы, общая тенденция подчеркивает необходимость улучшения проверки источников, внесения корректировок в алгоритмы для смягчения предвзятости подтверждения и усилий по заполнению информационных пробелов надежной, непредвзятой информацией. Решение этих задач имеет решающее значение для обеспечения того, чтобы чат-боты с ИИ служили надежными источниками информации и не способствовали непреднамеренному распространению дезинформации.

Exit mobile version