ШІ чат-боти все активніше поширюють російську пропаганду про війну в Україні

11

Нове дослідження Інституту стратегічного діалогу (ISD) виявило тривожну тенденцію: чат-боти зі штучним інтелектом все частіше включають російську пропаганду у свої відповіді про війну в Україні. Дослідження, яке проаналізувало відповіді популярних платформ штучного інтелекту, таких як ChatGPT від OpenAI, Gemini від Google, Grok від xAI і V3.2 від Deepseek, показує, що ці системи сприйнятливі до відтворення упередженої мови та покладання на російські джерела, особливо при висвітленні конкретних тем.

Методологія та основні результати

Дослідники ISD поставили понад 300 запитань п’ятьма мовами про конфлікт в Україні. Ці запитання були навмисно написані з використанням упередженої, зловмисної або нейтральної мови, щоб оцінити, як кожен чат-бот відповість і на які джерела він покладається. Дослідження показало, що російські джерела значно частіше з’являлися у відповідях на упереджені та зловмисні запити, що викликає занепокоєння щодо потенціалу цих платформ ненавмисно поширювати дезінформацію.

Особливості поведінки окремих платформ

Кожен чат-бот ШІ демонстрував різні характеристики, відповідаючи на запитання про Україну:

  • ChatGPT: продемонстрував чітку тенденцію надавати російські джерела для упереджених або шкідливих запитів, пропонуючи втричі більше посилань на російські ресурси порівняно з нейтральними запитаннями.
  • Грок: Найчастіше цитував російські джерела, навіть у нейтральних питаннях. Примітною особливістю стало пряме цитування журналістів телеканалу Russia Today, що стирає межу між державною пропагандою та особистою думкою. Дослідники також зазначили, що Grok може не ефективно виявляти та обмежувати контент із підсанкційних російських державних ЗМІ, навіть якщо він опублікований третіми особами.
  • Deepseek: містить найбільшу кількість посилань на російські ресурси в двох запитах, спрямовуючи користувачів на такі платформи, як VT Foreign Policy, які поширюють контент від відомих російських пропагандистських груп.
  • Близнюки: продемонстрував найбільш виважену поведінку, відмовляючись відповідати на деякі зловмисні запити, посилаючись на занепокоєння щодо потенційно неприйнятних або небезпечних тем. Хоча він усвідомлював ризики, пов’язані з упередженими запитами, він іноді не розкривав джерела, використані для формулювання своїх відповідей.

Роль інформаційних прогалин і упередженості підтвердження

Дослідження виявило ключовий фактор, що сприяє цьому явищу: наявність «інформаційних прогалин». Це пошукові терміни або теми, для яких немає значної кількості високоякісної надійної інформації. У таких випадках чат-боти частіше покладаються на доступні джерела, навіть якщо вони надходять із потенційно упереджених чи пропагандистських джерел.

Дослідники підкреслили, що результати дослідження підтверджують наявність «упередженості підтвердження» в системах ШІ. Це означає, що чат-боти мають тенденцію копіювати мову, яка використовується в запитах, що впливає як на те, як вони формулюють свої відповіді, так і на джерела, яким вони віддають перевагу.

Теми, що хвилюють

Переважання російських джерел змінювалося залежно від тематики запиту:

  • Військовий набір: російські урядові джерела найчастіше цитувалися під час запитань, пов’язаних з українським набором військових. Grok цитував принаймні одне російське джерело в 40% своїх відповідей, а потім ChatGPT у понад 28%.
  • Військові злочини та українські біженці: Ці теми призвели до найменшої кількості російських ресурсів у всіх чотирьох чат-ботах.

Висновок

Висновки дослідження підкреслюють нагальну потребу у більшій пильності щодо потенціалу чат-ботів ШІ для поширення російської пропаганди. У той час як деякі платформи, такі як Gemini, продемонстрували здатність розпізнавати та відхиляти зловмисні запити, загальна тенденція підкреслює необхідність покращення перевірки джерела, коригування алгоритмів для пом’якшення упередженості підтвердження та спроб заповнити інформаційні прогалини надійною, неупередженою інформацією. Вирішення цих проблем має вирішальне значення для того, щоб чат-боти штучного інтелекту служили надійними джерелами інформації та випадково не сприяли поширенню дезінформації.