AI chatboti stále více šíří ruskou propagandu o válce na Ukrajině

11

Nový výzkum Institutu pro strategický dialog (ISD) odhaluje znepokojivý trend: AI chatboti stále více začleňují ruskou propagandu do svých odpovědí na válku na Ukrajině. Studie, která analyzovala odezvy populárních platforem umělé inteligence, jako je ChatGPT od OpenAI, Gemini od Googlu, xAI Grok a V3.2 od Deepseek, ukazuje, že tyto systémy jsou náchylné k reprodukci neobjektivního jazyka a spoléhají se na ruské zdroje, zejména při pokrytí konkrétních témat.

Metodika a hlavní výsledky

Výzkumníci ISD položili více než 300 otázek v pěti jazycích o konfliktu na Ukrajině. Tyto otázky byly záměrně napsány pomocí zaujatého, škodlivého nebo neutrálního jazyka, aby bylo možné vyhodnotit, jak každý chatbot zareaguje a na jaké zdroje se bude spoléhat. Studie zjistila, že ruské zdroje se výrazně častěji objevovaly v odpovědích na zaujaté a zlomyslné dotazy, což vyvolalo obavy z potenciálu těchto platforem neúmyslně zesilovat dezinformace.

Zvláštnosti chování jednotlivých platforem

Každý chatbot s umělou inteligencí prokázal různé vlastnosti, když odpovídal na otázky o Ukrajině:

  • ChatGPT: Prokázal jasnou tendenci poskytovat ruské zdroje pro zaujaté nebo škodlivé dotazy a nabízí třikrát více odkazů na ruské zdroje ve srovnání s neutrálními otázkami.
  • Grok: Nejčastěji citované ruské zdroje, a to i v neutrálních otázkách. Pozoruhodným rysem byla přímá citace novinářů z televizního kanálu Russia Today, čímž se stírala hranice mezi státem podporovanou propagandou a osobním názorem. Výzkumníci také poznamenali, že Grok nemusí účinně detekovat a omezovat obsah ze sankcionovaných ruských státních médií, i když je publikován třetími stranami.
  • Deepseek: Poskytl nejvíce odkazů na ruské zdroje ve dvou dotazech a nasměroval uživatele na platformy, jako je VT Foreign Policy, které distribuují obsah od předních ruských propagandistických skupin.
  • Blíženci: Vykazovali nejměřenější chování, odmítali reagovat na některé škodlivé požadavky s odkazem na obavy z potenciálně nevhodných nebo nebezpečných témat. Přestože si byl vědom rizik spojených s neobjektivními dotazy, někdy nezveřejnil zdroje použité k formulaci svých odpovědí.

Role informačních mezer a zkreslení potvrzení

Studie identifikovala klíčový faktor přispívající k tomuto jevu: přítomnost „informačních mezer“. Jedná se o hledané výrazy nebo témata, pro které není k dispozici žádné významné množství vysoce kvalitních a spolehlivých informací. V takových případech se chatboti spíše spoléhají na dostupné zdroje, i když pocházejí z potenciálně zaujatých nebo propagandistických zdrojů.

Vědci zdůraznili, že výsledky studie potvrzují přítomnost „konfirmačního zkreslení“ v systémech AI. To znamená, že chatboti mají tendenci replikovat jazyk používaný v dotazech, což ovlivňuje jak formulaci svých odpovědí, tak zdroje, které upřednostňují.

Témata vzbuzující obavy

Převaha ruských zdrojů se lišila v závislosti na předmětu žádosti:

  • Vojenský nábor: V otázkách týkajících se ukrajinského vojenského náboru byly nejčastěji citovány zdroje ruské vlády. Grok citoval alespoň jeden ruský zdroj ve 40 % svých odpovědí, následovaný ChatGPT ve více než 28 %.
  • Válečné zločiny a ukrajinští uprchlíci: Tato témata vedla k nejmenšímu počtu ruských zdrojů ze všech čtyř chatbotů.

Závěr

Závěry studie zdůrazňují naléhavou potřebu větší ostražitosti ohledně potenciálu AI chatbotů šířit ruskou propagandu. Zatímco některé platformy, jako je Gemini, prokázaly schopnost rozpoznat a odmítnout škodlivé požadavky, celkový trend zdůrazňuje potřebu lepšího ověřování zdroje, úpravy algoritmů ke zmírnění zkreslení potvrzení a snahy vyplnit mezery v informacích spolehlivými, nezkreslenými informacemi. Řešení těchto výzev je zásadní pro zajištění toho, aby AI chatboti sloužili jako důvěryhodné zdroje informací a neúmyslně nepřispívali k šíření dezinformací.