Nowe badania Instytutu Dialogu Strategicznego (ISD) ujawniają niepokojący trend: chatboty AI w coraz większym stopniu włączają rosyjską propagandę do swoich odpowiedzi na temat wojny na Ukrainie. Badanie, w którym przeanalizowano odpowiedzi z popularnych platform sztucznej inteligencji, takich jak ChatGPT firmy OpenAI, Gemini firmy Google, Grok firmy xAI i V3.2 firmy Deepseek, pokazuje, że systemy te są podatne na reprodukcję stronniczego języka i poleganie na źródłach rosyjskich, zwłaszcza przy omawianiu określonych tematów.
Metodologia i główne wyniki
Badacze ISD zadali ponad 300 pytań w pięciu językach na temat konfliktu na Ukrainie. Pytania te zostały celowo napisane przy użyciu stronniczego, złośliwego lub neutralnego języka, aby ocenić, w jaki sposób każdy chatbot zareaguje i na jakich źródłach będzie się opierał. Badanie wykazało, że źródła rosyjskie pojawiały się znacznie częściej w odpowiedziach na stronnicze i złośliwe zapytania, co wzbudziło obawy co do potencjału tych platform do niezamierzonego wzmacniania dezinformacji.
Specyfika zachowania poszczególnych platform
Każdy chatbot AI wykazywał inne cechy, odpowiadając na pytania dotyczące Ukrainy:
- ChatGPT: Wykazał wyraźną tendencję do podawania rosyjskich źródeł w przypadku stronniczych lub złośliwych zapytań, oferując trzy razy więcej linków do rosyjskich zasobów w porównaniu z pytaniami neutralnymi.
- Grok: Najczęściej cytowane źródła rosyjskie, nawet w kwestiach neutralnych. Godnym uwagi elementem było bezpośrednie cytowanie dziennikarzy kanału telewizyjnego Russia Today, zacierające granicę między propagandą państwową a osobistą opinią. Badacze zauważyli również, że Grok może nie skutecznie wykrywać i nie ograniczać treści pochodzących z objętych sankcjami rosyjskich mediów państwowych, nawet jeśli są one publikowane przez osoby trzecie.
- Deepseek: W dwóch zapytaniach podano najwięcej linków do zasobów rosyjskich, kierując użytkowników do platform takich jak VT Foreign Policy, które rozpowszechniają treści czołowych rosyjskich grup propagandowych.
- Bliźnięta: wykazał najbardziej wyważone zachowanie, odmawiając odpowiedzi na niektóre złośliwe żądania, powołując się na obawy dotyczące potencjalnie nieodpowiednich lub niebezpiecznych tematów. Choć zdawał sobie sprawę z zagrożeń związanych z tendencyjnymi pytaniami, czasami nie ujawniał źródeł, z których formułował swoje odpowiedzi.
Rola luk informacyjnych i efektu potwierdzenia
W badaniu zidentyfikowano kluczowy czynnik przyczyniający się do tego zjawiska: obecność „luk informacyjnych”. Są to wyszukiwane hasła lub tematy, dla których nie ma dostępnej znacznej ilości wiarygodnych informacji o wysokiej jakości. W takich przypadkach chatboty chętniej korzystają z dostępnych źródeł, nawet jeśli pochodzą ze źródeł potencjalnie stronniczych lub propagandowych.
Naukowcy podkreślili, że wyniki badania potwierdzają występowanie „błądu potwierdzającego” w systemach AI. Oznacza to, że chatboty mają tendencję do powielania języka używanego w zapytaniach, co wpływa zarówno na sposób formułowania odpowiedzi, jak i preferowane źródła.
Tematy niepokojące
Przewaga źródeł rosyjskich była zróżnicowana w zależności od przedmiotu zapytania:
- Rekrutacja do wojska: W przypadku pytań dotyczących wysiłków Ukrainy w zakresie rekrutacji do wojska najczęściej powoływano się na źródła rosyjskiego rządu. Grok w 40% swoich odpowiedzi powołał się na co najmniej jedno źródło rosyjskie, a na drugim miejscu znalazł się ChatGPT w ponad 28%.
- Zbrodnie wojenne i uchodźcy ukraińscy: Te tematy spowodowały, że we wszystkich czterech chatbotach pojawiło się najmniej rosyjskich zasobów.
Wniosek
Wyniki badania podkreślają pilną potrzebę zachowania większej czujności w odniesieniu do potencjału chatbotów AI w zakresie szerzenia rosyjskiej propagandy. Chociaż niektóre platformy, takie jak Gemini, wykazały zdolność rozpoznawania i odrzucania złośliwych żądań, ogólna tendencja uwypukla potrzebę ulepszonej weryfikacji źródła, dostosowania algorytmów w celu ograniczenia błędu potwierdzenia oraz wysiłków mających na celu wypełnienie luk informacyjnych wiarygodnymi, bezstronnymi informacjami. Sprostanie tym wyzwaniom ma kluczowe znaczenie, aby chatboty AI służyły jako zaufane źródła informacji i nie przyczyniały się w sposób niezamierzony do rozprzestrzeniania dezinformacji.
