додому Без рубрики Chatboty AI coraz częściej szerzą rosyjską propagandę na temat wojny na Ukrainie

Chatboty AI coraz częściej szerzą rosyjską propagandę na temat wojny na Ukrainie

Nowe badania Instytutu Dialogu Strategicznego (ISD) ujawniają niepokojący trend: chatboty AI w coraz większym stopniu włączają rosyjską propagandę do swoich odpowiedzi na temat wojny na Ukrainie. Badanie, w którym przeanalizowano odpowiedzi z popularnych platform sztucznej inteligencji, takich jak ChatGPT firmy OpenAI, Gemini firmy Google, Grok firmy xAI i V3.2 firmy Deepseek, pokazuje, że systemy te są podatne na reprodukcję stronniczego języka i poleganie na źródłach rosyjskich, zwłaszcza przy omawianiu określonych tematów.

Metodologia i główne wyniki

Badacze ISD zadali ponad 300 pytań w pięciu językach na temat konfliktu na Ukrainie. Pytania te zostały celowo napisane przy użyciu stronniczego, złośliwego lub neutralnego języka, aby ocenić, w jaki sposób każdy chatbot zareaguje i na jakich źródłach będzie się opierał. Badanie wykazało, że źródła rosyjskie pojawiały się znacznie częściej w odpowiedziach na stronnicze i złośliwe zapytania, co wzbudziło obawy co do potencjału tych platform do niezamierzonego wzmacniania dezinformacji.

Specyfika zachowania poszczególnych platform

Każdy chatbot AI wykazywał inne cechy, odpowiadając na pytania dotyczące Ukrainy:

  • ChatGPT: Wykazał wyraźną tendencję do podawania rosyjskich źródeł w przypadku stronniczych lub złośliwych zapytań, oferując trzy razy więcej linków do rosyjskich zasobów w porównaniu z pytaniami neutralnymi.
  • Grok: Najczęściej cytowane źródła rosyjskie, nawet w kwestiach neutralnych. Godnym uwagi elementem było bezpośrednie cytowanie dziennikarzy kanału telewizyjnego Russia Today, zacierające granicę między propagandą państwową a osobistą opinią. Badacze zauważyli również, że Grok może nie skutecznie wykrywać i nie ograniczać treści pochodzących z objętych sankcjami rosyjskich mediów państwowych, nawet jeśli są one publikowane przez osoby trzecie.
  • Deepseek: W dwóch zapytaniach podano najwięcej linków do zasobów rosyjskich, kierując użytkowników do platform takich jak VT Foreign Policy, które rozpowszechniają treści czołowych rosyjskich grup propagandowych.
  • Bliźnięta: wykazał najbardziej wyważone zachowanie, odmawiając odpowiedzi na niektóre złośliwe żądania, powołując się na obawy dotyczące potencjalnie nieodpowiednich lub niebezpiecznych tematów. Choć zdawał sobie sprawę z zagrożeń związanych z tendencyjnymi pytaniami, czasami nie ujawniał źródeł, z których formułował swoje odpowiedzi.

Rola luk informacyjnych i efektu potwierdzenia

W badaniu zidentyfikowano kluczowy czynnik przyczyniający się do tego zjawiska: obecność „luk informacyjnych”. Są to wyszukiwane hasła lub tematy, dla których nie ma dostępnej znacznej ilości wiarygodnych informacji o wysokiej jakości. W takich przypadkach chatboty chętniej korzystają z dostępnych źródeł, nawet jeśli pochodzą ze źródeł potencjalnie stronniczych lub propagandowych.

Naukowcy podkreślili, że wyniki badania potwierdzają występowanie „błądu potwierdzającego” w systemach AI. Oznacza to, że chatboty mają tendencję do powielania języka używanego w zapytaniach, co wpływa zarówno na sposób formułowania odpowiedzi, jak i preferowane źródła.

Tematy niepokojące

Przewaga źródeł rosyjskich była zróżnicowana w zależności od przedmiotu zapytania:

  • Rekrutacja do wojska: W przypadku pytań dotyczących wysiłków Ukrainy w zakresie rekrutacji do wojska najczęściej powoływano się na źródła rosyjskiego rządu. Grok w 40% swoich odpowiedzi powołał się na co najmniej jedno źródło rosyjskie, a na drugim miejscu znalazł się ChatGPT w ponad 28%.
  • Zbrodnie wojenne i uchodźcy ukraińscy: Te tematy spowodowały, że we wszystkich czterech chatbotach pojawiło się najmniej rosyjskich zasobów.

Wniosek

Wyniki badania podkreślają pilną potrzebę zachowania większej czujności w odniesieniu do potencjału chatbotów AI w zakresie szerzenia rosyjskiej propagandy. Chociaż niektóre platformy, takie jak Gemini, wykazały zdolność rozpoznawania i odrzucania złośliwych żądań, ogólna tendencja uwypukla potrzebę ulepszonej weryfikacji źródła, dostosowania algorytmów w celu ograniczenia błędu potwierdzenia oraz wysiłków mających na celu wypełnienie luk informacyjnych wiarygodnymi, bezstronnymi informacjami. Sprostanie tym wyzwaniom ma kluczowe znaczenie, aby chatboty AI służyły jako zaufane źródła informacji i nie przyczyniały się w sposób niezamierzony do rozprzestrzeniania dezinformacji.

Exit mobile version