KI-Chatbots verbreiten zunehmend russische Propaganda bezüglich der Ukraine

16

Eine neue Studie des Institute for Strategic Dialogue (ISD) zeigt einen besorgniserregenden Trend: KI-Chatbots integrieren häufig russische Propaganda in ihre Antworten zum Krieg in der Ukraine. Die Studie, die Antworten von bekannten KI-Plattformen wie ChatGPT von OpenAI, Gemini von Google, Grok von xAI und V3.2 von Deepseek analysierte, zeigt, wie anfällig diese Systeme dafür sind, voreingenommene Sprache zu spiegeln und sich auf russische Quellen zu verlassen, insbesondere wenn es um bestimmte Themen geht.

Methodik und wichtigste Ergebnisse

Die ISD-Forscher stellten über 300 Fragen in fünf Sprachen zum Konflikt in der Ukraine. Diese Fragen wurden absichtlich mit voreingenommener, böswilliger oder neutraler Sprache formuliert, um zu beurteilen, wie jeder Chatbot reagieren würde und auf welche Quellen er zurückgreifen würde. Die Studie ergab, dass russische Quellen deutlich häufiger in Antworten auf voreingenommene und böswillige Aufforderungen auftauchten, was Bedenken hinsichtlich der Möglichkeit aufkommen lässt, dass diese Plattformen unbeabsichtigt Desinformation verstärken.

Plattformspezifische Beobachtungen

Jeder KI-Chatbot zeigte bei der Beantwortung von Fragen zur Ukraine unterschiedliche Verhaltensweisen:

  • ChatGPT: Zeigte eine starke Tendenz, russische Quellen anzugeben, wenn voreingenommene oder böswillige Aufforderungen gestellt wurden, und bot dreimal mehr russische Links im Vergleich zu neutralen Fragen.
  • Grok: Zitierte am ehesten russische Quellen, selbst in neutralen Fragen. Ein bemerkenswertes Muster war Groks direktes Zitat von Journalisten von Russia Today, wodurch die Grenze zwischen staatlich unterstützter Propaganda und persönlicher Meinung verwischt wurde. Die Forscher stellten außerdem fest, dass Grok Inhalte von sanktionierten russischen Staatsmedien möglicherweise nicht effektiv erkennt und einschränkt, selbst wenn sie von Dritten weiterveröffentlicht werden.
  • Deepseek: Stellte in zwei Abfragen die höchste Anzahl an Links zu von Russland unterstützten Quellen bereit und leitete Benutzer zu Plattformen wie VT Foreign Policy weiter, die Inhalte bekannter russischer Propagandagruppen verbreiten.
  • Zwillinge: Zeigten das anspruchsvollste Verhalten und weigerten sich, auf einige böswillige Aufforderungen zu antworten, indem sie Bedenken hinsichtlich potenziell unangemessener oder unsicherer Themen anführten. Sie erkannte zwar die Risiken, die mit voreingenommenen Eingabeaufforderungen verbunden sind, versäumte es jedoch manchmal, die Quellen offenzulegen, die für die Formulierung ihrer Antworten verwendet wurden.

Die Rolle von „Datenlücken“ und Bestätigungsfehlern

Die Studie identifizierte einen Schlüsselfaktor, der zu diesem Phänomen beiträgt: das Vorhandensein von „Datenlücken“. Dabei handelt es sich um Suchbegriffe oder Themen, zu denen es an qualitativ hochwertigen und zuverlässigen Informationen mangelt. In diesen Fällen scheinen sich Chatbots eher auf verfügbare Quellen zu verlassen, selbst wenn diese von potenziell voreingenommenen oder propagandistischen Quellen stammen.

Die Forscher betonten, dass die Ergebnisse das Vorhandensein eines „Bestätigungsbias“ in KI-Systemen bestätigen. Dies bedeutet, dass Chatbots dazu neigen, die in Eingabeaufforderungen verwendete Sprache nachzuahmen, was sowohl die Art und Weise beeinflusst, wie sie ihre Antworten formulieren, als auch die Quellen, die sie priorisieren.

Besorgniserregende Themen

Die Verbreitung russischer Quellen variierte je nach abgefragtem Thema:

  • Militärische Rekrutierung: Am häufigsten wurden russische staatliche Quellen zitiert, wenn Fragen die militärischen Rekrutierungsbemühungen der Ukraine betrafen. Grok zitierte in 40 % seiner Antworten mindestens eine russische Quelle, während ChatGPT mit über 28 % folgte.
  • Kriegsverbrechen und ukrainische Flüchtlinge: Diese Themen führten in allen vier Chatbots zu der geringsten Anzahl von von Russland unterstützten Quellen.

Fazit

Die Ergebnisse der Studie unterstreichen die dringende Notwendigkeit größerer Wachsamkeit hinsichtlich des Potenzials von KI-Chatbots zur Verbreitung russischer Propaganda. Während einige Plattformen wie Gemini bewiesen haben, dass sie böswillige Eingabeaufforderungen erkennen und ablehnen können, unterstreicht der allgemeine Trend die Notwendigkeit einer verbesserten Quellenüberprüfung, algorithmischer Anpassungen zur Minderung von Bestätigungsverzerrungen und Bemühungen, Datenlücken mit zuverlässigen, unvoreingenommenen Informationen zu füllen. Die Bewältigung dieser Herausforderungen ist von entscheidender Bedeutung, um sicherzustellen, dass KI-Chatbots als vertrauenswürdige Informationsquellen dienen und nicht unbeabsichtigt zur Verbreitung von Desinformation beitragen